
En las redes sociales abundan las cuentas falsas, y Facebook no es una excepción. La compañía elimina millones de cuentas falsas de su red cada día y ha tenido que buscar un método mejor y más eficiente para poder encontrar las falsificaciones: un modelo de aprendizaje automático al que llama Deep Entity Classification (DEC) (más o menos, una "clasificación de entidades profundas").
Este modelo, basado en inteligencia artificial, ya ha eliminado cientos de millones de cuentas según Facebook, ya que ha sido capaz de superar las limitaciones de anteriores métodos que no eran capaces de detectar algunas cuentas falsas que tenían comportamientos "confusos" o con los que no quedaba claro su origen.
Los anteriores métodos eran bastante útiles cuando las cuentas mostraban comportamientos sospechosos, como publicar cientos de imágenes de una marca. Pero también hay atacantes sofisticados, que engañan a este tipo de sistemas adaptando su comportamiento de forma sutil, como ajustar el número de amigos y el tiempo que mantienen activa la cuenta.
El nuevo sistema aborda estas cuestiones al observar características más "profundas" (de ahí el nombre). Lo hace conectando una cuenta sospechosa a todos los amigos, grupos y páginas con las que interactúa. Después investiga a esas cuentas conectadas. Por ejemplo, los grupos se evalúan por los miembros que atraen y los administradores. El sistema basado en IA analiza miles de características para determinar si es una cuenta falsa, como los 'likes', las páginas con las que interactúa, etc.
Con posibilidad (muy baja) de error
Esto modelo, sin embargo, también puede equivocarse. Si esto pasa, las cuentas desactivadas entran en un proceso de apelaciones que le dan al acusado la oportunidad de responder antes de que sean eliminadas permanentemente.
Aunque no todas las cuentas falsas (que no corresponden a una persona) tienen malas intenciones, a veces tienen comportamientos que la plataforma no desea. Esto depende también de factores culturales, ya que, por ejemplo, mientras algunas personas agregan sólo a gente que conocen y que son sus amigos, otras agregan a gente que no conocen de nada por el hecho de comenzar una amistad. Sin embargo, para evitar discriminar por este comportamiento, el equipo de Normas Comunitarias de Facebook solo se enfoca en valores universales.
Por otro lado, las cuentas que no corresponden a una identidad, a una persona, pueden ser en ocasiones negocios, organizaciones o "entidades no humanas" como una mascota, gente que interpreta a un famoso o un extranjero. Ante esto, el modelo intenta centrarse en aquellas que quieren "causar daño" como estafadores o spammers que intentan tener un efecto.
Los informes que ha reportado Facebook reflejan que, por el momento, este nuevo método está funcionando. Durante los dos años que se ha usado ha deshabilitado el 99,5% de las cuentas infractoras, contra las que tomaron medidas antes de que los usuarios reales las denunciaran. Entre octubre y diciembre de 2017 eliminaron 694 millones de cuentas, frente al pico de 2.200 millones que eliminaron entre enero y marzo de 2019 y las 1.700 millones que eliminaron entre julio y septiembre de 2019 (los últimos datos disponibles).