Tecnología

La IA de Facebook para eliminar mensajes de odio en realidad no funciona, según sus ingenieros

  • Más documentos internos de Facebook son publicados
  • Zuckerberg apostó por el uso de IA para moderación de contenido

Documentos internos de Facebook revelarían que las herramientas para detectar contenido que vulnera las reglas son inadecuadas para semejante tarea.

Esto es importante porque, durante años, Mark Zuckerberg ha justificado el uso de algoritmos para luchar contra el contenido ilegal y abusivo en su plataforma; hasta el punto de que el CEO de Facebook llegó a asegurar antes del 2020 que su Inteligencia Artificial sería capaz de acabar con "la mayor parte del contenido problemático" en su plataforma. De esta manera, Facebook no contrata a tantos empleados humanos, y puede dejar la moderación de su plataforma en "automático".

En la práctica, estos algoritmos ignoran la mayor parte del contenido que vulnera las reglas de Facebook; y la compañía lo sabe, según documentos internos publicados por Wall Street Journal. Las cifras de la investigación interna no dejan bien parada a la IA, afirmando que eliminó publicaciones que generaron apenas entre el 3% y el 5% de mensajes de odio, y sólo el 0,6% de las publicaciones que vulneraron las reglas de violencia.

Son cifras que no tienen absolutamente nada que ver con las que la propia Facebook publica en sus informes; según el último, publicado en febrero para negar su implicación en el asalto al Capitolio de los EEUU, la "super eficiente" Inteligencia Artificial habría detectado y borrado el 97% de las publicaciones de odio, antes incluso de que ningún humano las haya detectado.

La diferencia no sorprende a los investigadores y organizaciones que han estudiado a Facebook, que durante mucho tiempo han advertido que las cifras de Facebook no encajan con las de estudios de terceros; pero también han denunciado las dificultades que Facebook pone para obtener ese tipo de datos, y la falta de transparencia sobre cómo llegó a sus conclusiones.

Facebook ha respondido a la publicación del Wall Street Journal, aclarando que esos son documentos viejos y no actualizados, y que demuestran que su trabajo es "un viaje de varios años".

Su defensa se ha centrado en que es "más importante" ver cómo los mensajes de odio, "por lo general", se están reduciendo en Facebook, más que en la eliminación de contenido de odio. Es por eso que cree que la métrica más "objetiva" es la prevalencia, ya que representa el contenido que se les ha 'escapado', y que se ha reducido en un 50% en los últimos tres trimestres según sus datos.

Por lo tanto, Facebook estaría aceptando tácitamente que no es capaz de eliminar el contenido de odio de su plataforma, pero que lo importante es que consigue que muy poca gente lo vea.

Esta no es la primera vez ni mucho menos que Facebook tiene que defenderse de sus propios estudios internos sólo en este mes; una exempleada de Facebook filtró documentos que demostrarían que Facebook no hace nada contra el contenido odioso porque le perjudicaría económicamente.

comentariosicon-menu2WhatsAppWhatsAppFacebookFacebookTwitterTwitterLinkedinlinkedin
arrow-comments

Comentarios 2

En esta noticia no se pueden realizar más comentarios

Daniel
A Favor
En Contra

Un periódico digital abocando por la censura en Internet.

Claramente vivimos en una dictadura distópica.

Puntuación 1
#1
Al 1
A Favor
En Contra

Dices tu que censura, que dictadura y que distopia, lo que pasa es que tenemos la cabeza llena de pájaros de las series de la tele. Todo derecho siempre tiene limites, y el derecho de expresión no es una excepción, no se puede buscar amparo en la libertad de expresión para promocionar la ideas genocidas, o terroristas, o alentar la violación, o ideas que atentan contra la vida o dignidad humanas.

Puntuación 0
#2