Tecnología

¿Censurado en Facebook? Ahora la compañía confiesa que borró contenido por un 'bug'

  • Un bug provocó que la IA eliminara publicaciones que no tendrían que haber sido eliminadas
  • Miles de publicaciones han sido restauradas a Facebook después de descubrir el error

Meta, la compañía propietaria de Facebook ha reconocido que, durante los tres primeros meses de este año un bug había estado eliminando posts que no incumplían la normativa de la página por error, la compañía ya los ha restaurado.

Las redes sociales tienen una responsabilidad con los contenidos que se publican en sus páginas, aunque recientemente Twitter se haya negado a asumir ningún tipo de responsabilidad. Por eso mismo estas plataformas tienen moderadores, tanto humanos como de Inteligencia Artificial (IA), para que detecten y eliminen el contenido que incumple con las políticas de la app.

En el caso de Meta, utilizan principalmente una tecnología automatizada para regular contenido, y como es normal en toda máquina a veces sufre daños que le causa trabajar de manera errónea. Meta acaba de confirmar, según recoge CNET, que su IA había sufrido un bug y había etiquetado como contenido prohibido a publicaciones que no lo eran.

Durante este primer trimestre, la compañía eliminó alrededor de 2.5 millones de publicaciones etiquetadas de difundir odio organizado mientras que otros 16 millones de post se eliminaron alegando que ensalzaban el terrorismo. Sin embargo, y tras descubrir el error de la IA han restaurado hasta 400.000 publicaciones falsamente etiquetadas como contenido terrorista.

Lo mismo ha ocurrido en otra de las apps propiedad de Meta, donde descubrieron que el bug de Instagram también había afectado a publicaciones referidas a temas como el suicidio, haciendo que tuvieran que restaurar más de 345.000 posts.

Ahora, tanto los usuarios como expertos se cuestionan la validez y eficacia de esta tecnología automatizada de Facebook ya que, existiendo este bug, quién dice que no vuelva a ocurrir en el futuro o que incluso haya otros que todavía no han descubierto.

La compañía ha asegurado que ya ha puesto en marcha en plan para evitar que algo así vuelva a ocurrir entre la que destaca una nueva versión de IA para moderar el contenido que aprende de las apelaciones y las restauraciones para no cometer los mismos errores. A su vez la compañía planea empezar a dar un aviso con tiempo al usuario antes de eliminar definitivamente la publicación.

Llegar a todos los contenidos que se publican en plataformas con millones y millones de usuarios es complicado, pero si las plataformas pueden abarcar ese número de cuentas, tiene la obligación de asegurarse de que el contenido que publican cumpla con la normativa impuesta por la compañía.

comentarios0WhatsAppWhatsAppFacebookFacebookTwitterTwitterLinkedinlinkedin