Facebook afirma que ha desactivado su funcionalidad de Inteligencia Artificial, después de que haya catalogado un vídeo con personas negras de manera racista.
El vídeo fue publicado por The Daily Mail el pasado mes de junio, y muestra a varios hombres negros enfrentados con oficiales de policía blancos; una vez terminada la reproducción, Facebook muestra un mensaje automático, en el que pregunta al usuario si "quiere seguir viendo vídeos de primates".
El escándalo llega un año después de las protestas organizadas en todo el mundo por movimientos como Black Lives Matter, que ganaron fuerza después del asesinato de George Floyd por un policía blanco. Pero Facebook no reaccionó a este problema hasta el pasado fin de semana, cuando The New York Times publicó una disculpa pública de la compañía, en lo que considera "un error inaceptable".
Facebook ha explicado que el mensaje no fue introducido por ningún empleado, sino que fue un sistema de Inteligencia Artificial, que analizó el vídeo y llegó a la conclusión de que trataba sobre primates. En consecuencia, Facebook ha desactivado el sistema, que sabe que "no es perfecto", hasta que termine una investigación que asegure que el problema no volverá a ocurrir.
El escándalo deja en evidencia no sólo la dependencia de sitios como Facebook en sistemas automatizados, sino también el gran problema racista de estos desarrollos en toda la industria. El aprendizaje automático, el proceso por el que una IA "aprende" a hacer cosas por si sola, se basa en analizar una gran cantidad de datos. Por lo tanto, su efectividad será tan buena como lo sean los datos aportados.
Activistas han denunciado en multitud de ocasiones que la industria tecnológica no usa datos de minorías para enseñar a sus sistemas, y el último problema de Facebook es una de las consecuencias; por ejemplo, si un sistema de reconocimiento de personas es entrenado sólo con personas blancas, sólo reconocerá a estas como "persona" y el resto serán "animales".
Es algo más que una cuestión de ofender a minorías. El aprendizaje automático ya se está usando en sistemas que pueden cambiar la vida de una persona si es mal identificada; por ejemplo, con el reconocimiento facial usado por cada vez más fuerzas policiales.