Opinion legal

La noche que se incendió Notre Dame y la inteligencia artificial de Youtube suspendió

Ya muchos habrán leído que durante la noche del trágico suceso del incendio de Notre Dame, YouTube vinculó por error la cobertura de lo que estaba sucediendo con el 11-S. Mientras miles de parisinos miraban desde las calles, en directo, como se quemaba uno de los símbolos centenarios de Paris, en otros lugares del mundo, los que decidieron seguir el evento por YouTube para estar informados, vieron como la conocida plataforma asociaba las imágenes, y por lo tanto la noticia, con un extracto de la Enciclopedia Británica sobre los ataques del 11 de septiembre.

Youtube se lamentó más tarde del error y explicó que el mismo se debió a que, en 2018, precisamente para combatir las fake news, había implementado una herramienta ("paneles de conocimiento") que vincula algorítmicamente noticias y asocia imágenes con bancos de datos de terceros como la Enciclopedia Británica o Wikipedia. La noche del incendio de Notre Dame, el algoritmo vinculó el mismo con el de las Torres Gemelas de Nueva York el 11 de septiembre de 2011, relacionando ambos eventos.

La cuestión fue corregida, se emitió un comunicado y YouTube deshabilitó los "paneles de conocimiento" para transmisiones en vivo pero la inteligencia artificial ya había suspendido el examen de ese día, lo que suscita dudas de diferente calado.

La primera duda es respecto del papel e implicaciones del uso de la inteligencia artificial en la información: cualquier libro de estilo periodístico audiovisual enfatiza que los vídeos e imágenes deben subrayar la realidad, no distorsionarla. Y que los pies de fotos o imágenes son fundamentales para colocar el contenido en su contexto adecuado. YouTube, involuntariamente, contextualizó erróneamente una noticia. Fue solo un error, incidentes similares se han visto recientemente con Facebook o con Twitter. Pero, ¿deben asumir alguna responsabilidad estas plataformas por la información o (des)información que propician por el uso de inteligencia artificial? ¿Son meros intermediarios y por lo tanto pueden ampararse en que prestan un servicio automático, neutral y pasivo o, en casos como el presente, generan contenidos mediante la asociación mecánica?

La segunda duda es de carácter puramente técnico. Porque esta noticia es la constatación de un error de la inteligencia artificial implementada por YouTube precisamente para evitar el incidente que ha propiciado. Y llega solo tres o cuatro día después de que se haya hecho público que DeepMind, el programa de inteligencia artificial de Google, empresa a la que por cierto pertenece YouTube, había sido puesto a prueba con un examen de matemáticas de cuarenta preguntas y obtuvo una E en el sistema de calificación británico. En nuestro sistema eso equivaldría a un suspenso. Es decir que el examen, concebido para estudiantes de dieciséis años y destinado a analizar las habilidades de razonamiento matemático, puso de relieve la dificultad de DeepMind para hacer cálculos que un adolescente supuestamente debe resolver. Y esta no es una cuestión exclusiva de Youtube o de Google. Hace apenas un mes la multinacional estadounidense Facebook admitía que su sistema de inteligencia artificial para detectar contenido no permitido en la red social también había fallado y retransmitió el vídeo del atentado terrorista en Nueva Zelanda que causó innumerables muertos en dos mezquitas. Aquello fue visto masivamente. El vicepresidente de gestión de producto explicó que el sistema "no es perfecto". Lo que no explicó es cuan imperfecto es. Y lo que cabe preguntarse es: ¿cuánta perfección permite el estado de la técnica?, ¿cuánta perfección es necesaria y/o recomendable para implementar el uso? Este mismo diario publicaba hace unos días un fraude en el algoritmo que proporciona el subsidio de desempleo a 70.000 personas en paro en Suecia. Y explicaba cómo ello suscitó un debate nacional en dicho país sobre la idoneidad de decisiones automatizadas en su sistema de seguridad social. ¿Son diferentes los incidentes de YouTube y de Facebook o han de suscitar el mismo debate en sus respectivos ámbitos? En el fondo la pregunta es la misma que cuando falla un coche autónomo o se actualiza de forma automática e indebida (o deja de actualizarse) un software en aviación: ¿está la inteligencia artificial preparada para determinar ámbitos tan esenciales de la sociedad? ¿Debe de supervisarla ahora –y siempre– un humano?

Y ello nos lleva a una tercera cuestión, también de enorme actualidad: la seguridad jurídica ante el fenómeno de la inteligencia artificial. El 8 de abril la Comisión Europea presentó un informe de expertos con las líneas maestras que entiende deben de presidir el desarrollo de dicha tecnología en la Unión Europea con el objetivo de conseguir beneficios para toda la sociedad, pero protegiéndose frente a previsibles errores y ataques. El informe sitúa la ética en el centro del debate y establece como primer desafío ético de esa nueva tecnología el respeto a la dignidad humana, la democracia, la igualdad, el Estado de Derecho y los Derechos Humanos. No solo promueve que la inteligencia artificial debe de ser supervisada por seres humanos y deben de establecerse las "apropiadas medidas de contingencia" sino que el ser humano debe en todo momento mantener el control y ser informado cuando interactúa con un algoritmo y no con un ser humano. Esto último nos transporta a las novelas de Asimov. O nos recuerda a la película Her, de Spike Jonze, en la que un hombre se enamora de un sistema operativo informático, sin saberlo si no recuerdo mal. Y, sin embargo, por mucho que todo ello parezca ficción es una realidad que ya está aquí, realizando su banco de pruebas en todos los ámbitos, mientras, paradójicamente, se discute su papel en instituciones y grupos de trabajo. Y quizás la importancia de esta tercera cuestión radique en eso: que la tecnología avanza a tientas, a base de aciertos y errores; pero sin normas y con consecuencias. Y aunque yo decía en el título de esta tribuna que la noche que se incendió Notre Dame la inteligencia artificial de Youtube suspendió, a lo mejor el título no está bien elegido porque lo cierto es que hoy en día navegamos terrenos inexplorados. Y, ¿acaso puede suspenderse un examen para el que solo hay preguntas y no hay temario?

WhatsAppFacebookFacebookTwitterTwitterLinkedinLinkedinBeloudBeloudBluesky