Veintiséis años después de su fallecimiento, hemos vuelto a ver a la Faraona con su voz y rostro inconfundible, resucitada digitalmente a través de la Inteligencia Artificial y con un elevado nivel de realismo para un anuncio de Cruzcampo. No es la primera vez que se utiliza el deep learning en spots publicitarios para resucitar figuras históricas y llevarlas a la realidad virtual. Bruce Lee, Audrey Hepburn o Elvis Presley ya formaron parte de esta tecnología, lo mismo que el rejuvenecimiento de Robert de Niro en The Irish Man, Eduard Fernandez en la serie 30 Monedas o el fallecido Paul Walker en Fast & Furious 7.
Las Mentiras Profundas (Deep fake) tomaron dicho nombre en 2017, cuando utilizando técnicas potentes de aprendizaje automático e Inteligencia Artificial, se logró reemplazar un contenido sintético, en este caso, la imagen de celebridades para uso de vídeos pornográficos.
A medida que ha avanzado la tecnología, hemos ido viendo otras aplicaciones, siempre rozando la sátira, parodia y lado oscuro, Obama o Mark Zuckerberg pueden dar fe de ello. Hace un año, un video de la actriz Jennifer Lawrence donde se mezclaba su voz y cuerpo con el del actor Steve Buscemi, hizo saltar las alarmas de la verosimilitud absoluta que estaba adquiriendo esta tendencia, y el potencial de engaño que podría existir para manipular o generar contenido visual atentando contra la intimidad y privacidad, escenario idóneo para que algunos de los engaños estuvieran centrados en las campañas políticas.
Aunque el spot publicitario de Cruzcampo ha comportado recopilar más de 5.000 imágenes de la artista y un largo proceso de postproducción, los avances tecnológicos están a niveles con los que cualquier persona podrá generar deepfakes a medio plazo, a través de sencillas apps y que crearan una desinformación visual.
La facilidad con la que alguien podría hacer esta producción es aterradora. La receta: mínimos conocimientos de algoritmos de aprendizaje profundo, y suficientes imágenes del rostro que buscamos hackear. Muchos de nosotros ya estamos creando bases de datos en expansión de nuestros propios rostros en las RRSS: según un informe elaborado por Honor en 2020, que analizó los hábitos a la hora de tomar fotografías de los ciudadanos de distintos países europeos, los españoles son los europeos que más selfies se toman: de media, 728 selfies al año, hackearlos es cuestión de tiempo.
Las deepfakes serán un grave problema cuando se reduzca sustancialmente su producción y lleguemos al punto que cada persona pueda realizar su realidad deseada. El problema vendrá que no seremos nosotros quien la haga, sino usurpadores de nuestra identidad con diversos fines, desde la extorsión, el desprestigio hasta el fraude financiero.
Los peligros de que los deepfakes se utilicen con fines nefastos son tan grandes que Facebook prohibió dicho contenido a principios de este año
A medida que nuestro mundo digital y optimizado algorítmicamente es vulnerable, a la propaganda, a la desinfección y a la publicidad oscura, y que estamos viviendo una infocalipsis, que está creando una inminente crisis de desinformación ante una sociedad de confianza nula, el nacimiento de una serie de herramientas tecnológicas ingeniosas, fáciles de usar y eventualmente perfectas, podrán fácilmente manipular la percepción y falsificar la realidad. El contenido no tiene que ser perfecto, solo lo suficientemente bueno.
Pensemos que esta evolución natural ya sucedió con el audio y las imágenes. Los consumidores de hoy en día retocan rutinariamente desde sus propios teléfonos inteligentes las grabaciones e imágenes de formas que antes solo se podían hacer en un laboratorio de investigación. A medida que esas tecnologías se empaqueten para los consumidores, llegaremos a aceptar que no todo lo que escuchamos o vimos será necesariamente como era.
Los peligros de que los deepfakes se utilicen con fines nefastos son tan grandes que Facebook prohibió dicho contenido a principios de este año, y ha llevado a Microsoft a lanzar una herramienta de detección de deepfakes a través de Inteligencia Artificial.
En las puertas de sufrir una amenaza de falsificaciones desmedidas con Inteligencia Artificial para desequilibrar nuestra forma de entender la realidad, y el correspondiente análisis actual sobre su posible regulación, indulgencia, ética o responsabilidad algorítmica, no todos los puntos de vista son sinestros sobre las deepfakes.
Tencent, propietaria de WeChat y uno de los tres gigantes tecnológicos de China, enfatizó recientemente que la tecnología deepfake puede crear poderosas historias alternativas y ayudar a innovar a la industria del entretenimiento, generando un nuevo género de entretenimiento hiper-personalizado, con las caras de los usuarios en películas o videojuegos, o en el e-commerce, utilizando por ejemplo modelos virtuales para probarnos la ropa que deseamos.
Más allá de hablar de inmortalidad digital –ojo al debate religioso en este sentido-, o de imaginarme sagas de películas interminables resucitando actores fallecidos o el nacimiento de compañías Rostros a la Carta, S.A., que se dediquen entre otros aspectos a llevar nuestra voz y cara a mis películas favoritas, el futuro alarmantemente distópico que se avecina me lleva a pensar implicaciones aterradoras.
Supongamos, por ejemplo, la circulación de un video alterado por deepfake en las RRSS donde aparece Fernando Simón junto s Salvador Illa, realizando una comparecencia manifestando que ha descendido drásticamente la curva de covid-19 y que podemos caminar por las calles sin mascarilla, visitar a nuestros seres queridos mayores y se eliminan momentáneamente las restricciones perimetrales y a las establecidas a la hostelería. ¿Qué situaciones de caos sucedería hasta que fuese corroborado por diversos medios?
¿Cuestionaríamos si 'ver' es de hecho 'creer'? ¿Qué sucederá cuando alguien puede hacer que parezca que algo ha sucedido, independientemente de si sucedió o no? ¡Bendita tecnología!