Tecnología

Deepfake: ¿amenaza para el orden mundial o el futuro del entretenimiento?

  • El deep fake se origina en 2017 relacionado con una técnica para pornografía
  • Para el spot de Cruzcampo se usaron más de 5.000 imágenes de Lola Flores
  • Las 'deepfakes' serán un problema grave en manos de usurpadores de identidad

Veintiséis años después de su fallecimiento, hemos vuelto a ver a la Faraona con su voz y rostro inconfundible, resucitada digitalmente a través de la Inteligencia Artificial y con un elevado nivel de realismo para un anuncio de Cruzcampo. No es la primera vez que se utiliza el deep learning en spots publicitarios para resucitar figuras históricas y llevarlas a la realidad virtual. Bruce Lee, Audrey Hepburn o Elvis Presley ya formaron parte de esta tecnología, lo mismo que el rejuvenecimiento de Robert de Niro en The Irish Man, Eduard Fernandez en la serie 30 Monedas o el fallecido Paul Walker en Fast & Furious 7.

Las Mentiras Profundas (Deep fake) tomaron dicho nombre en 2017, cuando utilizando técnicas potentes de aprendizaje automático e Inteligencia Artificial, se logró reemplazar un contenido sintético, en este caso, la imagen de celebridades para uso de vídeos pornográficos.

A medida que ha avanzado la tecnología, hemos ido viendo otras aplicaciones, siempre rozando la sátira, parodia y lado oscuro, Obama o Mark Zuckerberg pueden dar fe de ello. Hace un año, un video de la actriz Jennifer Lawrence donde se mezclaba su voz y cuerpo con el del actor Steve Buscemi, hizo saltar las alarmas de la verosimilitud absoluta que estaba adquiriendo esta tendencia, y el potencial de engaño que podría existir para manipular o generar contenido visual atentando contra la intimidad y privacidad, escenario idóneo para que algunos de los engaños estuvieran centrados en las campañas políticas.

Aunque el spot publicitario de Cruzcampo ha comportado recopilar más de 5.000 imágenes de la artista y un largo proceso de postproducción, los avances tecnológicos están a niveles con los que cualquier persona podrá generar deepfakes a medio plazo, a través de sencillas apps y que crearan una desinformación visual.

La facilidad con la que alguien podría hacer esta producción es aterradora. La receta: mínimos conocimientos de algoritmos de aprendizaje profundo, y suficientes imágenes del rostro que buscamos hackear. Muchos de nosotros ya estamos creando bases de datos en expansión de nuestros propios rostros en las RRSS: según un informe elaborado por Honor en 2020, que analizó los hábitos a la hora de tomar fotografías de los ciudadanos de distintos países europeos, los españoles son los europeos que más selfies se toman: de media, 728 selfies al año, hackearlos es cuestión de tiempo.

Las deepfakes serán un grave problema cuando se reduzca sustancialmente su producción y lleguemos al punto que cada persona pueda realizar su realidad deseada. El problema vendrá que no seremos nosotros quien la haga, sino usurpadores de nuestra identidad con diversos fines, desde la extorsión, el desprestigio hasta el fraude financiero.

Los peligros de que los deepfakes se utilicen con fines nefastos son tan grandes que Facebook prohibió dicho contenido a principios de este año

A medida que nuestro mundo digital y optimizado algorítmicamente es vulnerable, a la propaganda, a la desinfección y a la publicidad oscura, y que estamos viviendo una infocalipsis, que está creando una inminente crisis de desinformación ante una sociedad de confianza nula, el nacimiento de una serie de herramientas tecnológicas ingeniosas, fáciles de usar y eventualmente perfectas, podrán fácilmente manipular la percepción y falsificar la realidad. El contenido no tiene que ser perfecto, solo lo suficientemente bueno.

Pensemos que esta evolución natural ya sucedió con el audio y las imágenes. Los consumidores de hoy en día retocan rutinariamente desde sus propios teléfonos inteligentes las grabaciones e imágenes de formas que antes solo se podían hacer en un laboratorio de investigación. A medida que esas tecnologías se empaqueten para los consumidores, llegaremos a aceptar que no todo lo que escuchamos o vimos será necesariamente como era.

Los peligros de que los deepfakes se utilicen con fines nefastos son tan grandes que Facebook prohibió dicho contenido a principios de este año, y ha llevado a Microsoft a lanzar una herramienta de detección de deepfakes a través de Inteligencia Artificial.

En las puertas de sufrir una amenaza de falsificaciones desmedidas con Inteligencia Artificial para desequilibrar nuestra forma de entender la realidad, y el correspondiente análisis actual sobre su posible regulación, indulgencia, ética o responsabilidad algorítmica, no todos los puntos de vista son sinestros sobre las deepfakes.

Tencent, propietaria de WeChat y uno de los tres gigantes tecnológicos de China, enfatizó recientemente que la tecnología deepfake puede crear poderosas historias alternativas y ayudar a innovar a la industria del entretenimiento, generando un nuevo género de entretenimiento hiper-personalizado, con las caras de los usuarios en películas o videojuegos, o en el e-commerce, utilizando por ejemplo modelos virtuales para probarnos la ropa que deseamos.

Más allá de hablar de inmortalidad digital –ojo al debate religioso en este sentido-, o de imaginarme sagas de películas interminables resucitando actores fallecidos o el nacimiento de compañías Rostros a la Carta, S.A., que se dediquen entre otros aspectos a llevar nuestra voz y cara a mis películas favoritas, el futuro alarmantemente distópico que se avecina me lleva a pensar implicaciones aterradoras.

Supongamos, por ejemplo, la circulación de un video alterado por deepfake en las RRSS donde aparece Fernando Simón junto s Salvador Illa, realizando una comparecencia manifestando que ha descendido drásticamente la curva de covid-19 y que podemos caminar por las calles sin mascarilla, visitar a nuestros seres queridos mayores y se eliminan momentáneamente las restricciones perimetrales y a las establecidas a la hostelería. ¿Qué situaciones de caos sucedería hasta que fuese corroborado por diversos medios?

¿Cuestionaríamos si 'ver' es de hecho 'creer'? ¿Qué sucederá cuando alguien puede hacer que parezca que algo ha sucedido, independientemente de si sucedió o no? ¡Bendita tecnología!

comentariosforum5WhatsAppWhatsAppFacebookFacebookTwitterTwitterLinkedinlinkedin

forum Comentarios 5

En esta noticia no se pueden realizar más comentarios

Genial
A Favor
En Contra

Todos los anarquistas estamos esperando a que el culto al lider desaparezca, este puede ser un gran paso adelante.

Puntuación 2
#1
Carmen
A Favor
En Contra

Supongo que en la práctica el inconveniente es la prueba. Que en cualquier juicio los peritos sepan diferenciarlos sin problemas. Igual que se sabe que una grabación o una imagen están retocados, pues esto igual. Que puede ser peligroso porque la gente se lo puede creer? Bueno... no hace falta deepfake, con Trump la gente llegó a beber lejía y los bulos más absurdos se los creen también. En el fondo la gente siente la necesidad de una realidad paralela en la que creer o a la que culpar.

Puntuación -7
#2
A Favor
En Contra

Estamos hartos que se refieran al nuevo orden mundial u orden mundial. déjense de globalismos y trabajen por España!

Puntuación -2
#3
CARMEN TIENES TODA LA RAZON!
A Favor
En Contra

#2, fíjate si tienes razón, que Trump habló de "inyectar lejia", claramente de forma irónica, y un par de mongers se la bebieron...

Y el resto os tragasteis el bulo de lo de beber lejia!

Es como el "deep fake" del fraudillo y su tésis.

Y sin necesidad de imagenes que retocar...

Puntuación -2
#4
VIO
A Favor
En Contra

Después de ver el anuncio, que si no es por el efecto mediático que ha tenido no lo hubiera hecho, me parece un anuncio muy embarullado y poco efectivo, excepto por el morbo y la novedad de ver a la Faraona joven y lozana, con ese aire de muñeca de cera parlante. En realidad, el mundo digital es un mundo infantil, que nos lleva a cuestionarnos la enseñanza que recibe nuestra juventud, que se podría clasificar como de poco calado y mucha imagen insustancial. A más móvil, menos discurso coherente. Cuantas más imágenes, menor sentido crítico ante ellas. De seguir así, ni deep fake, ni deep learning, simplemente pura idiotez e imbecilidad para llenar cabezas huecas. Educa correctamente a las personas y sabrán cómo comportarse ante cada circunstancia y cómo defenderse de estás falacias estúpidas. Hoy en día, un político o un spot publicitario se basa en ideas elementales y simples, que calen a nivel instintivo en los primeros milisegundos de percepción, y que no vayan más allá. Con el nivel educativo que hay no lo necesitan.

Puntuación 1
#5