Tecnología

En 2026 el 90% del contenido online se creará artificialmente

  • El 96% de los vídeos 'deepfakes' son pornográficos y no consentidos
  • La UE está preparando la que sería la primera ley de IA en todo el mundo

Los bulos son tan antiguos como la humanidad. Si la tecnología, y más concretamente la inteligencia artificial, ha creado un mundo de oportunidades sin precedentes, a medida que crece su expansión y su uso también lo están haciendo los conocidos como deepfakes, es decir, vídeos, imágenes o audios que imitan la apariencia y el sonido de una persona y que se han creado con inteligencia artificial.

La cifra de la proliferación de este tipo de contenido es, cuanto menos, muy preocupante. En apenas un año, entre 2019 y 2020, como expone el Foro Económico Mundial, los deepfakes crecieron un 900%. Y las previsiones no son halagüeñas. Según los expertos, de cara a 2026, en apenas tres años, el 90% del contenido online se creará de manera artificial.

"En nuestro mundo hiperconectado, los estafadores pueden recopilar fácilmente fotografías o vídeos de posibles víctimas, sobre todo cuando se trata de personajes públicos", recuerdan desde Kaspersky. Los deepfakes se utilizan para diversos fines, entre los que se encuentra la venganza, el fraude financiero, la manipulación política y el acoso. Desde la Interpol, ejemplifican cómo las campañas de desinformación pueden usarse para crear alertas de emergencias falsas, intervenir en el devenir de procesos electores o impactar en las empresas con imágenes o vídeos maliciosos que pongan en tela de juicio el comportamiento de algún directivo.

No en vano, a tenor de un estudio de VMware, el año pasado el 66% de los profesionales del sector de la ciberseguridad experimentaron ataques deepfake en sus respectivas organizaciones. En este sentido, el sector bancario es especialmente sensible. Una investigación de Regula muestra cómo el 96% de los profesionales de esta industria percibe los deepfakes como una amenaza real y que casi un 50% se ha topado con una estafa de este tipo.

El coste de la mentira

Obviamente, este tipo de cibercrimen es muy lucrativo. Como reflejan las cifras de Regula, el año pasado el 26% de las pequeñas empresas y el 38% de las grandes fueron víctimas de fraudes con deepfake que les ocasionaron pérdidas de hasta 480.000 dólares.

En esta línea, otro estudio de Kaspersky ha descubierto que el coste de la creación o la compra de deepfakes listos para usar puede tener un precio por minuto de entre 300 y 20.000 dólares, dependiendo de la complejidad del proyecto y la calidad del producto final, así como la notoriedad del suplantado (generalmente celebridades o políticos).

Como relata la empresa de seguridad, "descubrimos un proveedor que ofrecía un servicio premium para crear un deepfake de alta calidad, del cofundador de Ethereum, Vitaly Buterin. Dejamos claro que la producción no implicara simplemente el doblaje de vídeos existentes, sino más bien un servicio de producción completo, a lo que el proveedor respondió "Vitalik está listo para cualquiera de tus fantasías". El tiempo estimado de producción de un vídeo en este servicio era de menos de dos semanas, siendo el producto final un vídeo en inglés con un precio de 20.000 dólares por minuto".

Y es que la creación de un deepfake creíble requiere experiencia técnica y un software avanzado, lo que ha dado lugar a la aparición de expertos y servicios clandestinos. "Existe una demanda significativa que supera con creces la oferta: se necesitan personas que acepten encargos. Esto resulta bastante preocupante, ya que, como todos sabemos, la demanda genera oferta; por lo tanto, podemos asumir que en el futuro cercano veremos un aumento significativo en los incidentes relacionados con deepfakes de alta calidad", alertan desde Kaspersky.

Graves consecuencias

El uso de este tipo de fraude puede suponer una gran amenaza en multitud de áreas. Además, que cualquiera de los contenidos que nos encontramos en la web pueda ser susceptible de ser un deepfake, provoca una gran desconfianza y, en ocasiones, puede concluir en paranoia e inseguridad.

En este sentido, una de las principales consecuencias de este tipo de cibercrimen es la desinformación y la manipulación de la opinión pública. Como ejemplos más sonados encontramos el vídeo falso del presidente de Ucrania, Volodímir Zelenski, pidiendo la rendición de sus tropas y, por tanto, anunciando la claudicación ante Rusia, o el vídeo manipulado de la política estadounidense Nancy Pelosi (entonces presidenta de la Cámara de Representantes) en el que parecía bebida.

Es más, en 2018 en Gabón corría el rumor de que el presidente, Ali Bongo, había enfermado gravemente. Por ello, el gobierno publicó un vídeo que se sospechaba que era un deepfake por la apariencia de Bongo, lo que avivó las sospechas de que el gobierno estaba ocultando algo. Esta creencia fue una de las razones de un intento de golpe de estado una semana después.

Otra de las graves consecuencias de este uso de la tecnología son los fraudes cibernéticos. Muestra de ello es el vídeo falso que se hizo con la imagen del presidente ejecutivo de X (antes Twitter) Elon Musk en el que prometía enormes beneficios al invertir en un esquema de criptomonedas poco fiable. Una estafa que llevó a algunos usuarios a perder todo su dinero.

Los daños reputacionales y a la privacidad son otros de los grandes peligros de los deepfakes. Uno de los casos más recientes en España han sido las falsas fotos de decenas de adolescentes desnudas en Almendralejo (Badajoz) y cuyos supuestos autores tienen entre 12 y 14 años. Este mal uso de la inteligencia artificial es especialmente preocupante teniendo en cuenta que, según una investigación de Deeptrace, llevada a cabo en 2019, el 96% de los vídeos deepfakes eran pornográficos y no consentidos. Además, subraya que la pornografía creada con inteligencia artificial se centra y daña exclusivamente a las mujeres, que son objeto del 99% de los vídeos.

Por otro lado, el robo de identidad también es una de las consecuencias más graves de este tipo de fraude. Es lo que le ocurrió al gerente de un banco de Hong Kong que recibió una llamada del supuesto director para transferir 35 millones de dólares.

Luchar contra los bulos

Como señalan desde ETSI, hacer frente a los deepfakes no es tarea fácil, ya que no existe una "panacea", pero sí se puede luchar contra este tipo de bulo combinando una serie de medidas.

En este sentido, hay que partir desde lo más básico: la educación. Hay que concienciar sobre la existencia de este fenómeno y sobre lo que se puede generar con esta tecnología, que va mucho más allá de lo que muchos usuarios piensan. Asimismo, hay que enseñar cuáles son las limitaciones que presentan este tipo de contenidos y que permiten discernir qué puede ser un deepfake y qué no. Y es que los usuarios que son conocedores de esta realidad son más propensos a examinar estos contenidos y su origen, según explican desde ETSI.

Otra medida genérica sería la de advertir al usuario de que lo que está viendo se ha generado con IA. De hecho, la ley de inteligencia artificial que prepara la Unión Europea, y que sería la primera del mundo, recoge que se obligará a los sistemas de IA generativa, como ChatGPT, a que avisen de que sus contenidos se han generado artificialmente. También se deberán diseñar los modelos para evitar que generen contenidos ilegales. Desde ETSI indican que "es cuestionable si este requisito mitigará por sí sólo la proliferación de deepfakes a no ser que vaya acompañado de buenos mecanismos de detección y aplicación de la ley".

A nivel técnico, la organización señala que se puede luchar contra este tipo de contenido con métodos de diagnóstico. Por ejemplo, técnicas que permitan detectar áreas borrosas, cambios de color abruptos o errores en los píxeles. En el caso de textos, es sospechoso el uso repetitivo de un conjunto pequeño de palabras. Otro enfoque posible es utilizar sistemas de IA entrenados para detectar este tipo de contenido.

Con todo, "el auge de los deepfakes nos está obligando a darnos cuenta de algo importante e inquietante: nuestra creencia histórica de que el vídeo y el audio son registros fiables de la realidad ya no es sostenible", reflexiona Giorgio Patrini, fundador, CEO y científico jefe de Deeptrace.

WhatsAppFacebookFacebookTwitterTwitterLinkedinLinkedinBeloudBeloudBluesky