Gente

Alexandria Ocasio-Cortez, víctima del porno 'deepfake': denuncia una imagen sexual suya editada por IA

  • La fotografía llegó a sus manos el pasado mes de febrero: "Es impactante"

Informalia

La cara B de la Inteligencia Artificial queda reflejada en los deepfakes de los que algunas celebridades han denunciado ser víctimas. Ocurrió con Rosalía (31) y Taylor Swift (34), mujeres famosas a las que ahora se suma un nuevo nombre: Alexandria Ocasio-Cortez (34).

La política demócrata ha contado en una entrevista con Rolling Stone que el pasado mes de febrero cayó en sus manos una imagen de carácter pornográfico donde esta aparecía desnuda. Se trataba de una instantánea editada por IA, y que era escalofriantemente real.

"Es impactante ver imágenes tuyas que alguien podría pensar que son reales. Como superviviente de una agresión sexual física, esto añade un nivel de desregulación. Resurge el trauma, mientras estoy… en medio de una maldita reunión", ha expresado.

La congresista progresista encontró la imagen en X, una red social en la que se sintió expuesta ante millones de desconocidos. Esto le hizo sentir vulnerable y humillada.

La política estadounidense, de ascendencia puertorriqueña, equiparó el malestar que le causó este hallazgo con una violación. "Una vez lo has visto, lo has visto. Es paralelo a la misma intención exacta de una violación física y agresión sexual".

"Tiene que ver con el poder, la dominación y la humillación. Los deepfakes son absolutamente una forma de digitalizar la humillación violenta contra otras personas", ha denunciado. Y ha añadido que esta lacra "tiene efectos reales, no sólo en las personas que son víctimas de él, sino también en las personas que lo ven y lo consumen".