
La Inteligencia Artificial poco a poco se está convirtiendo en un gran aliado para los usuarios, o por lo menos para aquellos que saben sacarle partido a las cientos de apps y plataformas impulsados con esta tecnología. Sin duda, el más popular de todos es ChatGPT, que cuenta con la ventaja de que es un chatbot generalista, por lo que prácticamente lo podemos usar para cualquier uso que se nos ocurra, y más todavía con la llegada de los cientos de GPTS integrados.
Pero no todo es bonito y positivo, sino que el auge de la IA también ha ayudado en parte al crecimiento de la ciberdelincuencia y la desinformación. Y aunque es verdad que estos males ya existían de antes, la llegada de esta tecnología lo ha impulsado todavía más a niveles que no podíamos sospechar.
Y es que la IA nos facilita y simplifica tanto las tareas, que los cibercriminales también han aprovechado sus uso, y tal y como ha denunciado la propia OpenAI han detectado que numerosos grupos provenientes de China, Rusia, Israel o Irán han estado utilizando la tecnología ChatGPT para crear contenido falso y engañoso con intención de difundirlo en países como EEUU o Canadá, según un informe.
Dichos grupos usaban al chatbot para escribir publicaciones, traducirlas a varios idiomas y crear software que les ayudó a publicar automáticamente en las redes sociales. Entre lo más destacados por la repercusión de sus campañas están el grupo Ruso Doppelganger que traducía y modificaba artículos y titulares en inglés, francés, alemán, italiano y polaco para difundirlos por redes sociales o empresa israelí llamada Stoic utilizó sus servicios para generar publicaciones pro-israelíes sobre la guerra de Gaza.
Si bien es cierto que estas campañas de desinformación llevan existiendo desde hace muchísimos años, y por norma general no han tenido mucha repercusión, desde OpenAI alertan que la IA ha repercutido en la calidad y cantidad de los contenidos que estas redes publican. "Los hemos visto generar texto en un volumen mayor y con menos errores de los que estas operaciones han manejado tradicionalmente".
Esto significa que las "campañas de desinformación que durante años no tuvieron repercusión, estallen repentinamente si nadie las vigila". Aunque desde OpenAI han sugerido la posibilidad de que los chatbots actúen también como agentes de desinformación, aunque técnicamente esto es algo bastante complicado.