La IA miente... ¡Y lo sabes!
Jordi Sabater
Barcelona,
Muchos de los memes del famoso cantante melódico español que vive en Miami terminan con un "y lo sabes" muy enigmático. Es humor. Parodia. Divertimento. Pero la primera parte del titular no tiene nada de divertido. Al revés, es inquietante.
La inteligencia artificial generativa se ha convertido en una herramienta clave en múltiples sectores, desde la creación de contenidos hasta la asistencia en la toma de decisiones empresariales, por poner dos ejemplos. Sin embargo, su fiabilidad sigue siendo una cuestión pendiente. Y pendiente es un adjetivo muy suave.
Las plataformas de IA generativa pueden ofrecer respuestas convincentes pero incorrectas, con implicaciones más que preocupantes en el ámbito económico y financiero. En un contexto donde la precisión de la información es esencial, confiar ciegamente en estos sistemas puede generar desde simples errores operativos hasta crisis reputacionales o pérdidas millonarias. Confiar en la IA, ¿sí o no?
Los datos defectuosos, el origen de todo
Los modelos de IA generativa, como los grandes modelos de lenguaje (LLM), se entrenan con volúmenes masivos de datos disponibles en internet. Este material contiene tanto información verificada como errores, sesgos y desinformación. Dado que estos modelos no tienen una comprensión real del mundo, sino que generan respuestas basadas en patrones estadísticos, pueden producir contenido plausible pero incorrecto.
El impacto de esta limitación en el sector financiero es considerable. Si una IA generativa ofrece datos inexactos en un análisis de inversión o en un informe de riesgos, las decisiones basadas en esa información pueden derivar en resultados no deseados, o sea pérdidas significativas.
Las cifras hablan por sí solas. Según Wired, un 25% de los datos de calidad que antes se empleaban para entrenar modelos se ha vuelto inaccesible, lo que agrava el problema de la fiabilidad.
Deepfakes e IA, un cóctel explosivo
El auge de los deepfakes es un claro ejemplo de cómo la IA generativa puede distorsionar la realidad. Durante las elecciones que se celebraron en distintos países a lo largo de 2024 los ejemplos de videos e imágenes manipulados fueron muy numerosos y no es en absoluto descartable su influencia en la percepción pública de los candidatos. Y por ello en los resultados.
En el ámbito financiero, esta tecnología ha sido utilizada para falsificar declaraciones de directivos, lo que ha impactado en la confianza del mercado y en la volatilidad de las acciones. Y ChatGPT tampoco se libra. Un informe reveló que estos sistemas han proporcionado recomendaciones de inversión basadas en información incorrecta o sin contexto suficiente, llevando a decisiones erróneas por parte de inversores individuales y empresas.
¿Es posible una IA más precisa?
Las empresas tecnológicas trabajan en varias soluciones para reducir estos riesgos. Una de ellas es mejorar la calidad de los datos de entrenamiento, asegurando que provengan de fuentes verificadas. No obstante, esto presenta un desafío: muchos de los mejores conjuntos de datos son de acceso restringido, lo que limita la capacidad de las IAs para generar información más precisa.
Otra propuesta interesante es la del ingeniero español Pablo Martínez Olmos, quien aboga por una "IA humilde" con un modelo que propone que la inteligencia artificial pueda reconocer y comunicar su nivel de incertidumbre, admitiendo cuando carece de suficiente información para emitir una respuesta fiable. Este enfoque podría ser particularmente útil en el sector financiero, donde los márgenes de error son mínimos y las decisiones deben basarse en datos confiables.
Además, la verificación de contenidos generados por IA es una línea de defensa cada vez más relevante. Iniciativas como la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), respaldada por empresas como Adobe y Microsoft, buscan etiquetar imágenes y videos con metadatos que permitan rastrear su origen y detectar manipulaciones. Google ha desarrollado SynthID, una herramienta que permite identificar si una imagen ha sido editada o generada artificialmente.
Estas tecnologías podrían aplicarse en el ámbito financiero para verificar la autenticidad de documentos y datos críticos. Nosotros los usuarios como parte de la solución: educación y pensamiento crítico
Si bien las mejoras en la tecnología ayudarán a reducir los errores de la IA, la formación de los usuarios sigue siendo crucial. Un informe de la UNESCO indica que la alfabetización digital y el pensamiento crítico son herramientas clave para prevenir la desinformación.
En el sector financiero, esto implica no solo verificar la información proporcionada por la IA, sino también desarrollar metodologías que complementen estas tecnologías con una supervisión humana fiable y que valide resultados.
Conclusión: supervisión, sí o sí
La inteligencia artificial generativa es una herramienta poderosa, pero su fiabilidad sigue siendo un reto. En sectores como el financiero, donde los errores pueden traducirse en pérdidas económicas y daño reputacional, la supervisión humana y la verificación de datos no son opcionales. Apostar por modelos más transparentes, implementar sistemas de autenticación y educar a los usuarios serán pasos clave para minimizar los riesgos y aprovechar el verdadero potencial de la IA sin comprometer la precisión de la información.