Tecnología

"Debería ser una preocupación global": Sam Altman es el que más teme el impacto de la inteligencia artificial en la economía

Tener miedo a tu propia creación es un mito clásico en decenas de culturas. Del Golem judío a Frankenstein, pasando de forma más tecnológica por la invención de la bomba atómica. Ahora, Sam Altman, el líder de OpenAI y el rostro más reconocible en cuanto a inteligencia artificial, también cree que nadie se está tomando tan en serio como merece los efectos que la tecnología que propone pueden traer al mundo.

En una conferencia reciente en la Brookings Institution, Altman expuso su visión y sus temores con una claridad meridiana poco días antes de que OpenAI presentara su último avance, GPT-4o:

"El impacto de la IA en la economía debería ser una preocupación prioritaria global para las personas", dijo, afirmnado tajante que tiene miedo de que "no nos lo estemos tomando lo suficientemente en serio".

Esta llamada a la reflexión no es baladí ni es la primera vez que la realiza.

La perspectiva de Altman sobre la inteligencia artificial siempre ha sido dual: por un lado, reconoce su potencial para transformar la economía y la sociedad de maneras que apenas comenzamos a entender; por otro, alerta sobre su capacidad de acelerar desigualdades y desplazar puestos de trabajo.

La llegada de modelos como GPT-4, tras crear cierto revuelo, ha sido sucedidos por una menor preocupación pública. Una calma que a Altman le resulta tanto sorprendente como alarmante. "Lo que más me preocupa es...", dejó la frase en el aire, en una clara invitación a que quienes le escucharan reflexionaran más profundamente sobre hacia dónde nos dirigimos.

"Hay puestos de trabajo que van a desaparecer. Y punto"

En una entrevista el año pasado Altman ahondaba en esto. "Mucha gente que trabaja en IA pretende decir que solo va a ser buena, que solo va a ser un apoyo y que nunca se va a sustituir a nadie", dijo Altman al medio. "Hay puestos de trabajo que van a desaparecer. Y punto".

Aunque esta noticia no sería bien recibida por la mayoría, Altman no parece estar demasiado estresado por ello. En su opinión, un mundo con inteligencia artificial será mejor, aunque parece que no está muy seguro de cómo será ese mundo.

"No creo que queramos volver atrás", dice Altman. Uno de los puestos en los que cree que la IA tendrá menos peso será en la educación, porque opina que los humanos preferimos tratar con otros tutores humanos, aunque dice que ChatGPT da la posibilidad de dotar "a cada niño una educación mejor y más adaptada que la que recibe el mejor, más rico y más inteligente niño en la Tierra hoy en día".

Entre la innovación y el escepticismo: El balance de Altman

El desarrollo de la IA, como la ha presentado OpenAI bajo la dirección de Altman, ha sido una carrera hacia la creación de herramientas cada vez más sofisticadas y accesibles. La empresa no solo se ha enfocado en mejorar la precisión y la utilidad de sus modelos, sino también en democratizar el acceso a estas tecnologías, como evidencia el lanzamiento a usuarios gratuitos de GPT-4o, que ofrece respuestas conversacionales y puede entender audio y vídeo.

Sin embargo, Altman no es ajeno a las críticas y a los estudios que contraponen su visión. Instituciones como el MIT y la ONU han sugerido que la inteligencia artificial, contrariamente a desplazar trabajos, podría crear más empleo del que destruye. Estos argumentos plantean un escenario menos apocalíptico pero igualmente desafiante, donde la clave será la adaptación y la formación en nuevas habilidades.

La urgencia de una ética IA y la incoherencia de Altman

Uno de los puntos que Altman ha subrayado con particular énfasis es la necesidad de desarrollar una ética robusta alrededor de la IA. La autenticación de la IA y la implementación de marcas de agua en el contenido generado son medidas que considera cruciales para proteger al público de fraudes y manipulaciones, especialmente en contextos tan sensibles como las elecciones democráticas.

Pese a esto, no falta quien pone en tela de juicio la propia visión e interés de Altman, un hombre que, recordemos, en diciembre fue el centro de un culebrón en torno a la dirección de OpenAI por, al parecer, haber apostado sin ningún miramiento por avanzar en los modelos a pesar de que otros jefes científicos de la organización le advirtieran de los peligros.

El mayor exponente de este grupo de críticos, Ilya Sutskever, por cierto, acaba de salir de OpenAI de forma definitiva.

WhatsAppTwitterTwitterLinkedinBeloudBeloud