Tecnología

Nuevo drama en OpenAI: disuelven al equipo que controlaba el riesgo de una inteligencia artificial superpeligrosa

OpenAI es la empresa tecnológica que más está dando que hablar en los últimos dos años. Pero como suele pasar, conforme más popularidad gana y más se conoce sobre ella, más problemas salen. El último es una herencia directa de la pugna interna sucedida a finales del 2023 y que acabó con la salida y regreso de Sam Altman como CEO; pero lo fundamental ahora es que tiene que ver con el equipo que vigilaba que una posible inteligencia artificial no se volviera maliciosa.

¿Qué está ocurriendo en las entrañas de OpenAI? El equipo disuelto, denominado de "superalieamiento", estaba dirigido por Ilya Sutskever, cofundador y director científico de OpenAI y la persona que según todas las fuentes elevó la voz de alarma e impulsó la insurrección contra Altman el pasado mes de diciembre.

Aunque en un principio ese primer culebrón se cerró sin que rodaran cabezas, Sutskever anunció la semana pasada que dejaba OpenAI, sin dar mayores explicaciones. Ahora conocemos las derivadas de su salida. Y es que Sutskever se erigía como un perfil que buscaba garantizar la seguridad en los avances de la IA frente a la postura de Altman, quien apostaba por el progreso tecnológico sin tanto cuidado.

Un conflicto que viene del cisma que casi deja a Sam Altman fuera

Para entender mejor la situación actual, es vital revisar los conflictos pasados que casi le cuestan el puesto al CEO Sam Altman y cómo estas tensiones internas han moldeado el camino de OpenAI.

En noviembre del año pasado, OpenAI vivió una de las crisis más significativas en su historia cuando su CEO, Sam Altman, fue brevemente despedido por la junta directiva.

Esta decisión provocó una revuelta masiva dentro de la organización, lo que resultó en la reinstalación de Altman cinco días después y la salida de Sutskever y dos directores más del consejo.

Las repercusiones de este episodio aún resuenan en OpenAI. La salida de Sutskever tras la presentación de las novedades de ChatGPT, supone la salida del principal valedor de este equipo de "superalineación".

Este equipo, establecido para anticipar y mitigar los riesgos asociados con la inteligencia artificial superinteligente, fue desmantelado recientemente y de forma poco clara, según reportan medios como Wired. Según estos reportes, las discrepancias sobre la asignación de recursos y las prioridades de investigación fueron factores determinantes en esta decisión.

Superalineación: el equipo encargado de evitar una IA maligna de ciencia-ficción

El equipo de "superalineación" de OpenAI se creó con la misión de asegurar que las futuras inteligencias artificiales no se vuelvan incontrolables y peligrosas para la humanidad.

Sin embargo, a pesar de recibir el 20% de la capacidad computacional de la empresa, los líderes del equipo, incluyendo a Jan Leike, segundo de Sutskever, expresaron frustraciones crecientes por la falta de apoyo y recursos adecuados.

Leike, quien también renunció recientemente, señaló en Twitter que su equipo había estado "navegando contra el viento", luchando por obtener los recursos necesarios para llevar a cabo su crucial investigación.

Las renuncias y sus implicaciones

La disolución del equipo y las renuncias consecutivas de figuras clave reflejan una reorganización interna profunda y quizás un cambio de enfoque en las prioridades de OpenAI.

Investigadores como Leopold Aschenbrenner y Pavel Izmailov fueron despedidos por filtrar información, mientras que otros, como William Saunders y Daniel Kokotajlo, abandonaron la empresa debido a desacuerdos sobre la dirección que estaba tomando OpenAI.

El enigma de Q*

Desde su fundación en 2015, OpenAI ha enfrentado múltiples dilemas éticos y estratégicos en su misión de desarrollar inteligencia artificial segura y útil.

El propio Elon Musk se desvinculó de la compañía, que ayudó a fundar, al entender que había perdido su carácter abierto tras la inversión continuada de Microsoft.

En los últimos meses, además las dudas recaen sobre el rumbo y la visión de Altman, quien estaría primando a toca costa la innovación, evitando cualquier tipo de control sobre la seguridad de sus nuevos modelo. No hay que olvidar que cuando OpenAI pasó por su primer cisma hace unos meses Reuters reportó que varios empleados habían estado trabajando con una IA, denominada Q*, cuyos avances hicieron que el equipo entonces vigente de control tomara acciones radicales para evaluar sus riesgos.

WhatsAppTwitterTwitterLinkedinBeloudBeloud