
¿Qué ocurre cuando una empresa busca avanzar hacia la creación de una inteligencia artificial capaz de reemplazar el trabajo humano, sin que existan mecanismos efectivos de supervisión pública? ¿Quién debería tener el dedo sobre el botón que controla una herramienta con el poder de reconfigurar nuestras economías, nuestras democracias y nuestras vidas?
El lanzamiento de The OpenAI Files ha abierto todas estas preguntas. En medio del fervor por la inteligencia artificial y la búsqueda de su versión general (AGI, que se supone que podría igualar las labores y el raciocinio humano), esta iniciativa sin ánimo de lucro pone sobre la mesa documentos y análisis que acusan a OpenAI —la empresa insignia del sector— de priorizar el crecimiento desmedido, apaciguar a inversores y silenciar voces críticas.
A pesar de que OpenAI, como indica su nombre, nació sin ánimo de lucro, hace mucho tiempo que cambió su enfoque, mutando en una estructura híbrida con objetivos cada vez más comerciales y menos transparentes.
¿Cómo hemos llegado hasta aquí? ¿Es posible construir una AGI de forma ética, compartida y democrática?
El origen idealista: de la filantropía técnica al dilema corporativo
OpenAI nació en 2015 con una promesa insólita para Silicon Valley: desarrollar inteligencia artificial avanzada para el beneficio de toda la humanidad, sin dejar que el lucro desmesurado guiara sus pasos. En su modelo inicial, los beneficios estaban limitados —un "tope de retorno" del 100x para los inversores— y el control estaba en manos de una organización sin ánimo de lucro.
Pero esa arquitectura de ensueño pronto se vio presionada por las necesidades del mercado. La carrera por el talento, la escalada computacional y la necesidad de inversiones billonarias obligaron a OpenAI a transformarse en una estructura híbrida en 2019. Desde entonces, las líneas entre el altruismo y el capital riesgo se han vuelto borrosas.
El punto de inflexión llegó cuando OpenAI anunció la eliminación del límite a los beneficios. La razón, según los nuevos documentos, fue clara: algunos de los mayores inversores condicionaron su financiación a una reestructuración que les permitiese capturar un mayor retorno. Lo que antes era una garantía de justicia intergeneracional, se convirtió en una cláusula eliminada para apaciguar al capital.
El culto al líder y la cultura del atajo
Uno de los aspectos más inquietantes revelados por The OpenAI Files es la descripción de una "cultura de imprudencia" dentro de la organización. La velocidad del desarrollo y la presión por mantenerse en la vanguardia del mercado han llevado a OpenAI —y a otras compañías como Anthropic o Google DeepMind— a lanzar productos sin suficientes evaluaciones de seguridad.
Las quejas internas, las salidas de científicos clave y las alertas de seguridad ignoradas forman un patrón que recuerda a empresas donde el propósito se ve subordinado a los calendarios financieros. La supuesta advertencia de Ilya Sutskever, ex científico jefe de OpenAI, resume bien esa tensión: "No creo que Sam deba tener el dedo sobre el botón de la AGI".
Conflictos de interés y liderazgo opaco
Otro eje central del informe es la opacidad en torno al liderazgo de Sam Altman. The OpenAI Files señalan posibles conflictos de interés entre las inversiones personales de Altman y las decisiones estratégicas de OpenAI. Aunque estas conexiones no prueban corrupción directa, sí apuntan a una estructura de gobernanza con escasos mecanismos de rendición de cuentas.
Los intentos de algunos empleados por destituir a Altman en 2023, argumentando "comportamiento caótico y engañoso", no fueron una anécdota aislada, sino el reflejo de una tensión constante entre quienes impulsan una visión ética y quienes siguen un modelo centrado en resultados rápidos.
Cuando los líderes de una empresa con poder potencialmente civilizatorio actúan en las sombras o responden ante intereses financieros antes que ante el bien común, el riesgo no es solo económico. Es existencial.
Hacia una supervisión ciudadana: ¿Utopía o necesidad urgente?
Más allá de las críticas, The OpenAI Files también sugieren vías de avance. Entre ellas destacan:
- Establecer organismos internacionales de auditoría algorítmica.
- Crear juntas de gobernanza con representación pública real.
- Exigir transparencia en modelos, datos y procesos de entrenamiento.
- Introducir mecanismos legales para frenar desarrollos no evaluados.
Estas propuestas apuntan a un nuevo contrato social en la era de la inteligencia artificial. Si la AGI puede transformar el trabajo, la geopolítica y el conocimiento mismo, no puede desarrollarse bajo la lógica de una startup del siglo XX. Hace falta una institucionalidad que esté a la altura del desafío, con participación ciudadana, expertos independientes y marcos legales robustos.
La carrera hacia el futuro exige algo más que velocidad
Vivimos un momento que recuerda, en escala y ambición, a la Revolución Industrial o a la invención de la imprenta. En cada uno de esos episodios, las tecnologías transformaron el mundo, pero también generaron desigualdades, desplazamientos y conflictos cuando no fueron acompañadas por estructuras de regulación y adaptación.
El problema no es el desarrollo de la AGI en sí, según el proyecto. Es quién la construye, cómo se supervisa y a quién responde.