
OpenAI, como su nombre indica, nació con una vocación abierta y, en su forma, como un instituto sin ánimo de lucro. Hoy la empresa tras ChatGPT está muy lejos de esos postulados, pero su transición hacia una compañía 100% convencional le está costando más de la cuenta por culpa de uno de sus cofundadores, que no es otro que Elon Musk, al que ahora además se le han sumado varios exempleados.
Musk, uno de sus fundadores y ahora uno de sus principales críticos, lleva meses empujando a la compañía a los tribunales. Y no está solo. Un grupo de antiguos trabajadores, algunos de ellos referentes en investigación y política de IA, se han unido a su causa con documentación que apoya la pugna del también cofundador de Tesla.
El nacimiento de un ideal: la promesa original (y fallida) de OpenAI
OpenAI nació en 2015 como una organización sin ánimo de lucro con una visión clara: desarrollar inteligencia artificial general (AGI) para beneficio de toda la humanidad. Frente a titanes como Google o Facebook, que ya experimentaban con redes neuronales a gran escala, OpenAI proponía un modelo alternativo basado en la apertura, la colaboración y la seguridad.
El mensaje fue contundente desde el principio. No se trataba de crear una nueva superempresa tecnológica, sino de garantizar que los avances más disruptivos del siglo no quedaran en manos de unos pocos. Esta misión fue consagrada en su carta fundacional y se convirtió en argumento clave para reclutar talento y financiación. La gobernanza sin ánimo de lucro era parte esencial del modelo, una garantía frente a tentaciones mercantiles.
En 2019, sin embargo, llegó el primer giro. OpenAI se transformó en una entidad "capped-profit", una figura híbrida que permitía retorno económico limitado a los inversores, mientras mantenía la estructura de control sin ánimo de lucro. Aquello se presentó como una concesión necesaria para atraer capital sin perder el alma. Pero, según denuncian ahora sus ex empleados, ese equilibrio se ha roto.
La denuncia de los disidentes: una estructura al borde de la traición
El amicus brief (algo así como una acusación de terceros) firmado por 12 exempleados no es solo una declaración legal, sino un manifiesto ético. El documento acusa a OpenAI de romper un pacto tácito con quienes se sumaron a su proyecto bajo la promesa de priorizar la seguridad y el bien común. "Estos compromisos fueron tomados extremadamente en serio dentro de la empresa", afirma el texto.
Entre los firmantes hay investigadores que participaron en las discusiones internas sobre cómo garantizar la seguridad de la AGI. En sus testimonios aparece una y otra vez la misma advertencia: la estructura de control sin ánimo de lucro era el único freno real frente a decisiones motivadas por el beneficio económico inmediato.
Durante reuniones internas, como una mencionada de finales de 2020, Sam Altman, CEO de OpenAI, habría reafirmado ese compromiso. El control del brazo sin ánimo de lucro, dijo entonces, era "supremo" para garantizar que los beneficios sociales primaran sobre los intereses privados. Pero la nueva conversión, aseguran los firmantes, desmantela ese sistema.
La tensión estructural: ¿Puede una PBC garantizar el interés general?
OpenAI defiende que la conversión a public benefit corporation (PBC) no elimina su brazo sin ánimo de lucro, sino que lo potencia. Asegura que, gracias a esta transición, podrá canalizar recursos hacia proyectos benéficos en salud, educación y ciencia. Y recuerda que otras empresas como Anthropic o xAI, la propia startup de Musk, operan bajo estructuras similares.
La clave está en el tipo de control. En la estructura actual, el ente sin ánimo de lucro tiene el poder decisivo sobre la empresa. En el modelo PBC, aunque se declara un objetivo social, la obligación fiduciaria con los inversores no desaparece. Esto, según los críticos, puede suponer que las decisiones clave se orienten cada vez más hacia el retorno económico, dejando la misión en un plano simbólico.
Además, hay un punto legal delicado: según los firmantes del amicus brief, cambiar la estructura de gobernanza supondría incumplir compromisos asumidos ante empleados y donantes. Se trataría, por tanto, no solo de una transformación estratégica, sino de una posible violación de confianza institucional.
El trasfondo ético: ¿Puede la IA ser un bien común?
La disputa entre Musk y OpenAI va más allá de lo jurídico. Es un reflejo de un debate más amplio sobre cómo se gobierna una tecnología con capacidad para alterar sistemas económicos, sociales y políticos. La inteligencia artificial, especialmente en su forma general, tiene potencial para convertirse en una infraestructura básica de la humanidad. ¿Puede, entonces, dejarse en manos de actores privados?
El movimiento hacia modelos lucrativos en laboratorios como OpenAI genera sospechas en sectores preocupados por la concentración de poder tecnológico. El temor no es solo que se desarrollen modelos peligrosos, sino que sus beneficios se distribuyan de forma desigual. En palabras del amicus brief, el riesgo es que "la IA poderosa quede concentrada entre los accionistas".
Y en este contexto, la "cláusula de fusión y asistencia" del estatuto de OpenAI —que obliga a ayudar a otro proyecto seguro si alcanza la AGI primero— corre el riesgo de volverse letra muerta si se impone una lógica corporativa.
¿Quién vigila al vigilante? La paradoja de OpenAI
La paradoja de OpenAI es la de todo pionero que pretende cambiar el sistema desde dentro. En su búsqueda de recursos para liderar la carrera por la AGI, puede acabar adoptando los mismos mecanismos que prometía evitar. Y si la estructura cambia, también cambia la naturaleza de las decisiones. ¿Puede seguir actuando por el bien común una organización obligada a rendir cuentas a inversores?
Esta es la pregunta que plantean los exempleados y que ahora también deberá considerar la justicia estadounidense. El juicio, previsto para la primavera de 2026, será algo más que una disputa corporativa: será un test de coherencia para una empresa que se ha erigido como guardián de una tecnología sin precedentes.