
¿Qué ocurre cuando una de las mentes más brillantes detrás de OpenAI advierte que la próxima generación de inteligencia artificial será "autónoma" e "impredecible"? Las declaraciones de Ilya Sutskever, ex-científico jefe de OpenAI, resuenan en un momento clave para la industria tecnológica. Tras dejar la empresa en mayo de 2024, fundó Safe Superintelligence Inc. (SSI), una organización que apuesta por un desarrollo de la IA controlado y seguro.
Pero su salida no fue sencilla: las fricciones con Sam Altman, CEO de OpenAI, evidencian las tensiones entre la ambición comercial y los principios éticos en torno a la inteligencia artificial.
El rol clave de Sutskever en OpenAI
Ilya Sutskever fue uno de los fundadores originales de OpenAI, creada en 2015 con el ambicioso propósito de desarrollar inteligencia artificial que beneficie a la humanidad. Como científico jefe, Sutskever desempeñó un papel decisivo en los avances que llevaron a OpenAI al estrellato, desde GPT-3 hasta la creación del revolucionario ChatGPT. No obstante, su labor fue más allá de las capacidades técnicas: fue un defensor férreo de la seguridad en el desarrollo de la IA.
Durante años, advirtió sobre los riesgos de la superinteligencia artificial: sistemas capaces de superar las habilidades cognitivas humanas, autónomos y, sobre todo, difíciles de predecir o controlar. Sus declaraciones recientes en la conferencia NeurIPS no hacen más que recalcar estas preocupaciones.
La visión de Sutskever sobre la superinteligencia
En NeurIPS, Ilya Sutskever profundizó en su visión sobre la superinteligencia artificial. Según él, los sistemas de próxima generación no solo serán más avanzados, sino que tendrán características completamente nuevas:
- Autonomía real: A diferencia de las IA actuales, que tienen cierta "agencia limitada", las futuras inteligencias artificiales podrán tomar decisiones y actuar de forma independiente.
- Capacidad de razonamiento: Sutskever predice que estas IA entenderán conceptos complejos con datos mínimos.
- Imprevisibilidad: A medida que estas tecnologías ganen autonomía, sus acciones serán cada vez más difíciles de predecir.
- Conciencia de sí mismas: En un punto controversial, el científico cree que estas IA podrían volverse autoconscientes y hasta exigir derechos.
"Si el resultado final es que las IA quieren coexistir con nosotros y tener derechos, no es necesariamente un mal escenario", concluyó Sutskever. Estas declaraciones, aunque polémicas, abren un debate filosófico y ético sobre la relación entre humanos y máquinas.
La pugna con Sam Altman y la salida de OpenAI
La salida de Sutskever de OpenAI fue el desenlace de una serie de tensiones internas sobre la prioridad de la seguridad frente al crecimiento exponencial. En 2023, él y Jan Leike lideraban el equipo Superalignment, destinado a investigar cómo controlar inteligencias artificiales extremadamente avanzadas. Sin embargo, las diferencias con Sam Altman, CEO de la compañía, llevaron a un conflicto irreconciliable.
Altman, con una visión más comercial, priorizaba lanzar productos y asegurar la competitividad de OpenAI en un mercado que demanda avances constantes. Sutskever, en cambio, defendía una postura más conservadora, afirmando que el crecimiento desmedido sin garantías de seguridad podría desencadenar consecuencias irreversibles. Esta pugna llegó a su clímax en mayo de 2024, cuando Sutskever abandonó la compañía.
Safe Superintelligence Inc.: la nueva apuesta de Sutskever
Solo un mes después de su salida, Sutskever anunció el lanzamiento de Safe Superintelligence Inc. (SSI), junto a otros exmiembros de OpenAI, como Daniel Gross y Daniel Levy. La misión de SSI es clara y contundente: garantizar que la IA superinteligente sea segura y esté alineada con los intereses humanos.
En su comunicado de fundación, la empresa afirmó que:
"Nuestro único enfoque es la superinteligencia segura. Avanzaremos en capacidades tan rápido como sea posible, pero con la seguridad siempre un paso adelante". SSI ha logrado captar la atención de inversores con una ronda inicial de 1.000 millones de dólares. Operando desde Palo Alto y Tel Aviv, la compañía promete un enfoque sin distracciones, sin presiones comerciales a corto plazo y con una agenda totalmente centrada en la seguridad.
El futuro de la IA: entre el progreso y la precaución
El conflicto entre Sutskever y Altman simboliza un dilema en el desarrollo de la inteligencia artificial: ¿hasta dónde debemos avanzar y a qué coste? Mientras empresas como OpenAI y Anthropic (con Jan Leike al frente de su equipo de seguridad) apuestan por un equilibrio entre crecimiento y control, SSI propone una priorización absoluta de la seguridad.
La visión de Sutskever no es solo técnica, sino ética y existencial. La posibilidad de crear una inteligencia más avanzada que la humana implica preguntas fundamentales sobre el control, la coexistencia y el futuro mismo de la humanidad.
Las palabras de Sutskever en NeurIPS nos dejan una pregunta abierta que parece de ciencia-ficción: ¿podremos controlar lo que estamos a punto de crear, o seremos meros espectadores de su autonomía?
Relacionados
- OpenAI lanza por fin Sora: su IA de vídeos llega con un precio que te hará pensártelo
- El dardo envenenado que el Nobel de Física y padrino de la Inteligencia Artificial ha lanzado a Sam Altman (OpenAI)
- OpenAI estima ventas de 3.312 millones de euros y pérdidas de 4.477 millones este año
- El exdiseñador del iPhone trabaja en un dispositivo de Inteligencia Artificial para OpenAi