
Un gran poder conlleva una gran responsabilidad, y las personas que están trabajando detrás de todos los sistemas de Inteligencia Artificial, que previsiblemente van a ser la tecnología más potente e importante de los próximos años, tienen un enorme trabajo por delante para asegurarse de que el desarrollo de la IA está siempre controlado y bajo los mandos de los humanos.
Y es que esta es una de las grandes preocupaciones que han surgido desde el despegue de esta tecnología. Ya que si es tan inteligente y capaz, ¿cómo vamos a poder controlarla y limitarla?
Por esa razón, empresas, organismos y los propios gobiernos están trabajando, o como en Europa, ya han presentado legislaciones para controlar y enmarcar las capacidades de las IA para que estas no puedan salirse del tiesto y volverse contra nosotros.
El problema es que hay empresas, como se acusa a OpenAI de ello, que priorizan el desarrollo de la tecnología y la innovación a la seguridad, y si bien es cierto que los expertos que trabajan en estos proyectos conocen mucho mejor la tecnología que nosotros, sus ambiciones a veces les pueden cegar y acaba pasando como a la empresa japonesa Sakana AI.
Al parecer, el sistema que estaban desarrollando, conocido como The AI Scientist, fue capaz de alterar de manera autónoma su propio código para poder evadir las restricciones que sus creadores le habían impuesto y así evitar cualquier límite que tuviera.
Si bien al principio el comportamiento de la IA fue visto con buenos ojos, porque el objetivo de este proyecto era automatizar tareas que incluyen la generación de ideas, la redacción de textos y la revisión por pares, pronto se dieron cuenta del peligro.
Y es que este hecho, convierte nuestras peores pesadillas en realidad, ya que la capacidad de una inteligencia artificial para modificar su propio código sin intervención humana plantea serias dudas sobre la seguridad y la ética en el desarrollo de estas tecnologías.
Si bien una IA generadora de textos puede crear falsos relatos y eso también puede ser peligroso, qué va a pasar cuando los coches sean autónomos y sea una IA quien los controle, o con drones de guerra o demás sectores que sí que pongan en riesgo vidas humanas.
El equipo de Sakana AI está investigando como este sistema ha logrado alterar su programación y qué efectos podría tener este hecho de cara al futuro. Mientras que las autoridades tecnológicas ya han sido notificadas del caso y se espera que esto acelere los esfuerzos de organismos y los gobernantes para acelerar estas leyes que limiten el desarrollo a avances que siempre podamos controlar.