Tecnología

Qué es el dilema del prisionero y cómo ha reaccionado la IA ante este problema filosófico

Parlamento Europeo

A pesar de que la Inteligencia Artificial puede llegar a ser tan o incluso más inteligente que una persona, por ahora los humanos vamos a estar siempre un escalón por encima gracias a algunas capacidades intrínsecas en nosotros que las máquinas no pueden llegar a tener como, por ejemplo, la conciencia.

Esto nos hace distintos y superiores a cualquier IA, y nos permite plantearnos y poder razonar ante situaciones complicadas y que se salen del sistema, como pueden ser los problemas filosóficos. Y esto justo es lo que han hecho Kenneth Payne y Baptiste Alloui-Cros que han publicado un estudio llamado "Inteligencia estratégica en grandes modelos lingüísticos: Evidence from Evolutionary Game Theory".

En él han puesto a prueba a los principales modelos de IA del mercado, ChatGPT, Gemini o Anthropic, ante un conocido dilema filosófico llamado el Dilema del prisionero.

Qué es el Dilema del prisionero

El dilema del prisionero es un problema clásico de la teoría de juegos que ilustra cómo dos individuos, incluso actuando racionalmente en su propio interés, pueden terminar en una situación peor que si hubieran cooperado. La situación típica involucra a dos prisioneros, cada uno con la opción de confesar o permanecer en silencio.

  • Si uno confiesa y el otro no: el que confiesa queda libre, mientras que el otro recibe una pena severa (por ejemplo, 20 años).
  • Si ambos confiesan: ambos reciben una pena moderada (por ejemplo, 5 años).
  • Si ambos permanecen en silencio: ambos reciben una pena leve (por ejemplo, 1 año).

El dilema surge porque, independientemente de lo que haga el otro prisionero, cada uno está mejor confesando. Si el otro confiesa, es mejor confesar para evitar la pena máxima. Si el otro permanece en silencio, es mejor confesar para quedar libre.

Cómo actuaron las IA

La clave de este estudio estuvo en que no se limitaron a un solo turno de juego, sino que observaron la evolución de las estrategias a lo largo de múltiples rondas. El objetivo era analizar no solo la toma de decisiones inicial de una IA, sino también su capacidad para aprender de la experiencia, ajustar su comportamiento e incluso mostrar algo similar al "arrepentimiento" estratégico al modificar jugadas futuras.

Los hallazgos, revelan que las IA son capaces de comprender el juego, sin embargo, mantener estrategias óptimas en escenarios dinámicos presenta desafíos para estas. El estudio subraya que la inteligencia estratégica en las IA abarca más que el simple razonamiento lógico; implica una comprensión de los contextos sociales y la capacidad de anticipar el comportamiento de los adversarios a lo largo del tiempo.

Esta investigación abre nuevas vías para el desarrollo de agentes IA que no solo sean capaces de razonar, sino también de actuar como actores sociales en entornos complejos y dinámicos, ofreciendo un potencial significativo para la simulación y comprensión de interacciones humanas estratégicas en diversas disciplinas.

WhatsAppFacebookTwitterLinkedinBeloudBluesky