Tecnología

Google ha creado una 'Constitución Robótica' para controlar la Inteligencia Artificial: recuerda tanto a Asimov que da miedo

Imagina un mundo donde los robots y los asistentes personales con inteligencia artificial son una parte integral de nuestro entorno laboral (bueno, quizá ya estemos ahí), pero, ¿cómo asegurarnos de que estos ayudantes digitales y mecánicos no se conviertan en amenazas?

El laboratorio DeepMind de Google ha dado un paso bastante efectista pero también relevante al presentar su Robot Constitution, una serie de reglas claramente inspiradas en las famosas Leyes de la Robótica de Isaac Asimov.

Estas normas tienen la intención de servir como guía deontológica para los desarrolladores de aplicaciones de inteligencia artificial y también incluirlo dentro de las propias bases de datos de estos asistentes virtuales para que lo tengan completamente interiorizado. De este modo, persiguen no solo mejorar la seguridad en la interacción humano-robot, sino también abrir nuevas posibilidades en el desarrollo de la inteligencia artificial.

Isaac Asimov y las leyes de la robótica

Veamos el origen de todo esto. En 1942, Isaac Asimov presentó al mundo sus Tres Leyes de la Robótica, un conjunto de directrices destinadas a garantizar que los robots nunca perjudicarían a los humanos. Estas leyes, que han perdurado en la cultura popular y científica, se pueden resumir así:

  • Un robot no puede hacer daño a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
  • Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
  • Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

DeepMind ha tomado este legado y lo ha modernizado para el contexto, creando un marco que combina la ética de Asimov con la nueva realidad de la IA.

La nueva "Constitución de los robots"

DeepMind ha desarrollado una "Constitución de los robots" que funciona como un conjunto de prompts de seguridad, programados para garantizar que los robots no seleccionen tareas peligrosas. Este sistema emplea modelos de lenguaje visual (VLM) y modelos de lenguaje a gran escala (LLM) que colaboran para entender el entorno, adaptarse a situaciones nuevas y decidir tareas adecuadas.

En una prueba reciente, los robots equipados con AutoRT, el sistema de DeepMind, demostraron su capacidad para operar en entornos de oficina sin incidentes. Estos robots no son solo autónomos; pueden ser controlados remotamente o seguir scripts predefinidos, asegurando que siempre actúen de manera segura y eficiente.

Además de su "Robot Constitution", DeepMind ha introducido otras tecnologías como SARA-RT y RT-Trajectory. SARA-RT mejora la precisión y velocidad del modelo Robotic Transformer RT-2, mientras que RT-Trajectory permite a los robots realizar tareas físicas específicas, como limpiar una mesa, con mayor eficacia.

Un aspecto crucial de estos desarrollos es la inclusión de un umbral de fuerza en las articulaciones de los robots, que los detiene automáticamente si se excede cierta presión. También se ha incorporado un interruptor de apagado manual para que los operadores humanos puedan desactivar los robots en caso de emergencia.

Experimentos en el mundo real

Google ha desplegado 53 robots AutoRT en cuatro edificios de oficinas diferentes durante siete meses, acumulando más de 77.000 ensayos. Estos experimentos han demostrado que los robots pueden integrarse en entornos humanos sin causar problemas, lo que es un testimonio de la eficacia del sistema de seguridad que han implementado, según sus conclusiones.

WhatsAppTwitterTwitterLinkedinBeloudBeloud