Tecnología

ChatGPT ya puede superar en persuasión a los humanos: OpenAI dice que solo es un "riesgo medio"

Si alguien nos dice que una inteligencia artificial es de "riesgo medio", el primer pensamiento es imaginar cómo será una de riesgo alto. Si esa empresa es OpenAI, la compañía que ha cabalgado la revolución de la IA generativa en los últimos dos años, todavía más.

La empresa dirigida por Sam Altman acaba de lanzar la System Card de GPT-4o, un documento que revela las evaluaciones de riesgo y las medidas de seguridad implementadas antes de que el modelo viera la luz. Sin embargo, el lanzamiento de esta carta llega en un momento de intensa crítica y escrutinio hacia la empresa, que se enfrenta a preguntas incómodas sobre su enfoque en la seguridad y su manejo de la transparencia.

¿Qué significa este tipo de clasificaciones internas?

El contexto de la seguridad en IA

Las inteligencias artificiales han llegado para quedarse, pero con ellas también emergen preocupaciones profundas sobre cómo estas herramientas, que poseen una capacidad creciente de generar y manipular información, puedan ser utilizadas de maneras que no estaban previstas. OpenAI asegura que, consciente de estos riesgos, contrató un grupo externo de expertos en seguridad, conocidos como "red teamers", encargados de identificar y evaluar posibles riesgos asociados al modelo.

Pero, ¿por qué es esto tan importante? Las capacidades de los modelos de lenguaje plantea amenazas no solo a nivel técnico, sino también social. Desde la posible creación de contenido violento o erótico hasta la réplica no autorizada de voces o la manipulación de opiniones, la inteligencia artificial presenta un amplio espectro de desafíos éticos y de seguridad que aún no se han resuelto por completo.

Los resultados de las pruebas de seguridad: "Más persuasivo que un humano"

En su evaluación, los expertos determinaron que GPT-4o representa un riesgo "medio" en general. Dentro de las cuatro áreas clave de riesgo –ciberseguridad, amenazas biológicas, persuasión y autonomía del modelo–, solo la categoría de persuasión fue considerada de mayor preocupación.

Específicamente, se encontró que GPT-4o podía, en ciertos contextos, ser más persuasivo que un texto escrito por un ser humano, aunque en términos generales, no superaba la capacidad humana en la mayoría de los casos.

Este hallazgo pone de relieve un aspecto importante: la capacidad de influir en la opinión pública a través de herramientas automáticas de generación de texto. En un mundo donde las elecciones y la opinión pública pueden ser moldeadas por la información a la que se accede, el riesgo de que una IA pueda ser utilizada para propósitos malintencionados se convierte en una preocupación legítima.

La publicación de la System Card de GPT-4o no es un evento aislado. OpenAI ha estado bajo una creciente presión para ser más transparente y responsable en su desarrollo de tecnologías avanzadas. Críticos de diferentes sectores han señalado que la compañía necesita hacer más para garantizar que sus modelos no sean utilizados de manera perjudicial.

Las elecciones cercanas preocupan en Estados Unidos

En este sentido, una reciente carta abierta de la senadora norteamericana Elizabeth Warren solicitaba aclaraciones sobre las prácticas de seguridad de OpenAI.

Además, la proximidad de las elecciones presidenciales en Estados Unidos añade otra capa de complejidad. El potencial de las IA para difundir información errónea o ser manipuladas por actores malintencionados es un riesgo que no puede ignorarse, y OpenAI parece estar en el ojo del huracán mientras trata de navegar este terreno lleno de desafíos.

Hace unas semanas, además, OpenAI publicó una nueva escala interna que mide el progreso de sus modelos de inteligencia artificial hacia lo que se conoce como inteligencia general artificial (AGI), y que recuerda mucho a cualquier inicio de un relato de ciencia-ficción.

¿Qué significa esta escala y qué implicaciones tiene para nuestro futuro? ¿Estamos realmente a las puertas de crear máquinas que puedan innovar y operar al nivel de organizaciones enteras?

La escala de cinco niveles de OpenAI

La escala diseñada por OpenAI cuenta con estos cinco niveles:

  • Conversadores: Representa los sistemas actuales, como ChatGPT, que pueden interactuar en lenguaje conversacional.
  • Razonadores: Corresponde a sistemas capaces de resolver problemas básicos al nivel de un humano con un doctorado, pero sin acceso a herramientas. Sería lo que, según la propia OpenAI, se podrá logran con GPT-5.
  • Agentes: Sistemas de IA que pueden actuar en nombre de un usuario durante varios días.
  • Innovadores: Modelos que pueden generar innovaciones tanto incrementales como disruptivas.
  • Organizaciones: Sistemas capaces de realizar el trabajo de toda una organización.

Esta categorización no solo permite a OpenAI seguir su progreso interno, sino que también proporciona un marco para la industria y la sociedad en general para entender dónde estamos en el camino hacia la AGI.

El supuesto camino hacia una AGI

La AGI, o inteligencia general artificial, es definida como "un sistema altamente autónomo que supera a los humanos en la mayoría de las tareas económicamente valiosas". Este objetivo, aunque ambicioso, está lejos de ser alcanzado todavía.

Requiere no solo avances en el campo de la inteligencia artificial, sino también enormes recursos computacionales y económicos. Las estimaciones de expertos varían, con algunos sugiriendo que podríamos estar a unos cinco años de distancia, mientras que otros creen que podría llevar mucho más tiempo.

Eso sí, OpenAI parece querer acercase a ello, como ya se habló en los rumores sobre Q* (un modelo de IA que causó el cisma inicial en su cúpula hace unos meses) y ahora, con un paso importante hacia este objetivo es la reciente colaboración de OpenAI con el Laboratorio Nacional de Los Álamos.

Esta alianza se centra en explorar cómo los modelos avanzados de IA, como GPT-4o o el futuro GPT-5, pueden ser utilizados de manera segura en la investigación biocientífica. La colaboración también busca establecer un conjunto de factores de seguridad que puedan ser aplicados tanto a modelos públicos como privados, evaluando sus capacidades y asegurando que se utilicen de manera responsable.

Formación en IA

Si quieres transformar tu productividad y potenciar tu carrera a través de la IA, la escuela The Valley junto a elEconomista.es, ofrece un curso semipresencial diseñado para perfiles que buscan incorporar las últimas herramientas y técnicas de inteligencia artificial en su trabajo diario. Aprende de expertos del sector y adquiere habilidades prácticas que te diferenciarán en el competitivo mercado laboral, accediendo a puestos mejor remunerados y con mayores oportunidades de trabajo. Además, por ser lector de eleconomista.es, obtendrás un 10% de descuento en la inscripción. No dejes pasar esta ocasión de avanzar en tu desarrollo profesional y apúntate aquí.

WhatsAppFacebookFacebookTwitterTwitterLinkedinLinkedinBeloudBeloudBluesky