
¿Cuánto falta para que una inteligencia artificial pueda pasar desapercibida entre nosotros? Ese es el objetivo del famoso Test de Turing, publicado en los años 50 por Alan Turing, que intenta dilucidad cuando una IA podría pasar desapercibida en ciertos contextos y pasar desapercibida como un humano.
No es una prueba infalible, de hecho algunas máquinas la han superado, pero siempre en contextos y acciones muy concretas y GPT-4, el modelo principal tras ChatGPT, se creía que por sus propias condiciones, no podría hacerlo. Pues bien, lo ha logrado.
Un nuevo estudio con el test demostró que más del 50% de los participantes no pudieron distinguir entre un humano y GPT-4, lo que para muchos no solo desafía nuestros conceptos de inteligencia, sino que también presagia profundas implicaciones sociales y económicas.
GPT-4 y el test de Turing
Veamos primero en qué consiste el test. Durante la prueba, un juez humano interactúa con un humano y una máquina sin saber cuál es cuál, a través de una interfaz de texto. Si el juez no puede distinguir consistentemente entre los dos, se considera que la máquina ha pasado el test.
En el reciente experimento, llevado a cabo por investigadores de la Universidad de California en San Diego, se propuso a 500 participantes interactuaron con cuatro agentes: un humano, ELIZA (un programa de IA de los años 60 que ya logró superar el test, aunque luego fue discutido por las condiciones en las que se hizo), GPT-3.5 y GPT-4.
Las conversaciones duraron cinco minutos, después de los cuales los participantes debían determinar si habían hablado con un humano o una IA. Sorprendentemente, el 54% de los participantes creyó que GPT-4 era humano, superando a GPT-3.5, que alcanzó un 50%, y muy por encima de ELIZA.
Las implicaciones en la era de la IA
El hecho de que GPT-4 pueda engañar a más de la mitad de los participantes plantea serias cuestiones sobre la confianza y autenticidad en nuestras interacciones diarias.
El avance de las IA como GPT-4 también podría tener profundas implicaciones económicas. Las máquinas que pueden imitar a los humanos de manera convincente podrían reemplazar a los trabajadores en roles que requieren interacción humana, desde atención al cliente hasta soporte técnico.
"Esta automatización podría llevar a una reestructuración significativa del mercado laboral, con trabajos rutinarios y repetitivos siendo realizados por IA, mientras los humanos se enfocan en tareas más creativas y estratégicas", sostienen los autores del informe.
Críticas al test de Turing
A pesar de este avance, algunos críticos argumentan que el test de Turing es demasiado simplista y no mide la verdadera inteligencia o comprensión. Según el estudio, "los factores estilísticos y socioemocionales juegan un papel más importante en pasar el test que las nociones tradicionales de inteligencia".
Esto sugiere que el test podría no ser el mejor indicador de la capacidad de una IA para entender y replicar la inteligencia humana de manera auténtica.
Para evaluar de manera más completa la inteligencia artificial, es necesario desarrollar pruebas que consideren la empatía, la comprensión contextual y la capacidad de respuesta emocional y, por ahora, no hay una prueba estandarizada para esto.
Relacionados
- Estos son los temas con los que nunca debes acudir a ChatGPT: no está preparado
- ChatGPT sufre una caída mundial: OpenAI alerta de que "no está disponible" para algunos usuarios
- Descubren a grupos de China, Rusia, Israel e Irán manipulando a ChatGPT para generar y difundir bulos
- Ahora puedes usar gratis todos los GPTs de ChatGPT: para qué sirven y qué hacen estos "asistentes virtuales"