
Desde hace unas semanas ChatGPT ha presentado la opción de introducir búsquedas web en sus resultados y también está trabajando en SearchGPT, el que se cree que pueda ser el gran rival de Google a la hora de buscar información.
Y es que, desde la llegada de ChatGPT en 2022 se ha especulado hasta el infinito con la posibilidad de que los asistentes de IA roben terreno a Google. ¿Quién quiere elegir entre varios enlaces y resultados cuando puede tener una respuesta única?
El debate es profundo y seguramente varíe en función de la intención de búsqueda, pero Google ha acabado reaccionando introduciendo módulo de IA en sus resultados que, por ahora, no han llegado a Europa pero que sí que se han desplegado en Estados Unidos.
Ahora bien, si Google ya levantaba sospechas con algunos de sus resultados, ¿nos podemos fiar de ChatGPT?
Una reciente prueba realizada por el Tow Center for Digital Journalism de Columbia ha revelado una debilidad alarmante: su fiabilidad al buscar y citar fuentes es profundamente cuestionable.
Cómo chatgpt se enfrenta a las búsquedas: un vistazo al problema
Desde su lanzamiento, ChatGPT ha sido promocionado como una herramienta revolucionaria para responder preguntas y generar contenido con rapidez y eficiencia. Sin embargo, el estudio de Columbia demuestra que esta confianza puede estar mal situada.
En pruebas que incluían 200 citas de 20 publicaciones diferentes, el chatbot ofreció respuestas incorrectas o parcialmente incorrectas en 153 ocasiones. Más preocupante aún, lo hizo con un tono seguro, dando la falsa impresión de precisión.
Los errores detectados no fueron simples malentendidos. En algunos casos, ChatGPT atribuyó citas de cartas al editor del Orlando Sentinel a artículos de la revista Time. En otros, vinculó declaraciones de un artículo del New York Times sobre ballenas en peligro de extinción a un sitio que había plagiado el contenido original.
La seguridad del tono: un arma de doble filo
El aspecto más inquietante de estos errores es la confianza con la que se presentan. Solo en siete ocasiones de las 200 pruebas realizadas, ChatGPT reconoció no estar seguro del origen de una cita, utilizando expresiones como "podría ser" o "no encontré la fuente exacta". Este tono seguro puede inducir a error incluso a usuarios experimentados, especialmente en sectores como el periodismo o la investigación académica, donde la credibilidad lo es todo.
OpenAI respondió a las críticas del estudio afirmando que las pruebas representaban un uso "atípico" del producto y se comprometió a mejorar la calidad de las búsquedas. Sin embargo, el daño ya está hecho: una herramienta promocionada como un aliado de la precisión ha mostrado ser un riesgo potencial para la veracidad.