
Ya no nos vale con buscarlo en Internet, ahora para cualquier duda o consulta que tengamos acudimos a la Inteligencia Artificial, ya que básicamente busca la información en el mismo sitio que nosotros, pero nos ahorra el trabajo de encontrar la información exacta que queremos.
Esto se puede ver como una ventaja, pero cada vez son más los expertos que alertan de esta tendencia, primero porque nos vuelve "tontos", y segundo porque la IA no es ni de lejos perfecta y falla muchísimo más de lo que pensamos, sobre todo desde el aspecto de las consultas y dudas algo más complejas.
Esta claro que si le preguntas a ChatGPT cual es el país más poblado del mundo y qué población tiene, la máquina va a saber decirlo y no va a fallar, pero es en las cuestiones en las que sustituimos a los profesionales por acudir a la IA donde está el peligro.
Y un claro ejemplo de ello es un hombre que acudió al chatbot de OpenAI para que le diseñara una dieta a seguir. Según publican en la revista Annals of Internal Medicine Clinical Cases, el varón de 60 años le pidió a ChatGPT que le diera una alternativa al cloruro sódico (sal común) para reducir su consumo.
A lo que la IA, le recomendó sustituir la sal común por bromuro de sodio. El hombre estuvo más de tres meses aplicando este cambio a sus comidas, hasta el punto de que empezó a mostrar síntomas neurológicos y psiquiátricos, como paranoia, alucinaciones, insomnio y falta de coordinación, lo que obligó a su traslado a urgencias.
Los médicos descubrieron que tenía bromismo, una intoxicación casi erradicada hoy en día, pero muy común durante el siglo XIX y el XX, debido a que era un medicamento que se recetaba y daba a las personas. Claramente fue retirado de por sus riesgos para la salud.
A parte de las alucinaciones, el paciente desarrolló también lesiones cutáneas, acné y pequeñas protuberancias rojizas vinculadas a la intoxicación. Por suerte, y gracias al trato de profesionales médicos, el paciente recibió el alta y en las revisiones no volvió a mostrar síntomas o lesiones.
Un profesional médico jamás habría recomendado el bromuro como sustituto de la sal y ahora las miradas están en ChatGPT y en cualquier otra IA en general. Desde OpenAI señalan que sus servicios no están destinados al diagnóstico o tratamiento de enfermedades, y como explican en sus términos y servicios no debe emplearse como única fuente de información.
Aun así, la mayoría de las personas hace caso omiso de esta recomendación y usa a ChatGPT como un experto en todo, y aunque dependiendo del caso puede servir, en líneas generales puede ser peligroso o engañoso. Quizás OpenAI debería bloquear las consultas médicas al igual que hace con aquellas sobre drogas o violencia.