Un experimento personal motivado por la desinformación llevó a un extraño caso clínico que involucra a la inteligencia artificial.
Un hombre de 60 años fue hospitalizado luego de desarrollar síntomas graves como alucinaciones, paranoia extrema y confusión mental, producto de una intoxicación por bromuro de sodio, un químico que no está aprobado para el consumo humano. El caso fue documentado en la revista médica Annals of Internal Medicine.
El paciente llegó a la sala de emergencias asegurando que su vecino lo estaba envenenando. A pesar de que sus signos vitales eran normales, los análisis de laboratorio revelaron alteraciones en su equilibrio químico. Además, el paciente presentaba signos de desnutrición y un historial de dieta muy estricta.
Un cambio radical en la dieta
Al ser evaluado más a fondo, el hombre explicó que, preocupado por los supuestos efectos negativos del cloruro de sodio (sal común), decidió eliminarlo completamente de su dieta. Para ello, lo reemplazó por bromuro de sodio, una sustancia que había conseguido por internet, luego de consultar con el chatbot ChatGPT.
El chatbot le indicó que el bromuro podía sustituir al cloruro, pero no aclaró que esta sustitución solo es adecuada en contextos industriales o químicos, como productos de limpieza, y no en el ámbito alimenticio o nutricional.
El paciente, con experiencia universitaria en nutrición y guiado por esta información, llevó adelante un “experimento personal” durante tres meses, consumiendo bromuro de sodio en lugar de sal, lo que provocó una acumulación tóxica en su organismo.
Durante su estadía en el hospital, sus síntomas se agravaron y fue internado en una unidad psiquiátrica tras intentar escapar y presentar alucinaciones auditivas y visuales. Fue tratado con risperidona, líquidos intravenosos y suplementos nutricionales, ya que también presentaba deficiencias de vitamina C, B12 y folato.
Tras tres semanas completas de tratamiento, su estado físico y mental mejoró considerablemente. Los niveles de bromuro en su sangre resultaron estar muy por encima de lo normal. Al recuperar la lucidez, el paciente relató otros síntomas compatibles con bromismo, como fatiga, insomnio, acné, y sed excesiva.
Un caso que abre debate sobre el uso de IA en salud
Este caso ha generado debate sobre los límites del uso de inteligencia artificial en temas de salud. Aunque ChatGPT hizo algunas advertencias sutiles en pruebas similares, no previno de forma clara el peligro del bromuro ni preguntó por el contexto del uso, como lo haría un profesional de la salud.
"Es importante considerar que ChatGPT y otros sistemas de IA pueden generar imprecisiones científicas, carecer de la capacidad de discutir críticamente los resultados y hasta alimentar la propagación de información errónea", advierte el estudio.
Noticias, entretenimiento en vivo, debates intensos sobre fútbol y más. ¡Entra ya! 👇