InicioNoticiasMundoHombre pidió consejo a una IA para un experimento personal y acabó...

Hombre pidió consejo a una IA para un experimento personal y acabó en el hospital

* La intoxicación ocurrió luego de que reemplazara la sal común en su dieta con bromuro de sodio, decisión que tomó tras recibir información errónea de ChatGPT

WASHINGTON, 23 de agosto de 2025.-. Un hombre de 60 años en Estados Unidos fue hospitalizado tras desarrollar síntomas graves de intoxicación por bromuro de sodio, una sustancia química no aprobada para consumo humano. El paciente presentó alucinaciones, paranoia extrema y confusión mental, según un caso documentado en la revista Annals of Internal Medicine.

La intoxicación ocurrió luego de que reemplazara la sal común (cloruro de sodio) en su dieta con bromuro de sodio, decisión que tomó tras recibir información errónea de un chatbot de inteligencia artificial.

Al llegar a la sala de emergencias de un hospital, el paciente aseguró que su vecino intentaba envenenarlo. Aunque sus signos vitales eran normales, los análisis de laboratorio detectaron alteraciones en su equilibrio químico, además de signos de desnutrición.

En la evaluación posterior, el hombre explicó que había eliminado el cloruro de sodio de su dieta por temor a sus supuestos efectos negativos, y lo reemplazó por bromuro de sodio, adquirido por internet. Esta decisión estuvo motivada por la respuesta de un chatbot -ChatGPT -, que le indicó que el bromuro podía usarse como sustituto, sin aclarar que tal uso es válido solo en contextos industriales o químicos, nunca alimenticios.

Con estudios universitarios en nutrición, el paciente llevó a cabo un experimento durante tres meses, consumiendo bromuro de sodio en lugar de sal. Como resultado, acumuló niveles tóxicos de la sustancia en su organismo.

Su estado se agravó durante la hospitalización, llegando a presentar alucinaciones auditivas y visuales, intentos de fuga y un cuadro psiquiátrico que requirió tratamiento con risperidona. También recibió líquidos intravenosos y suplementos vitamínicos para corregir deficiencias de vitamina C, B12 y folato.

Tras tres semanas, el paciente mostró una notable mejoría física y mental. Los análisis confirmaron que los niveles de bromuro en sangre estaban muy por encima de lo normal. Además, recordó haber sufrido síntomas previos compatibles con el llamado bromismo, como fatiga, insomnio, sed excesiva y brotes de acné.

El caso ha reavivado el debate sobre el uso de la inteligencia artificial en la toma de decisiones médicas. Aunque ChatGPT mostró algunas advertencias en pruebas similares, no identificó de manera clara el riesgo del bromuro de sodio ni pidió detalles sobre el contexto de uso, algo que un profesional de la salud sí habría hecho.

Según el estudio: «Es importante considerar que ChatGPT y otros sistemas de IA pueden generar imprecisiones científicas, carecer de la capacidad de discutir críticamente los resultados y hasta alimentar la propagación de información errónea».

El caso del paciente de 60 años no solo ilustra los peligros del autodiagnóstico y la automedicación, sino también los riesgos de interpretar respuestas de la IA como equivalentes al consejo de un médico. Es importante señalar que este tipo de herramientas deben usarse como complemento y no como sustituto de la atención profesional.


Descubre más desde Fernanda Tapia

Suscríbete y recibe las últimas entradas en tu correo electrónico.

RELATED ARTICLES

Most Popular

Most Popular