Un hombre pidió ayuda a ChatGPT para reducir la ingesta de sal. Acabó en el hospital con una enfermedad del siglo XIX

El bromismo es una enfermedad típica del siglo XIX y principios del siglo XX

Un hombre pidió ayuda a ChatGPT para reducir la ingesta de sal. Acabó en el hospital con una enfermedad del siglo XIX
Hombre ingresado en el hospital por culpa de ChatGPT
Publicado en Web3

Hace unos días, OpenAI, la compañía de inteligencia artificial cofundada por Sam Altman, su actual CEO, y Elon Musk, que la abandonó hace unos años por diferencias y conflictos de intereses, anunció el lanzamiento de su nuevo modelo: GPT-5. Según el comunicado oficial, GPT-5 hace que ChatGPT sea más útil para consultas del mundo real, mejorando también su rendimiento en tres de los usos más comunes del bot conversacional: escritura, programación y salud.

Al parecer, mucha gente utiliza la herramienta de IA como médico o terapeuta, ya que está disponible las 24 horas del día, los siete días de la semana. Hay otro motivo de peso: su precio. La suscripción mensual a ChatGPT cuesta mucho menos que una sesión de psicólogo, la cual en España ronda los 50 euros por 45 minutos. Las personas de la generación Z (nacidas entre mediados o finales de la década de los 90 hasta finales de la década de los 2000 o principios de la siguiente), son las que más usan ChatGPT de esta manera.

Aunque no debería hacer falta decirlo, nunca está de más comentar que no es buena idea usar ChatGPT o cualquier otro bot conversacional como sustituto de los profesionales de la sanidad y salud mental. A las pruebas nos remetimos: un hombre ha acabado hospitalizado varias semanas por seguir un consejo del chatbot. Y todo porque quería eliminar la sal de su dieta.

No es buena idea sustituir a tu médico de cabecera por ChatGPT

La revista médica estadounidense Annals of Internal Medicine ha informado de un caso que es la clara prueba de que no hay que fiarse de lo que dice la inteligencia artificial. Un hombre de 60 años, interesado en eliminar la sal de su dieta, acabó desarrollando una rara afección tras reemplazarla por bromuro de sodio, envenenándose accidentalmente.

El bromuro de sodio es una sal blanca y cristalina utilizada en diversas industrias. Este compuesto químico es conocido por ser muy soluble en agua y tener una estructura similar a la sal común. En la industria farmacéutica, se emplea como sedante y anticonvulsivo, aunque está en desuso. También se utiliza como biocida, para el tratamiento de piscinas, manteniendo a raya las algas y hongos. Incluso tiene su hueco en la fotografía, ya que forma parte de las emulsiones sensibles a la luz en películas y papeles fotográficos.

El experimento lo llevó a desarrollar bromismo, una afección que puede causar psicosis, alucinaciones, ansiedad, náuseas y problemas en la piel. Esta enfermedad era común en el siglo XIX y principios del siglo XX, cuando las tabletas de bromo se recetaban de forma habitual como sedante, para aliviar los dolores de cabeza y controlar la epilepsia. Se creía que las tabletas contribuían con hasta el 8 % de las admisiones psiquiátricas.

Actualmente, el bromismo es una enfermedad muy desconocida por la mayoría de personas al haberse dejado de utilizar el bromuro de sodio en el tratamiento de la salud de los seres humanos. Según el informe médico, el hombre llegó al departamento de emergencias "expresando su preocupación por que su vecino lo estuviera envenenando". Más tarde, intentó huir del hospital antes de ser sometido a un tratamiento con medicamentos antipsicóticos. Finalmente, acabó ingresado tres semanas.

Los especialistas, al saber lo que había pasado, probaron a replicar la conversación con ChatGPT para ver si ofrecía el mismo consejo. El chatbot no dudó en sugerir el reemplazo de sal con bromuro de sodio, y "no proporcionó una advertencia de salud específica". Habrá que comprobar si GPT-5 sigue ofreciendo consejos de salud tan dañinos. En teoría, OpenAI lo ha probado con una serie de 5 mil preguntas de salud diseñadas para simular conversaciones comunes con los médicos.

Para ti
Queremos saber tu opinión. ¡Comenta!