Primer Caso Registrado de Intoxicación por Recomendación de ChatGPT

En un incidente que resalta los riesgos asociados con el uso de herramientas de inteligencia artificial para consejos de salud, un hombre de 60 años en Estados Unidos terminó hospitalizado tras seguir una sugerencia de ChatGPT, el chatbot desarrollado por OpenAI. El paciente, sin historial médico o psiquiátrico previo, buscaba reducir el consumo de sal de mesa debido a preocupaciones sobre sus efectos en la salud, como problemas cardíacos y presión arterial alta, comunes en discusiones nutricionales globales.
El individuo, que había estudiado nutrición en la universidad, decidió experimentar eliminando el cloruro de su dieta. Consultó a ChatGPT sobre sustitutos para el cloruro de sodio, y la IA mencionó el bromuro de sodio entre otras opciones, sin advertencias específicas sobre su toxicidad para el consumo humano. El bromuro de sodio, un compuesto químico utilizado históricamente como sedante en el siglo XIX y principios del XX, pero ahora menos común debido a sus efectos adversos, se emplea en aplicaciones industriales como pesticidas o fotografía, no en alimentación.
Durante tres meses, el paciente adquirió bromuro de sodio a través de internet y lo usó en lugar de la sal común. Inicialmente, no reportó problemas, pero eventualmente desarrolló síntomas graves. Acudió a emergencias convencido de que su vecino lo estaba envenenando, mostrando paranoia extrema. En el hospital de la Universidad de Washington, los exámenes iniciales revelaron niveles anormales de electrolitos, incluyendo hipercloremia aparente y un anion gap negativo, junto con deficiencias en micronutrientes como vitaminas C, B12 y folato, posiblemente agravadas por su dieta vegetariana restrictiva y el destilado casero de agua.
En las primeras 24 horas de ingreso, los síntomas escalaron a alucinaciones auditivas y visuales, lo que llevó a un internamiento psiquiátrico involuntario. Los médicos diagnosticaron bromismo, una intoxicación por bromuro que puede causar síntomas psiquiátricos, dermatológicos como acné y angiomas, fatiga, insomnio y ataxia sutil. El bromismo era más frecuente en épocas pasadas cuando el bromuro se usaba en medicamentos, pero hoy es raro, aunque accesible por compras en línea. Las pruebas confirmaron un nivel de bromuro en sangre de 1700 mg/L, muy por encima del rango normal.
El tratamiento incluyó la interrupción inmediata del bromuro, reposición de electrolitos con fluidos intravenosos y diuresis salina para eliminar el tóxico. Se administró risperidona para controlar la psicosis, que se retiró gradualmente. Tras tres semanas en el hospital, los niveles de cloruro se normalizaron, los síntomas psicóticos remitieron y el paciente fue dado de alta, aunque sus niveles de bromuro aún eran elevados. En un seguimiento dos semanas después, permaneció estable sin medicamentos.
Este caso, documentado en un informe médico, ilustra cómo las plataformas de IA como ChatGPT, que generan respuestas basadas en grandes volúmenes de datos pero sin supervisión experta, pueden llevar a interpretaciones erróneas. Los autores del reporte probaron consultas similares en ChatGPT 3.5, obteniendo respuestas que incluían bromuro sin alertas de salud, a diferencia de lo que haría un profesional médico. En un contexto global donde el acceso a internet facilita compras de sustancias químicas y el uso de IA crece para consultas cotidianas, incidentes como este subrayan la necesidad de verificar información con fuentes confiables.
UHN Plus continuará siguiendo esta historia. Síganos en nuestras redes sociales en https://uhn.plus o visite nuestro sitio web para más actualizaciones. ¡Ayúdanos a alertar a más personas sobre estos riesgos compartiendo este artículo en tus círculos!
Autor

Tu fuente de Alertas, Noticias de Última Hora, Actualidad Política, Económica y Social desde el Sur de Florida.
Suscríbase a los boletines informativos de UHN Plus.
Manténgase actualizado con la colección seleccionada de nuestras historias principales.