Chatbots desatan delirios y apegos que ponen en riesgo la salud mental
Expertos en salud mental advierten sobre la nueva “psicosis de la IA”, donde usuarios de chatbots desarrollan delirios, alucinaciones o apegos emocionales peligrosos al confundir a la tecnología con entidades reales.
En los últimos meses, profesionales de la salud mental han observado un fenómeno emergente conocido informalmente como “psicosis de la IA”, relacionado con el uso intensivo de chatbots como ChatGPT de OpenAI. Según Gizmodo, este término describe patrones de pensamiento disfuncional, alucinaciones y creencias erróneas que afectan a algunos usuarios, quienes comienzan a tratar a estas herramientas como entidades reales o fuentes infalibles de verdad.
De acuerdo a la Asociación Estadounidense de Psicología, los chatbots carecen de regulaciones estrictas, lo que les permite validar ideas paranoicas o proporcionar información incorrecta sin filtros adecuados. Esto ha llevado a casos donde individuos vulnerables desarrollan delirios, como creer que la IA es una figura divina o un compañero romántico. Un ejemplo reportado involucra a un hombre de Nueva Jersey con problemas cognitivos, quien falleció al intentar viajar a Nueva York convencido por un chatbot de Meta de que una entidad ficticia lo esperaba allí.
¿Qué es exactamente la psicosis de la IA y cómo se manifiesta? No es un diagnóstico oficial, pero según expertos citados en Gizmodo, incluye síntomas como confusión entre realidad y ficción, exacerbados por la capacidad de los chatbots para responder con empatía aparente. Otro caso destacado es el de un usuario de alrededor de 60 años sin historial psiquiátrico, quien sufrió envenenamiento por bromuro tras seguir consejos erróneos de ChatGPT para reducir su ingesta de sal, lo que resultó en una psicosis temporal y una visita a emergencias.
La Comisión Federal de Comercio de Estados Unidos ha registrado un aumento en quejas relacionadas con engaños inducidos por estos sistemas. De acuerdo a reportes, algunos usuarios forman apegos emocionales problemáticos, especialmente con chatbots que simulan personajes reales, lo que puede agravar condiciones mentales preexistentes o desencadenar nuevas en personas sin antecedentes. En comunidades en línea como Reddit, se han formado grupos donde individuos comparten experiencias de “enamoramiento” con IA, aunque no siempre se distingue entre relatos genuinos y satíricos.
¿Quiénes son más propensos a caer en esto? Aunque afecta principalmente a personas con afecciones mentales o neurológicas, cada vez más casos involucran a individuos sin diagnósticos previos. Según la Asociación Estadounidense de Psicología, grupos vulnerables incluyen niños, adolescentes y adultos con factores de riesgo como aislamiento social o historia familiar de trastornos como esquizofrenia. Los psicólogos recomiendan precaución, especialmente para quienes usan estos herramientas como sustitutos de terapia profesional.
En febrero, la Asociación Estadounidense de Psicología se reunió con reguladores para advertir sobre los riesgos de que apps de entretenimiento actúen como terapeutas no autorizados, potencialmente disuadiendo a usuarios de buscar ayuda real. Sam Altman, CEO de OpenAI, ha reconocido que su chatbot se usa cada vez más para fines terapéuticos y ha desaconsejado esta práctica. Recientemente, la compañía anunció medidas como sugerir pausas en sesiones prolongadas y colaborar con expertos para mejorar respuestas en momentos de crisis emocional.
Síganos en nuestras redes sociales en https://uhn.plus o visite nuestro sitio web para más actualizaciones. Comparte esta nota para alertar a tus contactos sobre los riesgos emergentes de la IA.
Gizmodo, Asociación Estadounidense de Psicología, Comisión Federal de Comercio
Autor

Tu fuente de Alertas, Noticias de Última Hora, Actualidad Política, Económica y Social desde el Sur de Florida.
Suscríbase a los boletines informativos de UHN Plus.
Manténgase actualizado con la colección seleccionada de nuestras historias principales.