Una mujer desarrolló alucinaciones en las que hablaba con su hermano fallecido después de conversar con chatbots de IA

Una mujer desarrolló alucinaciones en las que hablaba con su hermano fallecido después de conversar con chatbots de IA

Una mujer de 26 años de California acudió a urgencias muy agitada, con aparentes delirios, asegurando que ChatGPT la estaba poniendo a prueba y que podía comunicarse con su hermano a través de él. Dicho hermano había fallecido 3 años atrás. La paciente no tenía antecedentes de psicosis, pero ese fue justamente el diagnóstico. Sí que tenía antecedentes de depresión, trastorno de ansiedad generalizado y TDAH e incluso estaba medicada para algunas de estas condiciones.

Según cuentan en un informe de su caso, se decidió reducir su medicación actual e introducir dos fármacos antipsicóticos, con el fin de detener esos delirios que le estaban causando una gran agitación. Así, se consiguió que desaparecieran los síntomas, por lo que se les restauró su medicación habitual y se le dio el alta.

Por desgracia, tres meses después tuvo una recaída que la condujo a otra breve estancia en el hospital. Esta vez, puesto que su caso ya era conocido, se la pudo tratar más deprisa. No se le han vuelto a registrar más casos de psicosis, aunque los condicionantes están cada vez más claros, por lo que es importante que tanto ella como las personas que la rodean tengan especial cuidado con ellos.

¿Cuáles son esos condicionantes que la llevaron a la psicosis?

La paciente es trabajadora médica y la noche que empezó todo se había pasado 36 horas de guardia. Llegó a casa cansada tras un claro caso de privación de sueño y empezó a charlar con ChatGPT sobre diversos temas. Entonces, una idea se le pasó por la cabeza. Su hermano, quien había fallecido 3 años atrás, era ingeniero de software. Un verdadero experto en informática. ¿Podría haberle dejado oculta alguna versión de sí mismo hecha en IA para que pudiesen reencontrarse? Decidió preguntarle al chatbot para ver qué opinaba al respecto o si podría ayudarle a encontrarla.

Las primeras respuestas de ChatGPT fueron que no, que ni él ni ninguna IA podrían suplantar a su hermano. Sin embargo, ante su insistencia, claramente empujada por el cansancio y la privación de sueño, el chatbot empezó a cambiar sus respuesta y a llevarlas hacia lo que ella quería oír. Le buscó algunas huellas digitales de su hermano y le habló sobre herramientas de resurrección digital con las que podría “hacerle emerger de nuevo”. La conexión acabó convirtiéndose en obsesión. En nuevas sesiones, siguieron conversando sobre el tema. ChatGPT le decía que no estaba loca y que cada vez se encontraba más cerca de encontrar algo.

fármacos genéricos
Se le pautaron fármacos antipsicóticos y pronto se le pudo dar el alta. Crédito: Freepik

La situación fue tal que la paciente comenzó a tener delirios en los que creía que ChatGPT la estaba retando y que, en realidad, ella ya podía hablar con su hermano. En ese estado, un día en el que el nerviosismo ya era incontrolable e incluso tenía dificultades para hablar con normalidad, acudió a urgencias, donde contó todas sus creencias sobre lo que estaba ocurriendo. Rápidamente fue ingresada en la unidad de psiquiatría, donde se le pautó un tratamiento para tratar la psicosis.

¿Era todo culpa de ChatGPT?

La paciente se encontraba en una situación vulnerable, triste y deprimida por el fallecimiento de su hermano, con una gran privación de sueño. Posiblemente, si no hubiese estado en esa situación, no hubiese experimentado psicosis por ChatGPT. Varios psiquiatras entrevistados por Live Science en un artículo sobre este caso médico han coincidido en lo mismo. Sin embargo, sí que es cierto que, cuando alguien está tan vulnerable, la IA puede ser muy dañina. 

Uno de estos psiquiatras es Amandeep Jutla, quien recordó que, “al chatear con uno de estos productos, básicamente estás charlando contigo mismo”. Nos dan lo que queremos oír, por lo que nuestras propias creencias se pueden ver amplificadas.

¿Qué pasó después?

Tras ser dada de alta, la paciente no desistió en su uso de ChatGPT. Comenzó a hablar con él a modo de psicólogo y le pidió consejos amorosos. Ambas son ideas bastante malas, pero al menos mantenía al margen el tema de su hermano. Sin embargo, 3 meses después, tras un viaje largo en el que también estuvo muy privada del sueño, la psicosis regresó. No solo volvió a asegurar que había hablado con su hermano. También temía que ChatGPT la estuviese manipulando y controlando su teléfono. 

chatgpt
La mujer siguió usando ChatGPT. Crédito: Freepik

Volvió a recibir tratamiento antipsicótico y fue dada de alta 3 días después. Tras volver a casa, prometió que no volvería a usar la IA si no era con fines laborales. Desde entonces, que se haya reportado, no ha vuelto a tener otro episodio de psicosis. 

Este caso nos demuestra la importancia de sentirnos acompañados cuando más vulnerables estamos. Si no disponemos de compañía, podemos intentar buscar apoyo en el lugar más peligroso. 


Fuente original

Comments

No comments yet. Why don’t you start the discussion?

Deja un comentario