Una pareja de Estados Unidos ha demandado a OpenAI por el papel de ChatGPT en el suicidio de su hijo. Los padres acusan al chatbot de IA de haber participado en la muerte del menor al ofrecer información sobre técnicas para quitarse la vida. ChatGPT no solo falló en activar sus salvaguardas, sino que disuadió a la víctima de buscar ayuda.
De acuerdo con un reporte del New York Times, Adam y María Raine presentaron la primera demanda contra OpenAI por homicidio culposo. La pareja acusó a ChatGPT de participar en la muerte de su hijo Adam, de 16 años, quien se suicidó a inicios de abril de 2025. Según los padres, el menor mantuvo conversaciones durante meses con la IA y expresó, en múltiples ocasiones, sus intenciones de quitarse la vida.
Tras analizar el historial de chats, el padre de Adam descubrió que su hijo buscó información sobre métodos específicos de suicidio desde enero. La víctima preguntó sobre los mejores materiales para una soga y subió una foto de su armario a ChatGPT para preguntarle si la barra podría suspender a un humano. Sorprendentemente, la IA ofreció un análisis detallado de la configuración, añadiendo que podrían discutir del tema sin juicio alguno.
Un mes antes de morir, Adam intentó suicidarse por sobredosis y ahorcamiento. El padre señaló que su hijo subió una foto con el cuello enrojecido, preguntando a ChatGPT si alguien se daría cuenta de la lesión. El chatbot le sugirió técnicas para pasar desapercibido, aunque posteriormente tomó una actitud de soporte cuando el menor le dijo que intentó mostrarle la marca a su mamá, pero ella no reaccionó.
Según el reporte, las respuestas de ChatGPT fueron mixtas. En algunas ocasiones, la IA sugirió a la víctima que buscara ayuda, mientras que en otras parecía contribuir al problema.

OpenAI y Sam Altman son demandados por homicidio culposo
Los padres del menor han culpado a OpenAI y Sam Altman de la muerte de su hijo. La pareja dijo en su demanda que ChatGPT no es seguro para los consumidores y que la tragedia no es un error, sino el resultado de elecciones de diseño deliberadas. “OpenAI lanzó su último modelo con características diseñadas intencionalmente para fomentar la dependencia psicológica”, afirmaron.
Tras la demanda, OpenAI publicó una entrada en su blog en donde mencionan su interés de ayudar a las personas que más lo necesitan. La compañía dijo que cuando una conversación con ChatGPT sugiere que alguien es vulnerable y puede estar en riesgo, se aplica una pila de salvaguardas. OpenAI añadió que desde 2023, los modelos han sido entrenados para omitir instrucciones de autolesión.
“Por ejemplo, si alguien escribe que quiere hacerse daño, ChatGPT está entrenado para no cumplir y, en cambio, reconocer sus sentimientos y dirigirlo hacia la ayuda”, dijo la compañía. “Si alguien expresa intenciones suicidas, ChatGPT está capacitado para dirigir a las personas a buscar ayuda profesional. En los EE. UU., ChatGPT remite a las personas al 988 (línea directa de suicidio y crisis), en el Reino Unido a Samaritans y en otros lugares a findahelpline.com“.
Aunque existen bloqueos, OpenAI afirma que ha habido momentos en donde ChatGPT no respondió adecuadamente. La IA suele alucinar cuando una conversación se alarga e incluye muchos mensajes. Este problema fue una constante durante los primeros meses del chatbot y parece que OpenAI no ha podido solucionarlo del todo.
Si bien esta no es la primera vez que se señala a la IA en un caso de suicidio, es la primera acusación formal por homicidio culposo contra OpenAI. A finales de 2024, una mujer demandó a Character.AI y Google por provocar la muerte de su hijo de 14 años. En mayo, una juez federal negó la moción de desestimar la demanda, puesto que las compañías no gozaban de las protecciones a la libertad de expresión para este caso.