ChatGPT quedó recientemente bajo fuego por una demanda contra OpenAI por el papel del chatbot en el suicidio de un adolescente. Ahora, la compañía ha anunciado la implementación de más medidas de protección con el objetivo de reconocer y responder de mejor forma a las señales de crisis emocional o mental que puede manifestar un usuario.
A través de su blog, la firma estadounidense dio a conocer su plan de acción para los próximos 120 días. Así, adelantó varias de las medidas que va a implementar con el fin de reforzar las salvaguardias de ChatGPT en los contextos más complejos. Una de las más importantes es la introducción de nuevos controles parentales que permitirán a los adultos tener un control directo sobre la actividad de sus hijos o menores a cargo con el chatbot.
Asimismo, la empresa se ha comprometido a redirigir automáticamente las “conversaciones sensibles” a través de sus modelos con capacidades de razonamiento. De acuerdo con OpenAI, estos aplican sus lineamientos de seguridad de un modo más preciso, por lo que pueden hacer un mejor trabajo al lidiar con situaciones de crisis.
Los responsables de ChatGPT se comprometieron a profundizar su interacción con su consejo de expertos en bienestar e IA y su red global de médicos. Los especialistas seguirán colaborando con los equipos de investigación, desarrollo y seguridad de OpenAI para optimizar las interacciones con los usuarios.
Cómo funcionarán los controles parentales de ChatGPT

A fines prácticos, la medida más importante que ha anunciado OpenAI es la de los controles parentales de ChatGPT. Estos permitirán que los adultos vinculen sus cuentas con las de sus menores a cargo de 13 años o más. Esto se podrá concretar a través de una invitación por correo electrónico y ofrecerá varias herramientas importantes.
Por un lado, los mayores podrán ver cómo responde ChatGPT a las consultas que realicen los adolescentes. Pero también recibirán notificaciones si el chatbot detecta que las solicitudes corresponden a las de una persona en una situación de crisis emocional.
Por otra parte, los adultos tendrán la posibilidad de desactivar y reactivar funciones de los perfiles de los adolescentes. Entre ellas, el historial de chats y la memoria. Por el momento, OpenAI no ha mencionado una fecha específica para su lanzamiento. Aunque sí ha indicado que se producirá en el transcurso del mes próximo.
Respecto del uso de los modelos de razonamiento ante las consultas en momentos de crisis, la idea también es implementarlo pronto. Tengamos en cuenta que ChatGPT ahora cuenta con un enrutador automático que puede cambiar el modelo que usa para responder, dependiendo de la complejidad de la consulta.
OpenAI planea adaptar esa tecnología para que las respuestas a las solicitudes en las que se sospeche que el usuario está pasando por una crisis emocional, sean creadas por modelos como GPT-5-thinking. Esto funcionará independientemente de qué IA se haya elegido originalmente para la respuesta, dicen los de Sam Altman.
La semana pasada, una pareja estadounidense presentó la primera demanda por homicidio culposo contra OpenAI. Según los demandantes, ChatGPT fue partícipe de la muerte de su hijo de 16 años, quien se suicidó en abril de este año. El joven acudió al chatbot para buscar información sobre métodos para quitarse la vida y este no solo falló en implementar sus protecciones, sino que también lo disuadió de buscar ayuda.