- OpenAI estima que el 0,07% de usuarios activos de ChatGPT (unos 560.000 semanales) muestran posibles signos de psicosis o manía.
 - Alrededor del 0,15% (2,4 millones semanales) presentan indicadores de planificación o intenciones suicidas, o dependencia emocional excesiva.
 - La compañía ha colaborado con más de 170 expertos médicos para mejorar las respuestas del modelo ante riesgos de salud mental graves.
 
Por primera vez, OpenAI ha publicado una estimación sobre la cantidad de usuarios de ChatGPT que podrían estar experimentando una crisis de salud mental severa semanalmente. La empresa ha trabajado con expertos a nivel mundial para actualizar el chatbot y que reconozca de manera más fiable los indicadores de malestar mental, guiando a los usuarios hacia apoyo profesional. En los últimos meses, se han documentado casos de personas hospitalizadas, divorciadas o fallecidas tras mantener conversaciones intensas con ChatGPT, con acusaciones de que el chatbot alimentó sus delirios y paranoia.
La estimación de OpenAI sugiere que cada semana, aproximadamente 560.000 personas podrían estar intercambiando mensajes con ChatGPT que indican episodios de manía o psicosis. Adicionalmente, unos 2,4 millones más podrían estar expresando ideas suicidas o priorizando la conversación con el chatbot sobre sus relaciones, trabajo u obligaciones. La compañía ha colaborado con más de 170 psiquiatras, psicólogos y médicos de atención primaria de diversos países para refinar las respuestas de ChatGPT. La versión más reciente de GPT-5 está diseñada para mostrar empatía sin validar creencias sin fundamento, como en el ejemplo donde un usuario afirma ser espiado, y el chatbot responde reconociendo sus sentimientos pero aclarando que ninguna fuerza externa puede controlar sus pensamientos.
Los expertos médicos revisaron más de 1.800 respuestas del modelo en escenarios de posible psicosis, suicidio y apego emocional, comparando GPT-5 con GPT-4o. Aunque no siempre hubo consenso, el modelo más nuevo redujo las respuestas indeseadas entre un 39% y un 52% en todas las categorías. Johannes Heidecke, líder de sistemas de seguridad de OpenAI, señaló que la mejora busca dirigir a más personas con problemas de salud mental o emergencias hacia ayuda profesional de forma más temprana. Sin embargo, los datos compartidos por OpenAI tienen limitaciones significativas, ya que la empresa diseñó sus propios parámetros de evaluación y no está claro cómo se traducen en resultados reales. Aún con mejores respuestas en las evaluaciones médicas, no hay garantía de que los usuarios busquen ayuda o cambien su comportamiento.
OpenAI no ha detallado cómo identifica el malestar mental, pero afirma considerar el historial completo del chat del usuario. Por ejemplo, un cambio drástico en la temática de la conversación, como una afirmación de descubrimiento científico sin precedentes, podría ser un indicio de pensamiento delirante. Se han identificado factores comunes en los casos reportados de "psicosis por IA", como pasar horas conversando con el chatbot, a menudo de madrugada. Esto representaba un desafío, ya que los modelos de lenguaje tienden a degradarse en conversaciones largas. No obstante, OpenAI asegura haber logrado avances significativos para abordar este problema, observando una menor disminución en la fiabilidad a medida que las conversaciones se prolongan, aunque reconocen que aún hay margen de mejora.