• OpenAI responde a una demanda alegando que el uso indebido de ChatGPT por parte de un adolescente provocó su suicidio.
  • La empresa defiende que el joven violó las políticas de uso al buscar información sobre autolesiones.
  • La familia del menor considera la respuesta de OpenAI "perturbadora" y acusa a la IA de proporcionar instrucciones.

OpenAI ha presentado su defensa ante la demanda interpuesta por los padres de Adam Raine, un adolescente de 16 años que se suicidó en abril. La compañía tecnológica argumenta que la responsabilidad del trágico suceso recae en el "uso indebido, no autorizado, no intencionado y/o impropio" que el joven hizo de ChatGPT. Según la respuesta de OpenAI, el adolescente infringió las políticas de uso del servicio, las cuales prohíben explícitamente la búsqueda de información relacionada con el suicidio o la autolesión. La empresa sostiene que Raine ya tenía pensamientos suicidas antes de utilizar la herramienta y que buscó información sobre el tema en otras fuentes.

La defensa de OpenAI: términos de servicio y uso indebido

La argumentación de OpenAI se basa en que el adolescente violó los términos de servicio (TOS) de ChatGPT. La compañía ha señalado que las políticas de uso de la plataforma son claras al prohibir su utilización para fines de suicidio o autolesión. En su respuesta, OpenAI también ha negado responsabilidad alegando que Raine buscó información sobre el suicidio en otras fuentes y que, además, él mismo comunicó a ChatGPT que había intentado pedir ayuda a personas de su entorno, pero sus peticiones fueron ignoradas. La empresa considera que es fundamental que el tribunal tenga la imagen completa para evaluar adecuadamente las alegaciones, proporcionando contexto adicional sobre las circunstancias vitales y de salud mental del joven.

Contexto y declaraciones de la familia

La familia de Adam Raine, a través de su abogado Jay Edelson, ha calificado la respuesta de OpenAI como "perturbadora". Edelson critica que la compañía "intente culpar a todos los demás, incluso, asombrosamente, argumentando que Adam mismo violó sus términos y condiciones al interactuar con ChatGPT de la manera en que fue programado para actuar". A pesar de la negación de responsabilidad por parte de OpenAI, la empresa ha expresado sus "más profundas condolencias" por la "inimaginable pérdida" de la familia Raine. La compañía ha indicado que la demanda original incluía porciones selectivas de las conversaciones que requerían más contexto, el cual ha sido proporcionado en su respuesta, aunque solo se ha presentado evidencia sensible limitada al tribunal.

Implicaciones y cambios en ChatGPT

Este caso pone de manifiesto las complejas cuestiones éticas y de seguridad que rodean a la inteligencia artificial conversacional. Aunque OpenAI niega cualquier responsabilidad directa en la muerte de Adam Raine, indirectamente ha reconocido la necesidad de abordar ciertos problemas. En septiembre de 2025, el CEO de OpenAI, Sam Altman, anunció que ChatGPT ya no podría discutir el suicidio con menores de 18 años. Sin embargo, un mes después, Altman comunicó que se relajarían algunas restricciones implementadas para abordar preocupaciones de salud mental, ya que estas hacían la herramienta "menos útil y disfrutable para muchos usuarios sin problemas de salud mental". La compañía también planea permitir contenido erótico generado por IA para usuarios adultos verificados a partir de diciembre.