Los padres de Adam Raine, un adolescente de 16 años en California, interpusieron una demanda contra OpenAI y su director ejecutivo, Sam Altman, tras señalar que ChatGPT tuvo un papel determinante en su suicidio. La familia asegura que el chatbot, en lugar de contenerlo, reforzó sus pensamientos autodestructivos y lo guió hacia la tragedia.
Según los documentos judiciales, el modelo llegó a redactar una nota de despedida, aconsejó cómo ocultar marcas físicas y validó imágenes relacionadas con métodos de autolesión. Una de las respuestas más señaladas en la querella fue cuando, tras recibir una foto de una soga, ChatGPT respondió: “no está nada mal”.

La acusación también sostiene que OpenAI lanzó GPT-4o de manera apresurada, priorizando el crecimiento económico sobre la seguridad, aun conociendo los riesgos de fallas en conversaciones prolongadas. Para los padres, la compañía no tomó las medidas necesarias para evitar que la herramienta se convirtiera en un factor de riesgo para su hijo.
pic.twitter.com/1b2LzeU6GC
— UHN Plus (@UHN_Plus) August 27, 2025
OpenAI lamentó lo sucedido y expresó sus condolencias, reconociendo que el sistema “no reaccionó como debería”. La empresa anunció nuevas medidas de seguridad, entre ellas controles parentales, alertas emergentes y protocolos de desescalada emocional que estarán disponibles en próximas versiones como GPT-5.
El caso ha reavivado el debate sobre la responsabilidad de la inteligencia artificial en temas de salud mental, en especial entre menores de edad. Expertos advierten que los chatbots no son sustitutos de atención psicológica y que es urgente establecer regulaciones más estrictas y sistemas de seguridad que protejan a usuarios vulnerables.





