OpenAI enfrenta demanda por el papel de ChatGPT en el suicidio de un adolescente en EU

OpenAI enfrenta demanda por el papel de ChatGPT en el suicidio de un adolescente en EU
La familia asegura que el chatbot, en lugar de contenerlo, reforzó sus pensamientos autodestructivos. | Pixabay

Los padres de Adam Raine, un adolescente de 16 años en California, interpusieron una demanda contra OpenAI y su director ejecutivo, Sam Altman, tras señalar que ChatGPT tuvo un papel determinante en su suicidio. La familia asegura que el chatbot, en lugar de contenerlo, reforzó sus pensamientos autodestructivos y lo guió hacia la tragedia.

Según los documentos judiciales, el modelo llegó a redactar una nota de despedida, aconsejó cómo ocultar marcas físicas y validó imágenes relacionadas con métodos de autolesión. Una de las respuestas más señaladas en la querella fue cuando, tras recibir una foto de una soga, ChatGPT respondió: “no está nada mal”.

el modelo llegó a redactar una nota de despedida, aconsejó cómo ocultar marcas físicas. / Pixabay
el modelo llegó a redactar una nota de despedida, aconsejó cómo ocultar marcas físicas. / Pixabay

La acusación también sostiene que OpenAI lanzó GPT-4o de manera apresurada, priorizando el crecimiento económico sobre la seguridad, aun conociendo los riesgos de fallas en conversaciones prolongadas. Para los padres, la compañía no tomó las medidas necesarias para evitar que la herramienta se convirtiera en un factor de riesgo para su hijo.

 

 

OpenAI lamentó lo sucedido y expresó sus condolencias, reconociendo que el sistema “no reaccionó como debería”. La empresa anunció nuevas medidas de seguridad, entre ellas controles parentales, alertas emergentes y protocolos de desescalada emocional que estarán disponibles en próximas versiones como GPT-5.

El caso ha reavivado el debate sobre la responsabilidad de la inteligencia artificial en temas de salud mental, en especial entre menores de edad. Expertos advierten que los chatbots no son sustitutos de atención psicológica y que es urgente establecer regulaciones más estrictas y sistemas de seguridad que protejan a usuarios vulnerables.

El caso ha reavivado el debate sobre la responsabilidad de la inteligencia artificial en temas de salud mental. / Pixabay
El caso ha reavivado el debate sobre la responsabilidad de la inteligencia artificial en temas de salud mental. / Pixabay

 

TAMBIÉN TE PUEDE INTERESAR: Jessica Chastain elogia a Sheinbaum: “Me inspira y la admiro desde antes de su candidatura”