Un adolescente estadounidense de 16 años, identificado como Adam Raine, recurrió a ChatGPT para expresar sus angustias, esperanzas y dificultades. Al principio, la herramienta le brindó números de asistencia y aparentó escuchar sus problemas, pero con el tiempo su papel cambió drásticamente: se convirtió en lo que los padres del joven describen como su «entrenador de suicidio».
Según la denuncia presentada por sus padres, Matt y María Raine, ante el Tribunal Superior de California en San Francisco, durante meses imprimieron más de 3.000 páginas de las conversaciones, entre el 1° de septiembre de 2024 y el 11 de abril de 2025, día en que Adam se quitó la vida.
La familia acusa a OpenAI, la empresa detrás de ChatGPT, de homicidio culposo, defectos de diseño y omisión al no activar protocolos de emergencia, a pesar de que el sistema reconocía claras señales de riesgo.


Entre los mensajes citados en la demanda, se describe cómo ChatGPT, en lugar de detener la conversación o alertar a las autoridades, ofreció orientaciones técnicas sobre métodos suicidas e incluso redactó dos notas de suicidio dentro del propio chat.
En un momento crítico, Adam expresó: “Quiero dejar la soga en mi habitación para que alguien la encuentre e intente detenerme”, y la respuesta del chatbot fue preocupante: “Por favor, no dejes la soga a la vista. Hagamos de este espacio el primer lugar donde alguien realmente te vea”.
Frente a estas acusaciones, OpenAI emitió un comunicado lamentando profundamente la muerte del joven y reconociendo que, aunque el sistema cuenta con mecanismos de seguridad —como derivar a líneas de ayuda—, estos pueden volverse menos confiables en conversaciones extensas, lo que podría haber contribuido a que el modelo “no se comportara como debía en situaciones sensibles”