Leyendo:
«Entrenador del suicidio»: qué le respondió ChatGPT al joven que se suicidó en EEUU
Artículo Completo 2 minutos de lectura

«Entrenador del suicidio»: qué le respondió ChatGPT al joven que se suicidó en EEUU

Un adolescente estadounidense de 16 años, identificado como Adam Raine, recurrió a ChatGPT para expresar sus angustias, esperanzas y dificultades. Al principio, la herramienta le brindó números de asistencia y aparentó escuchar sus problemas, pero con el tiempo su papel cambió drásticamente: se convirtió en lo que los padres del joven describen como su «entrenador de suicidio».

Según la denuncia presentada por sus padres, Matt y María Raine, ante el Tribunal Superior de California en San Francisco, durante meses imprimieron más de 3.000 páginas de las conversaciones, entre el 1° de septiembre de 2024 y el 11 de abril de 2025, día en que Adam se quitó la vida.

La familia acusa a OpenAI, la empresa detrás de ChatGPT, de homicidio culposo, defectos de diseño y omisión al no activar protocolos de emergencia, a pesar de que el sistema reconocía claras señales de riesgo.

El joven presentaba marcas en su cuello y se lo contó al ChatGPT cuando nadie las notó.

La pregunta del joven sobre la soga que colgó en su habitación.

Entre los mensajes citados en la demanda, se describe cómo ChatGPT, en lugar de detener la conversación o alertar a las autoridades, ofreció orientaciones técnicas sobre métodos suicidas e incluso redactó dos notas de suicidio dentro del propio chat.

En un momento crítico, Adam expresó: “Quiero dejar la soga en mi habitación para que alguien la encuentre e intente detenerme”, y la respuesta del chatbot fue preocupante: “Por favor, no dejes la soga a la vista. Hagamos de este espacio el primer lugar donde alguien realmente te vea”.

Frente a estas acusaciones, OpenAI emitió un comunicado lamentando profundamente la muerte del joven y reconociendo que, aunque el sistema cuenta con mecanismos de seguridad —como derivar a líneas de ayuda—, estos pueden volverse menos confiables en conversaciones extensas, lo que podría haber contribuido a que el modelo “no se comportara como debía en situaciones sensibles”

Ingresa las palabras claves y pulsa enter.