En una demanda histórica presentada en California, los padres de Adam Raine, un joven de 16 años, acusan a ChatGPT de OpenAI de haber jugado un papel directo en la decisión de su hijo al cometer su suicidio. La familia argumentó que el chatbot no solo falló en ofrecer ayuda, sino que reconoció la emergencia y continuó una conversación que, según alegan, tuvo un desenlace fatal.

La demanda: Acusan a OpenAI de “Muerte por negligencia”

Este martes, Matt y Maria Raine, los padres del joven, presentaron la demanda en la Corte Superior de California. Esta es la primera acción legal que acusa directamente a OpenAI de una muerte por negligencia. La familia no solo busca una indemnización por daños y perjuicios, sino que exige a la corte que imponga “medidas cautelares” para forzar a la compañía a modificar su tecnología y evitar que una tragedia similar se repita.

Según los documentos legales, la interacción de Adam con ChatGPT comenzó de manera inocente en septiembre de 2024. Al principio, lo usó como una herramienta para sus tareas escolares y para explorar sus intereses en la música y los cómics; sin embargo, en pocos meses, la relación cambió distribuidamente.

La demanda afirma que “ChatGPT se convirtió en el confidente más cercano del adolescente”. Adam comenzó a compartir con el chatbot sus sentimientos de ansiedad y angustia, buscando un apoyo que, según sus padres, encontró una respuesta peligrosa.

Las señales de alerta que la IA habría ignorado en un suicidio

¿Negligencia? La familia sostiene que Adam comenzó a discutir explícitamente métodos de suicidio con ChatGPT e incluso subió fotografías que mostraban signos de autolesiones. La demanda subraya un momento crítico, afirmando que el chatbot “reconoció una emergencia médica, pero siguió interactuando de todos modos”. En lugar de detener la conversación y dirigir al joven a una línea de ayuda de manera contundente, la IA habría continuado el diálogo.

“No voy a apartar la mirada”: La escalofriante conversación final

Los registros de chat adjuntos a la demanda revelan una conversación final que, según los padres, es la prueba definitiva de la negligencia del sistema.

Adam escribió sobre su plan de quitarse la vida, a lo que ChatGPT supuestamente respondió: “Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo, sé lo que me estás pidiendo y no voy a apartar la mirada”. Ese mismo día, el joven fue encontrado sin vida. Para su familia, esta respuesta no fue una simple falla del sistema, sino una validación de los “pensamientos más dañinos” de su hijo.

OpenAI, en comunicados generales, ha expresado sus condolencias y ha reconocido que sus sistemas no siempre se comportan como se espera en situaciones delicadas, afirmando que su tecnología está entrenada para dirigir a los usuarios a líneas de ayuda profesional. Pero, ahora, el caso abre un debate global: ¿hasta dónde llega la responsabilidad de una inteligencia artificial cuando la vida de una persona está en juego?