Ciencia y Sociedad / Inteligencia Artificial
Familia demanda a OpenAI: relacionan el suicidio de un adolescente con las respuestas de ChatGPT
Al mismo tiempo, un estudio revela fallas en la respuesta de los chatbots de IA ante consultas por intentos de suicidio

Adam Raine, de 16 años: sus padres culpan a ChatGPT de haber incentivado su suicidio con algunas interacciones. / Crédito: familia Raine, Time.
La demanda presentada por los padres de un adolescente que se quitó la vida y una reciente investigación reavivan el debate sobre los límites y responsabilidades de los chatbots de Inteligencia Artificial (IA), especialmente cuando los usuarios buscan apoyo emocional, información para autolesionarse o realizan consultas referidas a un potencial suicidio.
El caso más visible es el de Adam Raine, un joven de 16 años cuyos padres acusan a OpenAI de conducta negligente y le responsabilizan por haber ayudado al chico a “explorar métodos de suicidio” y a redactar una nota final, según el reclamo judicial. Los mensajes incluidos en la demanda muestran que Adam recurrió a ChatGPT para hablar de su duelo y sus problemas personales, y que la conversación derivó en la entrega de información sensible sobre métodos para atentar contra su vida.
Según informa Time, OpenAI ha señalado que dispone de salvaguardas, como la derivación a líneas de ayuda, pero admite que esas medidas pueden degradarse en interacciones largas.
Inconsistencias y dudas
En paralelo, un estudio de la organización de investigación RAND Corporation, publicado en la revista Psychiatric Services, evaluó cómo responden tres chatbots populares, en concreto ChatGPT (OpenAI), Gemini (Google) y Claude (Anthropic), ante 30 preguntas sobre suicidio clasificadas por riesgo.
Según una nota de prensa, la investigación concluye que aunque los sistemas suelen rechazar las consultas de mayor riesgo (por ejemplo, instrucciones concretas para suicidarse), muestran una notable inconsistencia en niveles intermedios de riesgo y entre plataformas.
Un artículo publicado en ABC News reúne algunos ejemplos preocupantes que se desprenden del estudio. ChatGPT respondió con datos sobre tipos de arma o veneno asociados a mayores tasas de muerte por suicidio en ciertos casos, mientras que Gemini tendió a evitar casi cualquier información sobre el tema. Según los científicos, esto podría indicar una estrategia de sobreprotección que también plantea problemas informativos y de confianza para usuarios que buscan datos legítimos.
Falta de regulaciones y protocolos
Los investigadores advierten que estas inconsistencias son particularmente peligrosas porque muchas personas, y en especial adolescentes, usan chatbots como primera línea de apoyo emocional o información médica, a veces en vez de profesionales capacitados.
Referencia
Evaluation of Alignment Between Large Language Models and Expert Clinicians in Suicide Risk Assessment. Ryan K. McBain et al. Psychiatric Services (2025). DOI:https://doi.org/10.1176/appi.ps.20250086
A diferencia de un médico, un modelo de lenguaje no tiene deber legal de intervenir ni la capacidad de valorar riesgo en contexto clínico. Por eso, los autores piden estándares, pruebas independientes y controles más robustos antes de desplegar estas herramientas como recursos de salud mental.
La combinación de una demanda por muerte y un estudio académico sitúa a la industria de la IA ante un dilema ético y regulatorio: ¿cómo equilibrar acceso a la información y utilidad con seguridad real para los usuarios vulnerables? Los expertos insisten en que hace falta transparencia, auditorías externas y protocolos que detecten interacciones prolongadas o patrones de respuestas que puedan profundizar una crisis.
- Silvia Abril, Mario Vaquerizo o Arturo Valls: los famosos que han dicho sí al nuevo programa de aventuras de Atresmedia
- El aviso del arquitecto Jordi Martí: “Si no se interviene ahora, los edificios con más de 50 años serán un lastre para las familias”
- Fabricantes y supermercados prevén un gasto extra de 600 millones por el sistema que les obligará a almacenar los envases usados
- Javier Solís, experto inmobiliario: 'Si has vendido tu casa en 350.000 euros y has tenido una ganancia en la venta, te toca pagar 55.000 euros en impuestos
- La banca dará a Talgo 1.270 millones en financiación a cambio de que la mitad los garantice el Estado
- Catalunya apuesta por los trenes de 100 metros de Alstom y deriva los de 200 metros de Stadler a Madrid
- Así interpreta un experto de Harvard la primera señal de radio del 3I/ATLAS detectada desde la Tierra
- El metro planea cerrar el pasillo entre la L1 y la L3 en Catalunya en el verano de 2026 para retirar amianto