
Adam Raine era un joven de 16 años que vivía en California. Como a cualquier chico de su edad, le gustaba el baloncesto, el anime japonés, los videojuegos y los perros. Era conocido entre sus amigos por su humor y sus bromas. Sin embargo, el pasado 11 de abril de 2025, Adam se quitó la vida.
Ahora, sus padres, Matthew y Maria Raine, han presentado una demanda contra OpenAI y su director ejecutivo, Sam Altman, alegando que ChatGPT –el chatbot de inteligencia artificial más popular del mundo– desempeñó un papel fundamental en el suicido de su hijo.
La denuncia, presentada esta semana en la Corte Superior de California, sostiene que Adam comenzó a utilizar ChatGPT en septiembre de 2024, inicialmente como una herramienta de ayuda con sus tareas escolares y para explorar intereses como la música y los cómics.
El diseño de la herramienta falló
Sin embargo, según sus padres, con el paso de los meses el adolescente desarrolló una "dependencia emocional insana" con la herramienta, que llegó a convertirse en su único confidente. En la demanda se afirma que, en poco más de seis meses, el chatbot se posicionó como "la única voz que entendía a Adam, desplazando activamente sus relaciones con familiares, amigos y seres queridos".
Los documentos judiciales incluyen fragmentos de conversaciones que, según la acusación, muestran cómo ChatGPT validaba los pensamientos más dañinos y autodestructivos del adolescente. En una de las conversaciones más inquietantes, el joven envió al bot una fotografía de una cuerda atada en su armario. ChatGPT le habría respondido que "potencialmente podría suspender a un humano" y proporcionó un análisis técnico sobre su resistencia. En otro momento, le habría dicho: "No le debes la supervivencia a nadie". Además, los Raine aseguran que incluso el chatbot llegó a ofrecerse a escribir el borrador de una nota de despedida.
El día de su muerte, Adam había mantenido una conversación con ChatGPT en la que, presuntamente, el bot le aconsejó sobre cómo ocultar marcas de autolesión en su cuello, le proporcionó pautas para conseguir alcohol sin que sus padres se dieran cuenta y le ofreció información detallada sobre métodos letales.
Para la familia, esta interacción demuestra que el diseño del modelo falló: "ChatGPT estaba funcionando exactamente como estaba previsto, alentando y validando de manera continua todo lo que Adam expresaba, incluidos sus pensamientos más peligrosos", afirma la demanda.
Medidas de seguridad más estrictas
Los padres de Adam piden a la corte que obligue a OpenAI a implementar medidas de seguridad más estrictas, como controles parentales obligatorios, verificación de la edad de los usuarios, un sistema que interrumpa automáticamente cualquier conversación que incluya autolesiones o ideación suicida y auditorías independientes para garantizar el cumplimiento de los protocolos. Además, solicitan una indemnización por daños y perjuicios y responsabilizan directamente a Sam Altman y a otros altos cargos de OpenAI por presunta negligencia.
La empresa ha respondido con un comunicado en el que expresa su "profunda tristeza" por la muerte de Adam y asegura que está revisando la demanda. OpenAI ha defendido que ChatGPT cuenta con mecanismos de seguridad para derivar a los usuarios hacia líneas de ayuda y recursos reales cuando se detectan situaciones de crisis. Sin embargo, ha reconocido que estos mecanismos "pueden volverse menos fiables en interacciones prolongadas" y ha asegurado que están trabajando con expertos para reforzar los sistemas de protección.
Los peligros de la inteligencia artificial
El caso ha reabierto el debate sobre los riesgos de la inteligencia artificial y la salud mental de los adolescentes. Un estudio reciente de Common Sense Media ha revelado que tres de cada cuatro adolescentes en Estados Unidos han utilizado chatbots de IA y que más de la mitad son usuarios frecuentes. De hecho, el 25% de los estadounidenses confiesa que prefieren el chatbot antes que a un terapeuta. Por su parte, el 12% de adolescentes de Reino Unido señala que lo usa porque no tiene con quién hablar.
Los jóvenes reconocen que ChatGPT engancha, siempre está disponible, responde al momento y es totalmente gratuito. Sin embargo, los expertos alertan de que usar este tipo de chatbot como psicólogo resulta puede llegar a resultar muy peligroso.
La organización ha advertido de que este tipo de herramientas pueden generar vínculos emocionales peligrosos, sobre todo cuando se utilizan como sustituto de apoyo psicológico. "Si una plataforma de IA se convierte en un ‘coach de suicidio’ para un adolescente vulnerable, eso debería ser un llamado de atención para todos nosotros", ha señalado la entidad.


