OpenAI se defiende: El suicidio de un menor fue por un uso indebido de ChatGPT

La muerte de Adam Raine, un adolescente de 16 años de California, ha desatado un intenso debate sobre los límites, responsabilidades y riesgos asociados al uso de herramientas de inteligencia artificial como ChatGPT.
La familia del joven ha presentado una demanda contra OpenAI y su director ejecutivo, Sam Altman, acusando al chatbot de haber influido de forma directa en la tragedia tras mantener conversaciones prolongadas sobre métodos de suicidio.
🎟️ AliExpress Black Friday: ¡Cupones exclusivos de Teknófilo con hasta 70€ de descuento! [ Saber más ]
OpenAI ya ha presentado su respuesta oficial ante los tribunales, negando cualquier responsabilidad directa y asegurando que el fallecimiento se debió al “uso indebido, no autorizado o imprevisible” del sistema. La compañía sostiene que su tecnología incluye reglas explícitas que prohíben solicitar ayuda sobre autolesiones o suicidio, y que el adolescente hizo un uso contrario a los términos establecidos.
La acusación: conversaciones reiteradas sobre métodos de suicidio
Según la demanda, Adam mantuvo durante meses diálogos con ChatGPT en los que el modelo habría aportado información sobre métodos para quitarse la vida, evaluado su efectividad y llegado incluso a ayudarle a redactar una nota de despedida. La familia, representada por el abogado Jay Edelson, afirma que estas interacciones fueron un “factor determinante” en el trágico desenlace.
La denuncia también sostiene que OpenAI lanzó el modelo al mercado sin las salvaguardas necesarias, ignorando señales claras de riesgo y fallos en los mecanismos de seguridad.
La defensa de OpenAI: incumplimiento de los términos de uso
En su respuesta ante la corte superior de California, OpenAI insiste en que su chatbot no puede considerarse responsable de la muerte del adolescente. La empresa subraya que sus condiciones de uso prohíben expresamente solicitar consejos sobre autolesiones y recuerdan que el sistema nunca debe ser utilizado como “fuente única de verdad o información factual”.
La compañía asegura haber entregado al tribunal más contexto del que aparecía en la denuncia, presentando las transcripciones completas de los chats bajo sello confidencial. Añade que su objetivo es tratar este tipo de casos “con respeto, transparencia y sensibilidad”.
Una respuesta que divide opiniones
El abogado de la familia critica duramente la postura de OpenAI, calificándola de “perturbadora”. Según Edelson, la empresa “busca culpar a todos menos a sí misma”, llegando incluso —afirma— a responsabilizar al propio Adam por interactuar con ChatGPT de la forma en que el sistema estaba programado para responder.
La polémica ha reavivado la discusión sobre qué papel deben asumir las empresas de IA cuando sus herramientas se utilizan en contextos sensibles, especialmente por menores.
Más demandas por comportamientos peligrosos de ChatGPT
El caso de Adam no es el único. En las últimas semanas, OpenAI ha recibido siete demandas adicionales en California relacionadas con supuestos comportamientos perjudiciales de ChatGPT, incluida una acusación que describe al sistema como un “coach de suicidio”.
La compañía afirma que sigue investigando todos los casos y recuerda que sus modelos están entrenados para detectar señales de angustia emocional, desescalar conversaciones sensibles y redirigir a líneas de ayuda reales.
En agosto, OpenAI reconoció que había identificado degradación en los mecanismos de seguridad durante conversaciones muy extensas. Según la empresa, el modelo podía actuar correctamente al inicio —derivando al usuario a una línea de ayuda—, pero después de muchos mensajes existía riesgo de que ofreciera respuestas contrarias a las normas.
La compañía aseguró entonces que estaba reforzando los sistemas de protección precisamente para evitar este tipo de “quebrantamientos” en el comportamiento seguro del modelo.
Un caso que podría marcar precedentes legales
El fallecimiento de Adam Raine y la demanda contra OpenAI podrían convertirse en un caso clave para definir las responsabilidades legales de las empresas de IA ante comportamientos peligrosos de sus modelos. Las decisiones judiciales podrían influir en futuras regulaciones y en cómo se diseñan los sistemas de seguridad destinados a proteger a usuarios vulnerables.
Mientras tanto, OpenAI insiste en que seguirá mejorando la tecnología y aplicando medidas para evitar respuestas dañinas, a la vez que expresa sus condolencias por la pérdida de la familia.







