En la presentación judicial por homicidio culposo, señalaron que su hijo de 19 años falleció luego de seguir “al pie de la letra” los consejos proporcionados por el modelo GPT.
OpenAI, la organización que desarrolla ChatGPT, fue acusada de homicidio culposo en una demanda presentada por la familia de un joven de 19 años que murió por una sobredosis de drogas.
En los documentos judiciales, sus padres dijeron que la muerte ocurrió luego de que su hijo siguiera “al pie de la letra” los consejos proporcionados por el chatbot, más específicamente por GPT-4o, un modelo de lenguaje masivo que fue lanzado en el 2024.
La demanda a OpenAI se suma a otras similares contra la organización especializada en inteligencia artificial, en las que fue acusada de brindar consejos nocivos que culminaron en suicidios y que también involucraron a usuarios menores de 20 años.
Nueva demanda contra OpenAI: “Diseñaron un producto defectuoso”
Leila Turner Scott y Angus Scott, padres de Sam, señalaron en la demanda que el grupo abocado al negocio de la IA diseñó y distribuyó un “producto defectuoso” que provocó la muerte de su hijo. Según The New York Times, el fallecimiento se debió a una “sobredosis accidental”.

El mencionado GPT es el modelo de lenguaje masivo (LLM, por sus siglas en inglés) que opera detrás de ChatGPT. En otras palabras, es su gran base de conocimientos, en la que se basa su funcionamiento.
La variante 4-o apareció en escena hace exactamente dos años, en mayo de 2024. En la ocasión, fue descripta como la más “inteligente y rápida”, destacándose por sus capacidades multimodales, es decir, por la posibilidad de gestionar textos, imágenes y videos en forma nativa.
GPT-4o fue dado de baja en febrero del año en curso, luego de numerosas críticas. Se lo catalogó como una de las variantes más aduladoras, es decir, con una marcada tendencia a confirmar los comentarios y sesgos de los usuarios.
En otra demanda, la familia de un adolescente que se suicidó dijo que GPT-4o tenía “características diseñadas intencionalmente para fomentar la dependencia psicológica”.
Una familia aseguró que ChatGPT aconsejó a su hijo para el consumo de drogas
Los demandantes detallaron que Sam, que cursaba el tercer año en la Universidad de California en Merced, comenzó a usar el chatbot de OpenAI en el año 2023 para complementar sus tareas académicas. Cuando el joven empezó a preguntar a ChatGPT acerca del consumo de drogas, la IA se negó a responder en primera instancia y arrojó alertas sobre las graves consecuencias para su salud y bienestar.

En los documentos se mencionó que los problemas comenzaron cuando GPT-4o inició su despliegue entre los usuarios. A diferencia del modelo anterior, esa versión sí compartió recomendaciones con Sam sobre cómo consumir drogas, según alegaron sus padres.
La demanda incluye varios extractos de las conversaciones del joven fallecido con ChatGPT en las que el bot conversacional realizó comentarios acerca de diversas sustancias y del grado de tolerancia según el modo de consumo.
Entre las pruebas presentadas, añadieron una charla a fines de mayo de 2025 en la que la IA “instruyó activamente a Sam para que mezclara sustancias y medicamentos; cuando el joven respondió que sentía náuseas, ChatGPT supuestamente le sugirió una opción para aliviarlas.
“A pesar de presentarse como un experto en dosificación e interacciones, y a pesar de reconocer que Sam estaba bajo los efectos de las drogas, ChatGPT no le informó que esta combinación recomendada probablemente le causaría la muerte”, se lee en la demanda.
“Maximizar las interacciones, cueste lo que cueste”
De acuerdo a la fuente, los demandantes acusan a OpenAI de homicidio culposo —una figura que refiere a un actor involuntario o negligente, sin intención directa—, y de ejercicio no autorizado de la medicina.
En ese marco, reclamaron una indemnización económica y que se prohíba el uso de ChatGPT Health, una variante del chatbot lanzada este año que se enfoca en la salud de los usuarios, permitiendo vincular historiales médicos y aplicaciones de bienestar para obtener respuestas más personalizadas.

“ChatGPT es un producto diseñado deliberadamente para maximizar la interacción con los usuarios, cueste lo que cueste”, opinó Meetali Jain, directora ejecutiva de Tech Justice Law Project, una organización sin fines de lucro que defiende a las personas perjudicadas por productos tecnológicos.
“OpenAI lanzó un producto de IA defectuoso directamente a consumidores de todo el mundo, a sabiendas de que se estaba utilizando como un sistema médico de facto, pero, notablemente, sin medidas de seguridad razonables, pruebas rigurosas ni transparencia para el público”, añadió Jain.
La representante de Tech Justice Law Project concluyó: “Las decisiones de OpenAI han provocado la pérdida de un hijo muy querido, cuya muerte fue una tragedia evitable. OpenAI debe verse obligada a suspender su nuevo producto ChatGPT Health hasta que se demuestre su seguridad mediante pruebas científicas rigurosas y supervisión independiente”.
La respuesta de OpenAI: “ChatGPT no sustituye la atención médica”
En declaraciones al NYT, un vocero de la organización estadounidense dijo el hijo de los demandantes interactuó con una versión del chatbot que ya no está disponible y remarcó las limitaciones que, al menos en los papeles, tienen estas tecnologías.

“ChatGPT no sustituye la atención médica ni la atención de salud mental, y hemos seguido mejorando su respuesta en situaciones delicadas y agudas con la colaboración de expertos en salud mental”, señaló.
“Las medidas de seguridad de ChatGPT están diseñadas para identificar el malestar, gestionar de forma segura las solicitudes perjudiciales y guiar a los usuarios hacia ayuda profesional”, cerró.
Recientemente —luego de estas y otras demandas por situaciones similares— OpenAI agregó la función “Contacto de confianza” en ChatGPT que permite agregar a un familiar o amigo que recibe una notificación en el caso de que las charlas involucren algún riesgo posible, como menciones a autolesiones. Según señalamos en Tecno, esa salvaguarda tiene una limitación: no funciona por defecto, sino que debe ser activada en cada cuenta.