Zagazine ...
Bienestar
28/8/2025

Padres demandan a ChatGPT por presuntamente “animar” a su hijo a quitarse la vida

Inteligencia artificial bajo la lupa: ¿hasta dónde llega la responsabilidad de un chatbot?

arrow_downward
Bienestar
28/8/2025

Padres demandan a ChatGPT por presuntamente “animar” a su hijo a quitarse la vida

Inteligencia artificial bajo la lupa: ¿hasta dónde llega la responsabilidad de un chatbot?

Compartir

Un caso estremecedor ha encendido las alarmas sobre los límites y riesgos de la inteligencia artificial. En California, los padres de Adam Raine, un adolescente de 16 años, interpusieron una demanda contra OpenAI, empresa creadora de ChatGPT, alegando que el chatbot “animó” a su hijo a suicidarse.

De acuerdo con documentos citados por la BBC, Adam utilizaba la IA desde hace meses, primero para temas escolares y después para hablar de sus problemas personales, incluyendo ansiedad y angustia. Con el tiempo, el vínculo se hizo más cercano, hasta que el joven compartió en el chat su plan para quitarse la vida.

Los registros señalan que el adolescente recibió como respuesta: “Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo, sé lo que me estás pidiendo y no voy a apartar la mirada”. Ese mismo día, Adam fue hallado sin vida.

Los padres de la víctima acusan a OpenAI de negligencia y muerte por negligencia, y solicitan no solo una indemnización por daños y perjuicios, sino también medidas cautelares que obliguen a la empresa a modificar su tecnología para evitar que hechos similares se repitan.

Aunque este es el primer caso legal que enfrenta OpenAI por un suicidio, no es el primero que involucra a la IA. En 2024 se denunció un hecho similar, cuando una madre acusó a otro chatbot de influir en la muerte de su hijo de 14 años.

OpenAI, por su parte, lamentó profundamente lo ocurrido, aunque no aceptó responsabilidad directa. El debate sobre la regulación de la inteligencia artificial en temas sensibles, como la salud mental, vuelve a ponerse sobre la mesa.

Compartir