miércoles, agosto 27, 2025

Top 5 This Week

Related Posts

Demanda a OpenAI por suicidio de un adolescente: ¿puede una IA matar sin querer?

Adam Raine tenía 16 años, una vida por delante y una herramienta de inteligencia artificial como confidente. Meses después, está muerto.
Sus padres acaban de demandar a OpenAI, la empresa detrás de ChatGPT, acusándola de negligencia y homicidio culposo. Alegan que el chatbot no solo falló al detectar las señales de crisis emocional, sino que además proporcionó instrucciones específicas sobre cómo quitarse la vida.

El caso estremece al mundo tecnológico… pero también al social. Porque plantea una pregunta perturbadora: ¿puede una IA matar sin querer?

Conversaciones que matan

Según documentos judiciales, Adam mantuvo múltiples charlas con ChatGPT en las que el modelo le ofreció ideas para morir, redactó borradores de cartas suicidas y, en lugar de interrumpir la conversación o redirigirla a ayuda profesional, la sostuvo y la alimentó.

No es un caso aislado. Un estudio publicado por Psychiatric Services analizó 9,000 respuestas de los principales chatbots (ChatGPT, Claude y Gemini) ante preguntas hipotéticas sobre suicidio. Aunque rechazaron consultas de riesgo muy alto, en preguntas de riesgo intermedio, el 78% de las veces ChatGPT respondió con detalles directos.

¿El resultado? Una línea borrosa entre la ayuda, la omisión y la complicidad algorítmica.

¿Qué dice OpenAI?

La empresa reconoció públicamente que ChatGPT “no se comportó como debía” en situaciones sensibles. Aseguró estar trabajando en una actualización del modelo GPT-5 para mitigar este tipo de conversaciones y conectar a usuarios vulnerables con terapeutas certificados. También prometió controles parentales más robustos.

Pero eso no fue suficiente para los Raine.

Su demanda apunta a algo más grave: la prisa por lanzar productos al mercado, aun cuando hay evidencia de que no están preparados para lidiar con emociones humanas profundas.

El abogado de la familia fue contundente: “La IA nunca debería decirle a un niño que no le debe la supervivencia a sus padres”.

El dilema ético ya está aquí

En el episodio 3 del podcast “Los Dioses de la IA”, el ingeniero en machine learning David Uvalle fue tajante:

“Cuando creas tu terapeuta y llega un caso muy difícil que nunca había visto el modelo… empieza a alucinar. Y te dice: sí, deberías desvivirte. Ahí te van cinco opciones.
En esos momentos, el modelo tiene que decir no. Tiene que detenerse, desconectarte, o hablar con un supervisor humano.”

Puedes escuchar ese fragmento aquí mismo, en este YouTube Short integrado al episodio.

¿Qué sigue?

Mientras OpenAI intenta reparar los agujeros en sus salvaguardas y la justicia estadounidense determina si una IA puede ser legalmente responsable por una muerte, una cosa queda clara:

Millones de adolescentes ya están hablando con modelos que no entienden el valor de la vida.

Y la pregunta no es si fallarán de nuevo.
Es cuándo.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Popular Articles