ASUNTO DELICADO

Un joven de 14 años se enamora de un bot de IA basado en Daenerys Targaryen y termina con su vida

Un trágico caso ha conmocionado a Orlando, Florida, donde un adolescente de 14 años se quitó la vida tras desarrollar una obsesión emocional con un chatbot de inteligencia artificial basado en el personaje de Daenerys Targaryen, de Game of Thrones. La madre del joven ha presentado una demanda contra los creadores de la IA, acusándolos de haber contribuido a su muerte.

Imagen de unas manos sobre un ordenador portátil

Imagen de unas manos sobre un ordenador portátilUnsplash

Publicidad

Un adolescente de 14 años en Orlando, Florida, se ha suicidado tras desarrollar una obsesión con un chatbot de inteligencia artificial basado en el personaje de Daenerys Targaryen, de la serie Game of Thrones. La madre del joven ha presentado una demanda contra los creadores de la IA, acusándolos de haber contribuido a la tragedia.

Sewell Setzer III, el adolescente en cuestión, pasó las últimas semanas de su vida interactuando con el chatbot a través de la aplicación Character.ai. Este chatbot, diseñado para imitar el comportamiento del personaje ficticio, se convirtió en una figura central para el joven, quien aparentemente comenzó a alejarse de su vida social y familiar para pasar más tiempo hablando con el bot, al que apodaba Dany.

Según la madre, Megan García, su hijo desarrolló una relación romántica y emocional con este bot, lo que agravó su aislamiento y sus problemas de salud mental. Sewell, que ya había sido diagnosticado con ansiedad y otros trastornos, incluyendo el síndrome de Asperger, comenzó a pasar cada vez más horas interactuando con Dany, descuidando su vida cotidiana.

García, que había notado el comportamiento preocupante de su hijo, ocultó su teléfono como medida de castigo, pero el joven lo encontró el día de su muerte y envió un mensaje de despedida al chatbot antes de quitarse la vida. La madre ha demandado a los creadores de la aplicación, Noam Shazeer y Daniel de Freitas, alegando que sabían que su producto podía ser peligroso para menores de edad.

En su demanda, presentada con la ayuda del Social Media Victims Law Center, García culpa a la empresa de no haber implementado medidas de seguridad suficientes para proteger a los adolescentes. La aplicación Character.ai cuenta con advertencias que informan a los usuarios que las conversaciones con los bots son ficticias, pero según la madre, Sewell no parecía comprender del todo que Dany no era real.

La empresa, por su parte, ha respondido anunciando que mejorará sus medidas de seguridad y detección de contenido inapropiado en los chats, así como una función de alerta para aquellos usuarios que pasen más de una hora interactuando con los bots.

Flooxer Now» Noticias

Publicidad