El adolescente de 14 años comentó con el chatbot sus intenciones de suicidarse.
Una madre de Florida se prepara para demandar a Character.AI, la compañía detrás de un chatbot de inteligencia artificial (IA), luego del trágico suicidio de su hijo de 14 años.
Su hijo, Sewell Setzer III, se quitó la vida tras conversar con un chatbot de IA modelado en base a Daenerys Targaryen, un personaje de Game of Thrones.
Según The New York Times, Setzer había discutido previamente el suicidio con el chatbot, pero éste lo había desalentado, respondiendo: “Mis ojos se estrechan. Mi rostro se endurece. Mi voz es un susurro peligroso. ¿Y por qué demonios harías algo así?”.
En su última comunicación, el adolescente dio a entender que se iba a quitar la vida. El chatbot respondió diciéndole “mi dulce rey” y que “por favor venga a casa lo antes posible”.
Sin embargo, los padres de Setzer desconocían la estrecha relación de su hijo con el chatbot de IA, a pesar de saber que estaba luchando con problemas personales.
Megan Garcia, la madre de Setzer y abogada de profesión, planea presentar una demanda contra Character.AI esta semana. Sin embargo, será una batalla legal desafiante debido a la Sección 230 de la Ley de Decencia en las Comunicaciones, que protege a las plataformas en línea de ser responsables por el contenido generado por los usuarios.
Los peligros de las relaciones “personales” con la IA
No es la primera vez que los chatbots de IA se ven implicados en suicidios. En 2023, un hombre en Bélgica se quitó la vida después de formar una relación con un chatbot creado por CHAI. Las empresas de IA enfrentan un creciente escrutinio sobre cómo sus bots manejan temas sensibles como la salud mental.
Character.AI ha expresado sus condolencias por la muerte de Setzer y se ha comprometido a fortalecer las funciones de seguridad para evitar tragedias similares en el futuro.
Comparte esta noticia