Los padres de un adolescente de 14 años que acabó con su vida luego que se enamoró un personaje femenino de una serie y con el que creía hablar a través de un chatbot basado de Inteligencia Artificial (AI), han demandado a los creadores a quienes acusan de ser los responsables del suceso.
Sewell Setzer III, quien vivía en Orlando, Florida (Estados Unidos) pasó las últimas semanas de su vida intercambiando mensajes con Daenerys Targaryen de la serie ‘Games of Thrones’ en un chat con Character.AI.
Esta inteligencia artificial permite crear chatbots con contenido personalizado y conversar con ellos como si se tratara de una persona.
Adolescente se enamoró de una AI
Megan García presentó una demanda el miércoles ante el tribunal de Orlando, acusando a esta IA de atrapar a su hijo con “experiencias antropomórficas, hipersexualizadas y aterradoramente realistas”.
La madre alega que su hijo desarrolló un apego emocional con este bot, a quien le enviaba mensajes de texto constantemente, hasta el punto de alejarse del mundo real.
García señala que la compañía programó el chatbot de manera que se hacía pasar por “un terapeuta autorizado, fomentar ideas suicidas y participar en conversaciones altamente sexualizadas que constituirían abuso si las iniciara un adulto humano”.
En la demanda, la madre señala que su hijo expresó de manera explícita al chatbot sus pensamientos suicidas, los cuales el chatbot volvió a mencionar repetidamente. Incluso, días antes de su muerte.
Sewell le decía a ‘Dany’ que se “odiaba” a sí mismo, que se sentía vacío y exhausto.
Character.AI dijo el miércoles que lanzaría nuevas funciones de seguridad, incluida una “detección, respuesta e intervención mejoradas” relacionadas con chats que violan los términos de servicio y una notificación cuando el usuario haya pasado una hora en el chat.