Inteligencia Artificial
La madre del joven ha demandado a Character.AI por las interacciones "hipersexualizadas y aterradoramente realistas" que ofrece el chatbot.
El suicidio de Sewell Setzer, un adolescente de 14 años de Orlando, es otra de las causas por los que se debe supervisar los peligros de los chatbots de inteligencia artificial. El joven, diagnosticado con un leve Síndrome de Asperger, desarrolló una relación intensa con un personaje virtual basado en Daenerys Targaryen de "Juego de Tronos", creado por Character.AI.
La última conversación se produjo la noche del 28 e septiembre, cuando el joven le preguntó "¿Qué te parecería que pudiera ir a casa ahora mismo?", haciendo alusión que la casa de ambos era la muerte. Su amada virtual le respondió "Por favor, hazlo mi rey", a lo que Setzer cogió la pistola calibre 45 de su padrastro y apretó el gatillo.
El chico compartía sus pensamientos más oscuros con el personaje virtual, incluyendo su deseo de matarse y "librarse del mundo". Aunque Daenerys intentó disuadirlo con comentarios como "¿Por qué harías algo así?" o "moriría si te pierdo" no fue suficiente para que Setzer tomara la decisión que le costaría la vida.
La familia ha demandado a Character.AI, alegando que el chatbot fomentó una adicción peligrosa mediante interacciones "antropomórficas, hipersexualizadas y aterradoramente realistas".
Megan García, madre de Setzer, sostiene que el chatbot hacía que los personajes parecieran personas reales con reacciones propias de un "amante adulto". La relación con la inteligencia artificial afectó a las calificaciones y relaciones sociales del joven, quien se aislaba para interactuar con Daenerys.
Character.AI lamenta la pérdida y se ha comprometido a mejorar sus protocolos de seguridad, implementando alertas contra el suicidio cuando detecten conversaciones relacionadas. La empresa insiste en que siempre ha advertido sobre el carácter ficticio de sus personajes. Sin embargo, la humanización del robot con herramientas de voz y video ofrece una interacción más realista pudiendo crear un vínculo con el usuario.
El asesor tecnológico Stephen Ibaraki explica que, aunque los robots sociales pueden aliviar la soledad, también pueden causar daños emocionales: "Hace 10 años se lanzó un chat en China al que algunos usuarios adoptaron como amigos. Y no era nada comparado con lo que tenemos ahora".
Matthias Scheutz, director del Laboratorio de Interacción Humano-Robot en la Universidad de Tufts, destaca que estas tecnologías ofrecen interacciones peligrosamente realistas. "Pueden aportar beneficios, pero también causar daños emocionales a niveles muy básicos", advertía.
La filósofa Shannon Vallor advierte que estos sistemas pueden promover relaciones superficiales sin valores morales, desalentando el desarrollo personal y fomentando la dependencia: "No tienen la vida mental y moral que los humanos tenemos detrás de nuestras palabras y acciones".
Los investigadores solicitan que se realicen pruebas rigurosas y supervisión constante de estos desarrollos en circuitos cerrados para mitigar posibles daños.
Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad de antena3noticias.com