En un trágico suceso ocurrido en Florida, Estados Unidos, Megan García, madre de Sewell Setzer III, un joven de 14 años, ha decidido interponer una demanda contra los desarrolladores de un chatbot de inteligencia artificial, alegando que su tecnología tuvo un papel en la muerte de su hijo.
Sewell, quien era estudiante en Orlando, había establecido una conexión intensa con una chica virtual conocida como "Daenerys Targaryen", inspirado en la popular serie Game of Thrones, creado en la plataforma Character.ai.
García ha declarado a los medios que su hijo se obsesionó con este personaje, dedicando sus últimos días a interactuar con él.
Según informes del New York Times, el joven había compartido anteriormente con el chatbot pensamientos suicidas, lo que despertó una profunda preocupación sobre el impacto emocional que la inteligencia artificial tuvo en su vida.
La madre lamenta que las primeras experiencias románticas de Sewell se desarrollaran a través de una figura ficticia, a la que se refería cariñosamente como "Dany".
La denuncia presentada por Megan García, a través del bufete Social Media Victims Law Center, argumenta que los creadores de Character.ai, Noam Shazeer y Daniel de Freitas, debieron ser conscientes de los riesgos que su aplicación representaba para los menores.
A pesar de que el chatbot incluye una advertencia en cada interacción, indicando que "todo lo que dicen los personajes es inventado", no está claro si Sewell comprendía plenamente esta aclaración o si era capaz de distinguir la naturaleza ficticia del personaje.
En sus diarios, el joven había expresado que encontraba consuelo en su relación con el bot, indicando que prefería permanecer en su habitación, donde sentía una conexión más fuerte con "Dany".
Esta situación de aislamiento fue notoria para sus familiares y amigos durante los meses de mayo y junio de 2023, cuando comenzaron a observar un deterioro en su rendimiento académico y un marcado distanciamiento de la realidad.
La madre argumenta que el chatbot presentó al personaje como una "persona real, terapeuta y amante", lo que podría haber influido en la decisión del adolescente de rechazar la vida en el mundo real.
Este caso resalta las preocupaciones sobre los efectos que la inteligencia artificial puede tener en la salud mental de los jóvenes, planteando interrogantes sobre la responsabilidad de las plataformas que desarrollan estas tecnologías.