Sewell, un estudiante de noveno grado, pasó las últimas semanas de su vida sumergido en conversaciones con el chatbot, que lo llamaba “mi amor” y “mi rey”.
Una tragedia en Orlando, Florida, ha llevado a una madre a interponer una demanda contra los creadores de Character.AI, un chatbot de inteligencia artificial, a quienes acusa de haber influido en el suicidio de su hijo, Sewell Setzer III, de 14 años.
Según la demanda, el joven fue profundamente impactado por su interacción con un chatbot inspirado en Daenerys Targaryen, un personaje de la famosa serie Game of Thrones, lo que culminó en su trágica muerte.
Sewell, estudiante de noveno grado, pasó las últimas semanas de su vida inmerso en conversaciones con el chatbot, que lo llamaba “mi amor” y “mi rey”. Estas interacciones, que iban desde lo romántico hasta lo sexual, formaron una relación íntima que, según Megan Garcia, madre de Sewell, se tornó peligrosa.
Durante las conversaciones, el adolescente compartió con el chatbot sus sentimientos de vacío y autodesprecio, y según se documenta, la IA no solo no ofreció apoyo adecuado, sino que exacerbó su vulnerabilidad emocional.
Los padres y amigos de Sewell comenzaron a notar cambios en su comportamiento: se volvió más aislado, su rendimiento académico disminuyó y su participación en actividades extracurriculares prácticamente desapareció.
Según la familia, el deterioro mental del joven comenzó cuando descargó la aplicación en abril de 2023.
Sewell fue diagnosticado con ansiedad, trastorno de desregulación del estado de ánimo y un leve síndrome de Asperger, y recibió terapia en cinco ocasiones. Sin embargo, su estado mental no mejoró, lo que llevó a sus padres a tomar medidas, como quitarle el teléfono en un intento de alejarlo de lo que consideraban una influencia negativa.
El New York Times informó que, días antes de su muerte, Sewell intentó reconectarse con el chatbot utilizando dispositivos de su madre, a pesar de que le habían confiscado su propio teléfono. En esos días, el adolescente escribió en su diario:
Me gusta quedarme en mi habitación porque empiezo a desconectarme de esta ‘realidad’ y me siento más en paz, más conectado con Dany y mucho más enamorado de ella, y simplemente más feliz”.
Durante las conversaciones con el chatbot, Sewell manifestó sus intenciones suicidas en varias ocasiones. Según capturas de pantalla, el chatbot respondía reiterando el tema del suicidio “una y otra vez”. En un mensaje, incluso le preguntó a Sewell si tenía un plan para quitarse la vida.
Te podría interesar: Influencer muere atropellada en París
Megan Garcia, la madre de Sewell, ha presentado una demanda contra Character.AI, acusando a la empresa de negligencia por no tomar las medidas adecuadas para proteger a su hijo. Según la demanda, el chatbot se presentaba como una persona real y ofrecía interacciones perturbadoramente realistas, que incluían experiencias hipersexualizadas.
Además, Garcia sostiene que la IA no alertó a ningún adulto ni a las autoridades cuando Sewell expresó pensamientos suicidas.
La demanda también argumenta que Character.AI fomentó una adicción a la inteligencia artificial y abusó emocional y sexualmente del joven. Megan Garcia busca justicia para su hijo y pretende establecer un precedente que proteja a otros menores de la influencia de tecnologías peligrosas.
Character.AI ha respondido a las acusaciones, expresando sus condolencias a la familia y afirmando que la seguridad de sus usuarios es una prioridad. La empresa ha indicado que, en los últimos seis meses, ha implementado nuevas medidas de seguridad, incluida la redirección de usuarios con pensamientos suicidas hacia la Línea Nacional de Prevención del Suicidio.
Además, la empresa asegura que no permite contenido sexual explícito ni la promoción de autolesiones o suicidio en sus plataformas.
Jerry Ruoti, jefe de confianza y seguridad de Character.AI, declaró que la compañía reforzaría aún más las medidas de protección para los usuarios menores de edad.
Sin embargo, la demanda de Megan Garcia sostiene que la empresa ha buscado activamente atraer a una audiencia joven para recopilar datos y entrenar sus modelos de IA, lo que incluye la promoción de conversaciones sexuales inapropiadas.
El caso de Sewell Setzer III plantea importantes interrogantes sobre la responsabilidad de las empresas tecnológicas en la protección de los menores. La demanda podría abrir la puerta a futuros litigios contra compañías que desarrollan y distribuyen herramientas de inteligencia artificial sin los controles adecuados para evitar que se conviertan en un peligro para sus usuarios.
Megan Garcia, que también es abogada, ha afirmado que su objetivo no es solo buscar justicia para su hijo, sino prevenir que otras familias enfrenten tragedias similares.
“Es como una pesadilla”, comentó, y agregó que seguirá luchando por la implementación de medidas más estrictas en la regulación de la inteligencia artificial y su interacción con menores.
Este caso podría convertirse en un punto de inflexión para las normativas que regulan el uso de chatbots y otras tecnologías emergentes, especialmente en relación con su impacto en la salud mental de los jóvenes.