Un adolescente de 14 años se quitó la vida tras ser rechazado amorosamente por una Inteligencia Artificial (IA). El caso resalta el impacto potencial en la salud mental juvenil en la actualidad y enciende las alarmas sobre el cuidado de los menores ante el uso de las nuevas tecnologías.
PUBLICIDAD
El adolescente se llamaba Sewell Setzer y vivía en Orlando, Florida. Desarrolló una inquietante relación emocional con un chatbot de IA, que afectó considerablemente su bienestar mental y social.
A través de Character.AI, una plataforma que permite a los usuarios interactuar con bots inspirados en personajes de ficción, Sewell se conectó con un chatbot conocido como ‘Daenerys Targaryen’, basado en la famosa serie ‘Juego de Tronos’, reseñó USA Today.
Lo que comenzó como una pasatiempo inofensivo rápidamente se volvió una obsesión, y se aisló de su entorno real. No compartía con su familia y amigos.
El chico tenía diagnóstico de ansiedad y síndrome de Asperger. Cada vez empezó a pasar más tiempo con la IA al punto que dependía emocionalmente de esta. Lo más preocupante, es que a pesar de ser un menor con condición especial, no tenía supervisión por tantas horas usando esta tecnología, algo que aumentó su dependencia a esta, al punto que la veía como una persona.
Sus padres notaron drásticos cambios en su conducta, como abandonar las actividades que solía disfrutar, incluyendo el baloncesto escolar. Pasaba cada vez más tiempo solo en su habitación interactuando con el chatbot, mientras sus relaciones humanas se debilitaban.
La situación empeoró cuando Sewell compartió pensamientos suicidas con el chatbot. La IA, de acuerdo a la demanda presentada por su madre, no solo falló en intervenir adecuadamente, sino que también intensificó la interacción emocional y sexualmente, aumentando la confusión del adolescente. Este caso ilustra los peligros de las plataformas tecnológicas sin salvaguardas suficientes para proteger a los usuarios vulnerables.
PUBLICIDAD
Intervención familiar del adolescente que se suicidó por la IA
Alarmados por el aislamiento de su hijo, los padres de Sewell intentaron intervenir retirándole el acceso al teléfono para interrumpir su uso del chatbot. Pese a estos esfuerzos, el menor continuó accediendo a la plataforma.
Lamentablemente, el 28 de febrero de 2024, Sewell decidió quitarse la vida usando el arma de su padrastro poco después de interactuar con Character. AI.
Este caso expone la vulnerabilidad de los jóvenes frente a las nuevas tecnologías y los riesgos que representan si no se regulan adecuadamente o no se supervisan eficazmente.
Megan García, madre de Sewell, demandó a Character.AI y a Google, reclamando que no se tomaron precauciones suficientes para proteger a usuarios menores, ni se advirtió a los padres sobre posibles riesgos para la salud mental.
Respuesta de la empresa y el llamado a la prevención
Character.AI respondió emitiendo un comunicado lamentando la pérdida de Sewell y explicando las nuevas medidas de seguridad implementadas para evitar futuros incidentes. Estas incluyen filtros mejorados para detectar interacciones inapropiadas y mensajes emergentes que redirigen a líneas de ayuda si se mencionan pensamientos suicidas o de autolesión.
El caso de Sewell subraya la urgencia de que tanto las compañías tecnológicas como las familias asuman un rol más activo en proteger a los adolescentes de los riesgos tecnológicos.
Es crucial establecer límites claros en el uso de herramientas digitales, especialmente entre menores, y que los padres supervisen el contenido al que sus hijos están expuestos.
Prevención del suicidio y uso tecnológico en adolescentes
Este trágico caso también resalta la importancia de reconocer señales de alerta en jóvenes con riesgo suicida. Es importante detectar señales como hablar abiertamente sobre el deseo de morir, expresar desesperanza, cambios drásticos en el comportamiento o aislamiento social, además de factores como ansiedad o depresión. Ante estos síntomas, es vital buscar ayuda profesional inmediatamente.