Instagram está introduciendo una nueva función que notificará a los padres si sus hijos adolescentes buscan repetidamente contenido relacionado con el suicidio o la autolesión. El cambio, anunciado el jueves, tiene como objetivo aumentar la conciencia de los padres sobre posibles crisis de salud mental entre los usuarios jóvenes. Esto representa un cambio significativo en el enfoque de la plataforma hacia la seguridad de los adolescentes, yendo más allá del simple bloqueo de contenido dañino para informar activamente a los tutores.

Cómo funciona el sistema

El sistema de alerta está integrado con las herramientas de supervisión parental existentes de Instagram, que se pueden vincular a cuentas de adolescentes para usuarios de entre 13 y 17 años. Las búsquedas repetidas de términos relacionados con el suicidio en un período breve activarán notificaciones enviadas a los padres a través de alertas de aplicaciones, correo electrónico, mensajes de texto o WhatsApp, según sus datos de contacto registrados. Instagram aclaró que el sistema está diseñado para detectar frases que indiquen una intención genuina de hacerse daño a uno mismo, incluidos términos que promueven o glorifican el suicidio.

La plataforma también proporcionará a los padres recursos diseñados por expertos para facilitar las conversaciones con sus hijos adolescentes sobre los sentimientos suicidas. Sin embargo, en casos de peligro inmediato, Instagram seguirá notificando a los servicios de emergencia según la política existente. El lanzamiento comienza en EE. UU., Reino Unido y Canadá la próxima semana, y se planea una implementación más amplia para principios de marzo. Meta, la empresa matriz de Instagram, también está desarrollando alertas similares para sus experiencias impulsadas por IA.

Por qué esto es importante

Esta medida se produce en medio de un creciente escrutinio del impacto de las redes sociales en la salud mental de los jóvenes. El anuncio se produce tras recientes desafíos legales contra Meta, incluidas demandas de padres cuyos hijos adolescentes se suicidaron después de sufrir explotación en línea. La semana pasada, el director ejecutivo Mark Zuckerberg testificó sobre la naturaleza supuestamente adictiva y dañina de las plataformas de redes sociales. Estos eventos subrayan la creciente presión sobre las empresas de tecnología para que aborden las consecuencias de sus plataformas en el mundo real.

Perspectivas de expertos

El Dr. John Ackerman, experto en prevención del suicidio juvenil, elogió cautelosamente la iniciativa. “Me gusta que estén ampliando las protecciones… Me gusta que se lo hagan saber a los padres”, afirmó. Sin embargo, Ackerman enfatizó la importancia de la transparencia con respecto a los términos de búsqueda específicos que activan las alertas y de garantizar que el sistema se adapte a la evolución de la jerga utilizada por los adolescentes para evadir la detección.

También advirtió contra las “palabrerías”, instando a Instagram a hacer que las notificaciones sean accesibles y procesables. Si las alertas se ignoran o no brindan soporte tangible, la función corre el riesgo de resultar ineficaz.

¿Qué pasa después?

A los padres que reciben una alerta, los expertos recomiendan mantener la calma y reconocer la dificultad de la situación. La atención debería centrarse en brindar apoyo en lugar de intentar soluciones inmediatas. Los adolescentes que activan una alerta pueden sentirse frustrados, pero se les anima a buscar ayuda de adultos de confianza si sus padres no los apoyan.

En última instancia, este cambio refleja un reconocimiento cada vez mayor de que las plataformas tecnológicas tienen la responsabilidad de salvaguardar el bienestar mental de los usuarios jóvenes. Si bien la eficacia de las alertas parentales aún está por verse, marca un paso significativo hacia abordar la compleja relación entre las redes sociales y el suicidio adolescente.

Si usted o alguien que conoce está luchando contra pensamientos suicidas, busque ayuda: 988 Suicide & Crisis Lifeline (llame o envíe un mensaje de texto), Trans Lifeline, The Trevor Project o Crisis Text Line. Los recursos están disponibles y el apoyo está al alcance.