Instagram avisará a los padres si los adolescentes buscan repetidamente sobre suicidio
Instagram comenzará a alertar a padres y madres cuando detecte que sus hijos adolescentes realizan búsquedas reiteradas vinculadas con el suicidio o las autolesiones. La medida se implementará i...
Instagram comenzará a alertar a padres y madres cuando detecte que sus hijos adolescentes realizan búsquedas reiteradas vinculadas con el suicidio o las autolesiones. La medida se implementará inicialmente en Estados Unidos, Reino Unido, Australia y Canadá y se inscribe en un contexto de creciente presión política y social para reforzar la protección de menores en el entorno digital.
La compañía explicó que las notificaciones se activarán cuando un adolescente busque, en un corto período de tiempo, términos claramente asociados con el suicidio o el daño autoinfligido. El sistema funcionará únicamente para las familias que estén inscriptas en el programa opcional de supervisión parental.
“Estas alertas se basan en nuestro trabajo existente para ayudar a proteger a los adolescentes de contenido potencialmente dañino en Instagram”, señaló la plataforma en un comunicado difundido por Reuters. En ese mismo texto, la empresa remarcó: “Tenemos políticas estrictas contra el contenido que promueve o glorifica el suicidio o las autolesiones”.
Actualmente, Instagram bloquea este tipo de búsquedas para que no aparezcan en los resultados y redirige a los usuarios hacia recursos de apoyo y líneas de ayuda. La novedad es que, además de esa intervención automática, ahora se sumará una alerta directa a los padres cuando el sistema detecte un patrón reiterado de búsquedas sensibles.
El anuncio se produce mientras varios gobiernos avanzan en debates sobre nuevas regulaciones para proteger a niños y adolescentes en línea. Reino Unido confirmó en enero que evalúa restricciones adicionales al uso de redes sociales, luego de que Australia decidiera prohibir estas plataformas para menores de 16 años. En las últimas semanas, España, Grecia y Eslovenia también manifestaron su intención de revisar el acceso de los menores a las redes.
Según informó Reuters, el refuerzo de los controles se da en un clima de preocupación creciente por los riesgos asociados al uso de tecnologías digitales, en particular tras episodios vinculados con herramientas de inteligencia artificial. En el Reino Unido, además, algunas de las medidas orientadas a bloquear el acceso de menores a sitios pornográficos generaron tensiones en torno a la privacidad de los adultos y el alcance de las regulaciones, incluso en el plano internacional.
Ofensiva judicialEn paralelo, la empresa matriz de Instagram, Meta Platforms Inc, enfrenta una fuerte ofensiva judicial en Estados Unidos por presuntos daños a menores. Según detalló Associated Press (AP), uno de los juicios, en curso en Los Ángeles, analiza si las plataformas de Meta fueron diseñadas deliberadamente para generar adicción y si ese diseño perjudicó la salud mental de niños y adolescentes. Otro proceso, iniciado en Nuevo México, busca determinar si la compañía no protegió adecuadamente a menores frente a situaciones de explotación sexual en sus servicios.
Miles de familias, junto con distritos escolares y organismos gubernamentales, sostienen que las redes sociales priorizan mecanismos adictivos y no evitan la exposición de los menores a contenidos que pueden derivar en depresión, trastornos alimentarios y conductas suicidas.
Desde la empresa rechazaron esas acusaciones. Ejecutivos de Meta, incluido su director ejecutivo Mark Zuckerberg, negaron que las plataformas causen adicción. Durante un interrogatorio judicial en Los Ángeles, Zuckerberg afirmó que sigue de acuerdo con una declaración previa suya de que el conjunto existente de trabajos científicos no ha demostrado que las redes sociales causen daños a la salud mental, de acuerdo con AP.
Las alertas a los padres se enviarán por correo electrónico, mensaje de texto, WhatsApp o mediante notificaciones dentro de Instagram. “Nuestro objetivo es darles a los padres herramientas para intervenir si las búsquedas de su adolescente sugieren que podría necesitar apoyo”, explicó Meta en una publicación en su blog citada por AP. En ese mismo mensaje, la compañía aclaró: “También queremos evitar enviar estas notificaciones innecesariamente, lo cual, si se hace con demasiada frecuencia, podría hacer que las notificaciones sean menos útiles en general”.
La empresa anticipó además que trabaja en alertas similares vinculadas al uso de inteligencia artificial. “Estas notificarán a los padres si un adolescente intenta entablar ciertos tipos de conversaciones relacionadas con el suicidio o las autolesiones con nuestra IA”, señaló Meta. Y agregó: “Este es un trabajo importante y tendremos más que compartir en los próximos meses”, según consignó AP.
De acuerdo con la agencia AFP, Meta señaló que el sistema de alertas fue diseñado tras consultas con su Grupo Asesor de Suicidio y Autolesiones y que el umbral para activarlas se estableció de manera deliberadamente cautelosa, incluso si eso implica que algunas notificaciones se envíen sin que exista un motivo real de preocupación. La empresa precisó además que las alertas estarán acompañadas por recursos elaborados por expertos para ayudar a los padres a gestionar conversaciones difíciles con sus hijos y que la medida se extenderá a otros países hacia fines de este año.
La iniciativa reaviva el debate sobre el rol de las plataformas, la responsabilidad de los padres y el alcance de la regulación estatal en un ecosistema digital que continúa creciendo en influencia sobre la vida cotidiana de niños y adolescentes.
Reuters, AP y AFP.