Las cuentas adolescentes de Instagram todavía muestran contenido de suicidio, afirma el estudio
Las herramientas de Instagram diseñadas para proteger a los adolescentes del contenido dañino no pueden evitar que se vean suicidios y publicaciones de autolesión, según un estudio.
Los investigadores también dijeron que la plataforma de redes sociales, propiedad de Meta, alentó a los niños «a publicar contenido que recibió comentarios altamente sexualizados de adultos».
Las pruebas, por grupos de seguridad infantil e investigadores cibernéticos, encontraron 30 de 47 herramientas de seguridad para adolescentes en Instagram fueron «sustancialmente ineficaces o ya no existen».
Meta ha disputado la investigación y sus hallazgos, diciendo que sus protecciones han llevado a los adolescentes a ver contenido menos dañino en Instagram.
«Este informe tergiversa repetidamente nuestros esfuerzos para empoderar a los padres y proteger a los adolescentes, mal declarando cómo funcionan nuestras herramientas de seguridad y cómo millones de padres y adolescentes los usan hoy», dijo un portavoz de Meta, dijo un portavoz a la BBC.
«Las cuentas adolescentes lideran la industria porque brindan protecciones automáticas de seguridad y controles sencillos de los padres».
La empresa Instagram introducidos en Instagram en 2024diciendo que agregaría mejores protecciones para los jóvenes y permitiría más supervisión de los padres.
Se expandió a Fb y Messenger en 2025.
El estudio sobre la efectividad de sus medidas de seguridad adolescentes fue realizado por el Centro de Investigación de los Estados Unidos, Ciberseguridad para la Democracia, y expertos, incluidos denunciante Arturo Béjar En nombre de los grupos de seguridad infantil, incluida la Fundación Molly Rose.
Los investigadores dijeron que después de establecer cuentas adolescentes falsas encontraron problemas importantes con las herramientas.
Además de encontrar que 30 de las herramientas eran ineficaces o simplemente ya no existían, dijeron que nueve herramientas «redujeron daños pero tenían limitaciones».
Los investigadores dijeron que solo ocho de las 47 herramientas de seguridad que analizaron estaban trabajando de manera efectiva, lo que significa que los adolescentes se mostraban contenido que rompió las propias reglas de Instagram sobre lo que debería mostrarse a los jóvenes.
Esto incluyó publicaciones que describen «actos sexuales degradantes», así como sugerencias de autocompletación de los términos de búsqueda que promueven el suicidio, la autolesión o los trastornos alimentarios.
«Estas fallas apuntan a una cultura corporativa en Meta que pone el compromiso y las ganancias antes de la seguridad», dijo Andy Burrows, director ejecutivo de la Fundación Molly Rose, que hace campaña para leyes de seguridad en línea más fuertes en el Reino Unido.
Fue creado después de la muerte de Molly Russell, quien se quitó la vida a la edad de 14 años en 2017.
En una investigación realizada en 2022, la forense concluyó que murió mientras sufría los «efectos negativos del contenido en línea».
Los investigadores compartieron con las grabaciones de pantalla de noticias de la BBC de sus hallazgos, algunos de estos, incluidos niños pequeños, que parecían tener menos de 13 años publicando movies de sí mismos.
En un video, una joven pide a los usuarios que califiquen su atractivo.
Los investigadores afirmaron en el algoritmo de Instagram que «incentiva a los niños menores de 13 años para realizar comportamientos sexualizados arriesgados por me gusta y puntos de vista».
Dijeron que «los alienta a publicar contenido que recibió comentarios altamente sexualizados de adultos».
También descubrió que los usuarios de cuentas adolescentes podían enviar «mensajes ofensivos y misóginos entre sí» y se les sugirió que las cuentas para adultos siguieran.
Burrows dijo que los hallazgos sugirieron que las cuentas adolescentes de Meta eran «un truco performativo impulsado por las relaciones públicas en lugar de un intento claro y concertado de arreglar los riesgos de seguridad de larga duración en Instagram».
Meta es una de las muchas grandes firmas de redes sociales que han enfrentado críticas por su enfoque de seguridad infantil en línea.
En enero de 2024, el presidente ejecutivo Mark Zuckerberg estaba entre los jefes de tecnología a la parrilla en el Senado de los Estados Unidos Sobre sus políticas de seguridad, y se disculpó con un grupo de padres que dijeron que sus hijos habían sido perjudicados por las redes sociales.
Desde entonces, Meta ha implementado una serie de medidas para tratar de aumentar la seguridad de los niños que usan sus aplicaciones.
Pero «estas herramientas tienen un largo camino por recorrer antes de que estén aptos para el propósito», dijo la Dra. Laura Edelson, codirectora de la Ciberseguridad de Autores del Informe para la Democracia.
Meta dijo a la BBC que la investigación no entiende cómo funcionan su configuración de contenido para los adolescentes y dijo que los tergiversa.
«La realidad es que los adolescentes que fueron colocados en estas protecciones vieron contenido menos wise, experimentaron un contacto menos no deseado y pasaron menos tiempo en Instagram por la noche», dijo un portavoz.
Agregaron que las herramientas les dieron a los padres «herramientas robustas a su alcance».
«Continuaremos mejorando nuestras herramientas y agradecemos los comentarios constructivos, pero este informe no es eso», dijeron.
Dijo que las herramientas de investigación de la seguridad cibernética para el Centro de Democracia, como las notificaciones de «tomar un descanso» para la gestión del tiempo de las aplicaciones, ya no están disponibles para las cuentas adolescentes, cuando en realidad se vieron en otras características o se implementaron en otro lugar.