El algoritmo de Instagram ayuda a conectar y promover una vasta red de cuentas dedicadas a la pedofilia.

900

Una investigación periodistica reveló que Instagram no solo aloja estas actividades, sino que sus algoritmos los promueve.

El algoritmo de Instagram ayuda a conectar y promover una vasta red de cuentas dedicadas a la pedofilia y compra de contenido sexual de menores, según una investigación conjunta de The Wall Street Journal (WSJ) e investigadores de la Universidad de Stanford y la Universidad de Massachusetts Amherst.

Instagram, red social muy popular entre los adolescentes, no solo aloja estas actividades, sino que sus algoritmos los promueve.

Los sistemas de recomendación de esta red social que forma parte de Meta tienen el objetivo de vincular a aquellos que comparten intereses de nicho y mediante este algoritmo los pedófilos encuentran fácilmente a los vendedores de contenido sexual de menores.

Los investigadores descubrieron que Instagram -que tiene más de mil 300 millones de usuarios- permitía a las personas buscar etiquetas explícitas y en ocasiones hasta emoticonos que los conectaban a cuentas que usaban los términos para anunciar la venta de material sexual infantil y “reuniones” con los menores.

La promoción de contenido sexual de menores viola las reglas establecidas por Meta, así como las leyes de EE.UU.

Meta reconoció los problemas dentro de sus operaciones de cumplimiento y dijo al WSJ que ha establecido un grupo de trabajo interno para abordar los problemas planteados.

Meta -que cuenta con más de 3 mil millones de usuarios en sus aplicaciones, que incluyen Instagram, Facebook y WhatsApp- dijo que en los últimos dos años eliminó 27 redes de pedófilos.

La plataforma, además, aaseguró que bloqueó miles de etiquetas que sexualizan a los niños, algunas con millones de publicaciones, y que restringió los sistemas que recomiendan a los usuarios que busquen términos que se sabe que están asociados con el abuso sexual.

En su investigación, el Observatorio de Internet de Stanford usó etiquetas asociadas con el sexo con menores y encontró 405 vendedores.

Por su parte, los investigadores de Stanford encontraron una actividad similar de explotación sexual en otras redes sociales más pequeñas, pero dijeron que el problema en Instagram es particularmente grave.

El equipo de Stanford encontró 128 cuentas que ofrecían vender material de abuso sexual infantil en Twitter, menos de un tercio del número que encontraron en Instagram, que tiene una base de usuarios mucho más grande que Twitter.

Según el estudio, Twitter no recomendó este tipo de cuentas en la misma medida que Instagram, y esta plataformas, además, las eliminó mucho más rápido.