¡Atención padres!: cuentas de TikTok ocultan contenido sexual infantil a la vista de todos

Un extenso informe de Forbes describe una realidad aterradora: la pornografía infantil -conocida legalmente como material de abuso sexual de menores- es fácil de encontrar en TikTok, la aplicación para compartir vídeos cortos con mil millones de usuarios activos mensuales, lo que la convierte en la sexta plataforma de redes sociales más popular del mundo.

Para la mayoría, informó la escritora de Forbes Alexandra Levine, las publicaciones vinculadas a los delincuentes «suelen leerse como anuncios y provienen de cuentas aparentemente inocuas».

«Pero a menudo», continuó, «son portales de material ilegal de abuso sexual infantil literalmente escondido a la vista, publicado en cuentas privadas utilizando una configuración que lo hace visible sólo para la persona que ha iniciado la sesión».

Los titulares de las cuentas llenas de CSAM supuestamente comparten contenidos ilícitos utilizando una configuración de «publicación en privado», lo que significa que el que accede a las fotos y los vídeos tiene que tener la información de inicio de sesión de la cuenta o utilizar frases específicas, eludiendo los algoritmos que de otro modo podrían dar lugar a violaciones de las condiciones de uso de la aplicación.

Seara Adair, superviviente de abusos sexuales a menores y defensora de la seguridad de los niños, dijo a Forbes que se había puesto en contacto con los empleados de TikTok, pero sin éxito. Ha intentado alertarles de esta tendencia, explicando que cree que los usuarios han descubierto formas de eludir los algoritmos operados y supervisados por ordenador publicando vídeos en pantalla negra que sólo duran unos segundos y contienen breves instrucciones para los depredadores.

Adair dijo que ha visto vídeos en los que aparece «un niño completamente desnudo y haciendo cosas indecentes».

Por su parte, Levine corroboró los comentarios de Adair, informando de que era relativamente sencillo acceder a las cuentas de «publicación en privado» sin ningún obstáculo, mientras que otras sólo requerían que los potenciales depredadores aportaran sus propias imágenes antes de acceder a la información de la cuenta. Según los informes, algunos usuarios de cuentas reclutaban a niñas de hasta 13 años.

El problema no es exclusivo de TikTok, según Haley McNamara, directora del Centro Internacional sobre Explotación Sexual. Dijo a Forbes que todas las plataformas de medios sociales están plagadas de CSAM.

«Existe esta tendencia de espacios cerrados o semicerrados que se convierten en vías fáciles para la creación de redes de abusadores de niños, de personas que quieren comerciar con materiales de abuso sexual infantil», dijo. «Ese tipo de espacios también se han utilizado históricamente para la captación e incluso la venta o la publicidad de personas para el tráfico sexual».

En una declaración a Forbes, el portavoz de TikTok, Mahsau Cullinane, dijo que el gigante de las redes sociales tiene «tolerancia cero para el material de abuso sexual infantil y este comportamiento aborrecible, que está estrictamente prohibido en nuestra plataforma». El representante señaló además que todos los vídeos publicados en TikTok -tanto públicos como privados- pasan por la moderación de contenidos de la aplicación, operada por inteligencia artificial, y por una revisión humana adicional, según sea necesario.

«Cuando tenemos conocimiento de cualquier contenido, lo eliminamos inmediatamente, prohibimos las cuentas y denunciamos al Centro Nacional para Niños Desaparecidos y Explotados», dijo Cullinane.

Be the first to comment

Leave a Reply

Tu dirección de correo no será publicada.


*