El siguiente artículo es una traducción de una gran parte de un artículo publicado en Forbes el 11 de noviembre de 2022. Podéis consultar el artículo original y completo aquí.
El artículo contiene descripciones y discusiones de contenido gráfico de las redes sociales, incluido el material de abuso sexual infantil, pornografía infantil en TikTok y la pornografía de adultos.
Las publicaciones son fáciles de encontrar en TikTok. Por lo general, se leen como anuncios y provienen de relatos aparentemente inocuos. Pero a menudo, son portales de material ilegal de abuso sexual infantil literalmente oculto a plena vista, publicado en cuentas privadas utilizando una configuración que lo hace visible solo para la persona que ha iniciado sesión. Desde el exterior, no hay nada que ver; en el interior, hay vídeos gráficos de menores desnudándose, masturbándose y participando en otros actos de explotación. Entrar es tan simple como pedirle la contraseña a un extraño en TikTok.
Las políticas de seguridad de TikTok prohíben explícitamente a los usuarios compartir sus credenciales de inicio de sesión con otros. Pero una investigación de Forbes descubrió que eso es precisamente lo que está sucediendo. El informe, que siguió la guía de un experto legal, descubrió cómo las víctimas menores de edad de la explotación sexual y los depredadores pueden ver y compartir imágenes ilegales en una de las plataformas de redes sociales más grandes del planeta. El gran volumen de cuentas post-privadas que Forbes identificó, y la frecuencia con la que aparecen nuevas tan rápido como las antiguas, resaltan un importante punto ciego en el que la moderación se está quedando corta y TikTok está luchando para hacer cumplir sus propias pautas, a pesar de una política de "tolerancia cero" para el material de abuso sexual infantil.
"Hay literalmente cuentas que están llenas de material de abuso y explotación infantil en su plataforma, y se está deslizando a través de su IA", dijo Seara Adair, una sobreviviente de abuso sexual infantil que ha construido un seguimiento en TikTok al llamar la atención durante el último año sobre la explotación de los niños que ocurre en la aplicación. "No solo sucede en su plataforma, sino que a menudo conduce a otras plataformas, donde se vuelve aún más peligroso”.
Adair descubrió por primera vez el problema de la "publicación en privado" en marzo, cuando alguien que había iniciado sesión en la cuenta privada de TikTok @My.Privvs.R.Open hizo público un video de un adolescente "completamente desnudo y haciendo cosas inapropiadas" y etiquetó a Adair. Adair utilizó inmediatamente las herramientas de informes de TikTok para marcar el vídeo por "pornografía y desnudez". Más tarde ese día, recibió una alerta dentro de la aplicación que decía "no encontramos ninguna violación".
Al día siguiente, Adair publicó el primero de varios vídeos de TikTok llamando la atención sobre cuentas privadas ilícitas como la que había encontrado. Ese vídeo se volvió tan viral que aterrizó en el feed de un hermano de un asistente de EE. UU. Abogado del Distrito Sur de Texas. Después de enterarse, el fiscal se puso en contacto con Adair para continuar con el asunto.
La aplicación ofrece herramientas que se pueden utilizar para marcar cuentas, publicaciones y mensajes directos que contienen material infractor de la política de TikTok. Forbes utilizó esas herramientas para informar de una serie de vídeos y cuentas promocionando y reclutando usuarios para grupos privados que violaban la política de TikTok; todos recibieron la respuesta "sin violación". Cuando Forbes luego señaló varios de estos aparentes descuidos a TikTok por correo electrónico, la compañía confirmó que el contenido era violativo y lo eliminó inmediatamente.
Peligros ocultos a la vista
Este fenómeno de "publicación en privado", al que algunos se refieren como publicación en el modo "Solo yo", no es difícil de encontrar en TikTok. Mientras que una búsqueda directa de "publicar en privado" devuelve un mensaje que dice "esta frase puede estar asociada con un comportamiento o contenido que viola nuestras directrices", la advertencia es fácilmente evadida por el llamado "algospeak", códigos de palabras que los usuarios utilizan para evadir la detección de la tecnología de regulación de contenido. Los errores tipográficos deliberados como "prvt", la jerga como "priv", frases confusas como "postprivt" y hashtags como #postinprvts son solo algunos de los términos de búsqueda que devolvieron cientos de cuentas aparentemente violativas e invitaciones a seguirlas. Algunas publicaciones también incluyen #viral o #fyp (abreviatura de "For You Page", el feed que más de mil millones de usuarios de TikTok ven cuando abren la aplicación) para atraer más usuarios. TikTok le dijo a Forbes que prohíbe las cuentas y el contenido que mencionan "publicar en privado" o variaciones de esa frase. Solo después de que Forbes señalara ejemplos de “algospeak" problemático, TikTok bloqueó algunos hashtags y búsquedas que ahora muestran una advertencia: "Este contenido puede estar asociado con contenido sexualizado de menores. Crear, ver o compartir este contenido es ilegal y puede tener graves consecuencias".
A los pocos días de que un usuario activo de TikTok siguiera a un pequeño número de estas cuentas privadas, el algoritmo de la aplicación comenzó a recomendar docenas más con bios similares como "pos.t.i.n.privs" y "logintoseeprivatevids". Las sugerencias comenzaron a aparecer con frecuencia en el feed "For You" del usuario acompañado de música de ascensor de jazz y una opción de "Seguir" en la parte inferior de la pantalla.
Con poco esfuerzo, se envió al usuario información de inicio de sesión para varios identificadores post-in-private. El proceso de investigación del usuario, cuando lo hay, se centra principalmente en el género del usuario y este se compromete a contribuir con imágenes. Una persona que estaba reclutando chicas para publicar en su cuenta privada recién creada envió un mensaje diciendo que estaba buscando chicas mayores de 18 años, pero que las personas de 15 a 17 años serían suficientes. "Le doy el correo electrónico y el pase a personas en las que creo que se puede confiar", dijo. "No funciona todo el tiempo". Otras publicaciones reclutaron a niñas de entre "13 años" y “14 - 18 años”.
Acceder a una cuenta post-privada es sencillo y no requiere verificación en dos pasos. Los usuarios de TikTok pueden activar esta capa adicional de seguridad, pero se mantiene desactivada de forma predeterminada.
Una cuenta contenía más de una docena de vídeos ocultos, varios con chicas jóvenes que parecían ser menores de edad. En una publicación, se podía ver a una joven quitándose lentamente su uniforme escolar y ropa interior hasta que estaba desnuda, a pesar de que TikTok no permitía "contenido que representaba a un menor desvestirse". En otro, se podía ver a una niña fingiendo tener sexo con una almohada en una habitación tenuemente iluminada, a pesar de que TikTok prohibía "contenido que representa o implica actividades sexuales de menores". Otras dos mostraron a chicas jóvenes en los baños quitándose las camisas o los sujetadores y acariciándose los pechos.
Los usuarios de TikTok que pretenden ser menores de edad también participan en estos grupos secretos. En una invitación reciente para unirse a una cuenta privada, las niñas que afirmaban tener 13, 14 y 15 años pidieron que las dejaran entrar. Sus edades y géneros no se pudieron verificar de forma independiente.
Las biografías y los comentarios de otros usuarios pidieron a la gente que movieran las publicaciones privadas y el intercambio de TikTok a otras plataformas sociales, como Snapchat y Discord, aunque TikTok prohíbe explícitamente el contenido que "dirija a los usuarios fuera de la plataforma para obtener o distribuir MESI (Material de explotación sexual infantil)“. En uno de esos casos, una comentarista llamada Lucy, que afirmaba tener 14 años, tenía un enlace a un canal de Discord en su biografía de TikTok. "PO$TING IN PRVET / Join Priv Discord", decía la biografía. Ese enlace condujo a un canal de Discord de unas dos docenas de personas compartiendo pornografía de personas de todas las edades, en su mayoría mujeres. Varias de las publicaciones de Discord tenían una marca de agua de TikTok, que sugería que se habían originado o sido compartidas allí, y presentaban lo que parecía ser menores de edad, chicas desnudas masturbándose o realizando sexo oral. El propietario del servidor Discord amenazó con echar a la gente del grupo si no aportaban material nuevo.
El contenido de lesiones infantiles "no tiene cabida en Discord ni en la sociedad", dijo John Redgrave, vicepresidente de confianza y seguridad de Discord, en un comunicado. "Trabajamos incansablemente para mantener este contenido fuera de nuestro servicio y tomar medidas inmediatas cuando nos damos cuenta de ello, incluyendo la prohibición de usuarios, el cierre de los servidores y, cuando sea apropiado, la interacción con las autoridades competentes".
Estas actividades son inquietantemente comunes en las principales aplicaciones de redes sociales que apoyan entornos cerrados, según Haley McNamara, directora del Centro Internacional de Explotación Sexual. "Existe esta tendencia de espacios cerrados o semicerrados que se convierten en vías fáciles para la creación de redes de abusadores de niños, personas que quieren intercambiar materiales de abuso sexual infantil", dijo a Forbes. "Ese tipo de espacios también se han utilizado históricamente para arreglar e incluso para vender o anunciar a las personas por tráfico sexual". Dijo que, además de Snapchat y Discord, la organización ha visto un comportamiento comparable en Instagram, ya sea con grupos cerrados o con la función de amigos cercanos.
"Estas empresas tecnológicas están creando nuevas herramientas o funciones y desplegando sin considerar seriamente el elemento de seguridad en línea, especialmente para los niños", agregó, pidiendo que se construyan mecanismos de seguridad en proporción a la configuración de privacidad. "Esta función 'Only Me' es el último ejemplo de que las empresas tecnológicas no priorizan la seguridad infantil o no construyen formas proactivas de combatir estos problemas en la parte delantera".
La doctora Jennifer King, la becaria de política de privacidad y datos del Instituto Stanford de Inteligencia Artificial Centrada en el Ser Humano, dijo que ve casos de uso legítimos para este tipo de entorno de privacidad. TikTok dijo que los creadores pueden usar la función mientras prueban o programan su contenido. Pero King cuestionó la decisión de TikTok de no tener la autenticación predeterminada de dos factores, un estándar de la industria, y por qué TikTok no está detectando múltiples inicios de sesión que se opongan a la política de la plataforma. ”Eso es una bandera roja, y puedes saber absolutamente que esto está sucediendo", dijo King, quien anteriormente construyó una herramienta para que Yahoo escaneara material de abuso sexual infantil.
"A menudo es una carrera contra el tiempo: creas una cuenta y publicas una tonelada de MESI (Material de Explotación Sexual Infantil) o consumes un montón de MESI lo más rápido posible, antes de que la cuenta sea detectada, cerrada, reportada... se trata de la distribución lo más rápido posible", explicó. La gente en este espacio espera tener estas cuentas por solo un par de horas o días, dijo, por lo que detectar y bloquear inicios de sesión inusuales o frecuentes, lo que técnicamente no es difícil de hacer, podría "endurecer esos objetivos o cerrar esas lagunas legales" de las que la gente está aprovechando.
A pesar de su política que prohíbe el intercambio de credenciales de inicio de sesión, TikTok dijo a Forbes que hay razones para permitir que varias personas accedan a la misma cuenta, como gerentes, publicistas o estrategas de redes sociales que ayudan a gestionar los identificadores de los creadores. La compañía también señaló que la autenticación de dos factores es necesaria para algunos creadores con grandes seguidores.
Si bien los relatos públicos populares con grandes audiencias tienden a atraer más escrutinio, "una sola cuenta que no parece tener mucha actividad, publicando un par de videos" puede pasarse por alto, dijo King. Pero TikTok sostiene que todos los usuarios, independientemente del número de seguidores, están sujetos a las mismas pautas de la comunidad y que la plataforma intenta hacer cumplir esas reglas de manera consistente.
Podéis encontrar recursos de educación digital para familias y centros educativos en https://www.macsonrisas.es/recursos-educacion-digital-padres-alumnos-centros-educativos, podéis ver nuestro catálogo de charlas y talleres en https://www.macsonrisas.es/charlas-y-talleres-educacion-digital y podéis conocer nuestra iniciativas en www.macsonrisas.es:
#tarjetarojadigital Iniciativa para detectar y bloquear pederastas en internet, #aparcalapantalla Iniciativa para reducir el tiempo de uso de pantallas y ¡Smartphones y redes a partir de los 14!
Comments