El medio de comunicación sueco DN acaba de publicar los resultados de una investigación relacionada con el tipo de contenido que niños y adolescentes ven en redes sociales. Para realizar la investigación, por un lado el medio sueco DN creó 18 usuarios ficticios en TikTok, Youtube e Instagram para ver cómo funcionan los algoritmos de las redes sociales. Descubrieron que en 20 minutos esos algoritmos ya saben qué tipo de contenido atrae a los nuevos usuarios y que a partir de ese momento, el 75% de lo que se ve trata sobre esos temas atrapando así a los usuarios en una burbuja de la que es difícil salir.
El método a seguir fue simple: la única forma en que los usuarios ficticios interactuaban con la aplicación era viendo videos. Los niños ficticios no indicaron ningún interés, no buscaron ningún video y no les gustó ni compartieron ningún clip en las redes sociales.
A uno de los niños ficticios, YouTube le ofreció vídeos que estaban de moda sobre una amplia variedad de temas: baile, cocina, deportes y animales. El usuario no hizo caso y no vio ningún video. A los siete minutos, apareció un vídeo de fuerzas especiales vestidas de militares practicando combate cuerpo a cuerpo. El niño ficticio se detuvo y vio el video. Era aparentemente inofensivo, nadie resultó herido, pero cuando el usuario vió en el vídeo, YouTube pareció interpretar que el usuario se sentía atraído por las armas y la guerra. Cinco minutos más tarde, al niño ficticio se le mostró cómo cargar un AK47. Después de eso, el flujo de vídeos estuvo dominado por armas, vídeos de municiones y tiroteos desde el frente en Ucrania. El usuario se encontró repetidamente con propaganda militar rusa. La invasión a gran escala de Ucrania fue denominada en varios clips "operación militar especial", en las descripciones había lemas como "Gloria a Rusia" y "La victoria es nuestra".
En otra de las simulaciones, el niño ficticio se detuvo a ver un vídeo desde un andén de tren desierto. Estaba oscuro y la música era melancólica. La imagen mostraba el texto "Siempre serás mi número uno”. Diez minutos después, el 95 por ciento del contenido que se le ofrecía consistía en niños tristes y llorando.
Además de crear estos usuarios ficticiios, los investigadores hablaron con 71 niños y adolescentes de entre 9 y 16 años para saber lo que veían de forma habitual y lo que les contaron les puso los pelos de punta. Desde consejos de maquillaje, animales bonitos, juegos y deportes hasta violencia mortal, hombres degollados, cuerpos mutilados, accidentes de tráfico, perros y gatos apaleados y estrangulados, personas que se suicidan y gente que habla de autolesionarse.
Yadhira Maranon Hurtado, de 16 años, de Bålsta, dice que ha visto a varias personas suicidarse en las redes sociales. El primero hace cuatro años. Cuenta que no estaba preparada para verlo y que y las imágenes se le quedaron “grabadas”. Tras cuatro años dice que recuerda detalles del video del hombre que se pegó un tiro en la cabeza. El clip que vio recibió atención mundial. Las imágenes, que se difundieron primero en Facebook, se propagaron más a través de TikTok “ocultas” tras videos aparentemente inofensivos. La difusión generó críticas masivas a varias redes sociales que fueron acusadas de no actuar con la suficiente rapidez para eliminar ese contenido de las plataformas.
A principios de esta primavera, un amigo le envió el vídeo de un soldado estadounidense prendiéndose fuego frente a la embajada de Israel en Washington. Fue transmitido en vivo por la plataforma de videos Twitch y el soldado murió en el hospital. Desde la guerra de Gaza, a Yadhira Marañón Hurtado le han llegado imágenes sin censura de cuerpos desgarrados. En un video, dice que un niño caminaba con una cabeza en la mano.
Ella y otros niños entrevistados piensan que el feed nocturno de Tiktok contiene más contenido de depresión y enfermedades mentales: “A menudo sucede más cuando estás acostada en la cama y deberías estar durmiendo pero en lugar de eso estás viendo videos. Muchos publican videos sobre lo mal que se sienten, escriben cómo dejaron de comer o se hicieron daño. Está normalizado”.
Uno de los niños que ahora tiene 13 años, Harry Karlsson, dice que ha visto entre 10 y veinte vídeos en los que está seguro de que realmente han disparado o asesinado a personas. Cuenta cómo comenzó a ver un video de un secuestro, pensaba que era emocionante y siguió viéndolo hasta que el video acabó con una violación. A pesar de que denuncia este tipo de contenidos en las redes sociales, dice que que le siguen apareciendo, por lo menos una vez al mes.
También cuenta cómo esas imágenes le acompañan durante mucho tiempo, cuando las ve se queda en shock y no sabe qué hacer pero quiere seguir mirando lo que pasa. Ha dejado de usar TikTok, ahora ve videos en Youtube y es consciente del tipo de contenido que puede encontrar, pero “para ver videos divertidos es un riesgo que tienes que correr”.
En 2021, los propietarios de Tiktok anunciaron que cambiarían sus algoritmos para evitar "bucles" de videos con el mismo contenido. La promesa contrasta con el resultado del análisis de DN, que muestra cómo, en la mayoría de los casos, series de contenidos sobre el mismo tema aparecen tras menos de 20 minutos de navegación.
En la investigación DN pudo acceder a varios de los clips que mencionaban los niños mientras que otros videos ya habían sido retirados de las plataformas. La investigación también reveló que la inmensa mayoría de los niños y adolescentes no cuentan en casa lo que ven en las redes sociales.
Llevamos años advirtiendo del riesgo de las redes sociales para niños y adolescentes, que entre otras cosas circula mucho contenido inadecuado, pero los datos indican que cada año, más menores y más jóvenes las usan y además sin supervisión. A lo mejor convendria realizar un estudio como el realizado en Suecia para saber qué es lo que ven los niños y adolescentes de aquí en las redes sociales, para ver si de esa forma las familias se conciencian de una vez de que las redes sociales no son para menores.
Pero incluso en el caso de que aquí se hiciese un estudio similar y que diese los mismos o peores resultados, me temo que eso no cambiaría nada porque las familias, los padres y las madres, seguirían pensando que solo los hijos de los demás ven esas cosas y están en riesgo, los suyos no, y segurían como hasta ahora, mirando para otro lado como si la cosa no fuese con ellos. Resulta frustrante hablar constantemente a gente que no quiere ver la realidad.
La investigación del medio sueco DN: https://www.dn.se/sverige/barnen-berattar-lemlastade-kroppar-vikthets-och-sjalvmord/
Comments