top of page

Educación digital

Explotación sexual de menores en el mundo digital

  • Foto del escritor: Admin
    Admin
  • 6 oct
  • 13 Min. de lectura

Save the Children ha publicado un estudio sobre la explotación sexual de menores en el mundo digital llamado “Redes que atrapan”. Este artículo es un resumen de ese informe que se puede descargar desde aquí en euskera, en castellano o en catalán.


Diferentes modalidades de explotación en el mundo digital:


Materiales de abuso sexual infantil (MASI): Las imágenes o videos pueden generarse a partir abusos cometidos en entornos físicos, a través de coerción o manipulación, o bien directamente en el entorno digital mediante manipulación, engaños, amenazas o extorsión, que inducen a la víctima menor de edad a producir imágenes de contenido sexual. Por otro lado, este material también puede ser autogenerado por los propios niñas y niños sin que medie una coacción explícita, por ejemplo, a través de conductas normalizadas entre adolescentes como el sexting, y luego ser difundido.


Datos: En 2024, la CyberTipline del Centro Nacional para Niños Desapa recidos y Explotados (NCMEC, la organización estadounidense que lidera los esfuerzos para prevenir la explotación sexual infantil, localizar a niños y niñas desaparecidos y reducir la circulación de material de abuso sexual infantil en línea en todo el mundo) registró más de 19,8 millones de denuncias relacionadas con este tipo de material, que contenían 62,9 millones de archivos. Cabe subrayar que casi la totalidad de este contenido fue localizado en canales abiertos y espacios accesibles al público general, no ocultos en la dark web. Por otro lado, la Base de Datos Internacional de Interpol (ICSE), especializada en imágenes y vídeos de explotación sexual infantil, registró hasta julio de 2024 más de 4,9 millones de archivos, con más de 42.000 víctimas identificadas y más de 18.000 delincuentes reconocidos. Se ha documentado además que gran parte de este material se origina en países europeos: en 2022, el 68%.  (IWF) informó que el 66 % de todo el CSAM identificado ese año se originó en algún país europeo.


Materiales de explotación sexual infantil (MESI): También referido como CSEM (Child Sexual Exploitation Material), este material engloba un espectro más amplio que el CSAM, incluyendo representaciones sexualizadas de niñas y niños, que incluyen imágenes o representaciones de NNA en actitudes sexualizadas o situaciones de desnudez parcial o total que, aunque no muestran actos sexuales explícitos, presentan a la infancia desde una mirada sexualizada.


Según datos de Save the Children Europa, muchas de las imágenes recuperadas en páginas de modelaje infantil contenían CSAM, y varias de las víctimas identificadas habían sufrido abusos sexuales. Estas páginas, que suelen presentarse como espacios  «artísticos» o «profesionales», publican fotografías de niñas y niños en poses «sugerentes» o vestimenta inadecuada para su edad, y son utilizadas con frecuencia como tapadera para la distribución y el consumo de CSAM.


Materiales generados digitalmente y con IA: Este tipo de contenido puede originarse a partir de material ya existente de abuso sexual para crear un nuevo material, o transformando mediante inteligencia artificial imágenes publicadas en redes sociales.


Datos: Se trata un fenómeno en crecimiento. En 2024, CyberTipline del NCMEC recibió 67.000 denuncias relacionadas con CSAM generado por IA, lo que supone un aumento del 1.325% respecto al año anterior, en el que se recibieron 4.700 denuncias. Al preguntarle a los chicos y chicas que han participado en este estudio, un 20% reveló que alguien había compartido con otras personas imágenes creadas con IA para mostrarle desnudo, siendo menor de edad, y sin consentimiento.


Materiales autogenerados: Las imágenes o vídeos también pueden estar producidos por los propios niños, niñas y adolescentes, mostrándose en posiciones «sugerentes» o sexualizadas, o en conductas más explícitas, de manera voluntaria o bajo coacción, en contextos que pueden ir desde la intimidad y la curiosidad sexual hasta la presión social o la manipulación y explotación por parte de terceros.


Datos: La IWF ha alertado que, de las 275.652 páginas web analizadas que contenían CSAM en 2023, el 92 % incluía imágenes autogeneradas, y el 70 % de estas correspondían a niños y niñas de entre 7 y 10 años. Estos datos reflejan tanto la temprana edad de inicio en la producción de este tipo de contenidos como la alta vulnerabilidad de quienes los generan, muchas veces en contextos de escasa supervisión adulta, búsqueda de aprobación o carencias afectivas.


Explotación a través de transmisiones en directo: El live streaming se caracteriza por el componente de simultaneidad, el abuso ocurre en tiempo real. Esto provoca que, en muchos casos, los espectadores no se limitan a observar, sino que interactúan con el abuso en curso. A través de los chats en directo pueden dar instrucciones, hacer peticiones específicas o pagar para que se realicen ciertos actos, convirtiéndose así en coautores del abuso, participando en tiempo real, aunque no tengan contacto físico con el niño o niña.


El modus operandi suele involucrar la participación de intermediarios o facilitadores, muchas veces familiares o personas del entorno del niño o niña, que organizan las sesiones de abuso: acuerdan con los clientes la fecha, hora y duración del streaming, establecen los precios (que varían según la edad y el número de niños y niñas implicados, o los actos solicitados), y proporcionan el entorno para la retransmisión.


Turismo sexual digitalizado: El live streaming ha permitido también la transformación de formas tradicionales de explotación sexual, como el turismo sexual infantil, al eliminar la necesidad del desplazamiento físico del agresor. Esta modalidad solía implicar que hombres, mayoritariamente de países occidentales, viajaran a contextos marcados por la pobreza, la desigualdad y la escasa regulación —especialmente en el Sudeste Asiático, América Latina o África— para abusar sexualmente de niños y niñas. En la actualidad, las tecnologías digitales se emplean para planificar, coordinar, visualizar e incluso facilitar estos abusos a distancia, a través de transmisiones en directo.


Esta práctica ha ganado terreno gracias a la creciente demanda de contenidos «personalizados» por parte de usuarios occidentales, que pueden acceder en tiempo real a retransmisiones de abusos. En muchos casos intervienen redes criminales que actúan como intermediarias entre familias o comunidades empobrecidas y los usuarios finales, ofreciendo servicios que incluyen la «disponibilidad a la carta» de niños y niñas para prácticas sexuales específicas durante las  transmisiones en directo.


Las agresiones se organizan en espacios controlados como domicilios o habitaciones alquiladas. Las víctimas suelen ser grabadas sin su consentimiento o conocimiento, difundiendo después las grabaciones en redes internacionales de distribución de CSAM, lo que genera un ciclo de revictimización constante.


Dinámicas de captación para la explotación sexual de la infancia y la adolescencia en entornos digitales


Actualmente, las estrategias más comunes incluyen el grooming online y la sextorsión, que por sí solas ya constituyen formas de violencia.


El grooming o ciberembaucamiento: En 2023, el Ministerio del Interior registró 525 denuncias por hechos relacionados con el grooming, lo que supone un incremento significativo respecto al año anterior (408). Sin embargo, como en otras violencias, es solo la punta del iceberg: el 33,5% de los y las jóvenes participantes en nuestra encuesta habían tenido contacto con una persona adulta con fines sexuales en el entorno digital, siendo más las chicas (35,6 %) que los chicos (26,5 %) quienes habían tenido este contacto.


Las tecnologías permiten que, para los agresores que emplean estas tácticas (groomers), el contacto con víctimas pueda ser inmediato, masivo y constante, y puede producirse a través de todos los espacios en los que la infancia y adolescencia accede de forma habitual: redes sociales, plataformas de videojuegos, canales de streaming, aplicaciones de mensajería, etc. Los agresores adaptan sus estrategias de contacto en función del perfil de la víctima. Por ejemplo, en función del género, utilizando los videojuegos online para acceder a principalmente a niños, mientras que redes como Instagram, TikTok o YouTube se usan más para contactar con niñas. En ambos casos, una vez hecho el primer contacto, se trasladan a aplicaciones de mensajería (WhatsApp, Telegram o Discord), donde hay un mayor nivel de intimidad, privacidad y riesgo.


Es frecuente que el agresor disponga de información íntima del niño o niña, así como de material que puede utilizar para exigir más contenido a través del chantaje o la extorsión. Por ello, otro factor clave para los agresores parece ser el nivel de exposición pública de los perfiles: el número de amistades o seguidores, la cantidad de información personal compartida o de imágenes o vídeos. El análisis realizado coincide con estas conclusiones: mientras que todas las víctimas de explotación sexual digital habían compartido información personal o íntima en Internet durante su infancia o adolescencia, este porcentaje se reducía al 33,8 % para el grupo de no víctimas.


Sin embargo, actualmente se perciben algunos cambios respecto al grooming  tradicional»:


- Cada vez en más casos las agresiones se dan «solamente» en el entorno digital, no pasando al físico.


- Contactos simultáneos y masivos: aunque la mayoría se comunicaban con una sola víctima, el 12,5 % mantenía conversaciones paralelas con múltiples niñas y niños. A esta capacidad de acción masiva se suma una tendencia preocupante hacia la sofisticación de las estrategias de manipulación: se detectan ataques planificados en los que los agresores, o incluso redes organizadas, recopilaban información previa sobre las víctimas, incluyendo vulnerabilidades emocionales.


- Las peticiones sexuales llegan más rápido: cada vez es más habitual que los agresores se «salten» la fase de creación de vínculo emocional y las peticiones sexuales se produzcan de forma inmediata. Frente a estas peticiones, es también cada vez más frecuente que los propios menores de edad respondan de manera inmediata, aceptando las solicitudes. Esta aceleración del proceso responde tanto a la hipersexualización en entornos digitales como a una normalización del intercambio de contenido íntimo, en una etapa donde la exploración sexual es clave. Esto los lleva a acceder a solicitudes incluso sabiendo que provienen de personas adultas, sin que sea necesario ese proceso previo de creación de confianza.


Técnicas agresivas o coercitivas: Frente al intercambio de material aparentemente voluntario que se da en el grooming, hay casos en los que los agresores recurren desde el inicio a técnicas más agresivas para obtener imágenes, como el hackeo o acceso no autorizado a dispositivos, o mediante el uso de malware, que permite activar cámaras o robar archivos sin el conocimiento de la persona usuaria. El chantaje posterior suele ocurrir en espacios digitales con comunicación en tiempo real, como Discord, chats de videojuegos o grupos privados de mensajería.


Además, se han reportado casos de adolescentes captadas mediante falsas ofertas laborales, particularmente en sectores como el modelaje o imagen de marcas, donde se solicita el envío de imágenes, que posteriormente serán utilizadas como chantaje sexual o económico.


Abuso en el entorno cercano para la producción de MASI: Los datos disponibles y las observaciones de agentes clave coinciden en que lo más habitual es que la agresión provenga del propio entorno del niño o niña víctima: familiares, cuidadores u otras figuras de referencia con acceso cotidiano y relaciones de confianza, que aprovechan su cercanía y posición de poder para victimizar al niño o niña y ejercer control sostenido. Las tecnologías digitales, como cámaras domésticas, móviles, o aplicaciones de mensajería, se convierten en herramientas para la producción y distribución del abuso.


Una característica especialmente alarmante de este fenómeno es la identificación reiterada de víctimas de edades extremadamente tempranas, incluso lactantes y niñas y niños menores de 3 años, en el MASI. Este grupo representa una franja de máxima vulnerabilidad y de mayor gravedad en el nivel de violencia y daño infligido. En estos casos, el agresor suele ser un adulto del entorno familiar directo, lo que implica situaciones de abuso sexual sostenidas en el tiempo.


Captación para la explotación en contextos transnacionales: Este modelo de explotación se articula a través de redes organizadas que operan como intermediarias a nivel local, principalmente en regiones con alta desigualdad y debilidad institucional, captando a niños, niñas y adolescentes en situaciones de extrema vulnerabilidad (pobreza, falta de protección parental, exclusión educativa) y los someten a formas de abuso a cambio de compensaciones económicas para sus familias o cuidadores.


La captación puede producirse por vía presencial a través de redes comunitarias, vecinos o incluso familiares que actúan como reclutadores, y también puede darse mediante contacto digital directo. En este segundo caso, las familias pueden ser convencidas con promesas de oportunidades, regalos o dinero, o engañadas para que crean que sus hijos o hijas van a participar en actividades legítimas, como el modelaje o entretenimiento.


El perfil de los groomers y explotadores


La mayoría son hombres: En 2023, el 93,4 % de los detenidos e investigados por delitos de grooming en 2023 España fueron hombres, según datos del Ministerio del Interior. Diversos estudios coinciden en señalar la prevalencia mayoritaria de hombres, también en el contexto nacional.


Se trata de personas jóvenes: La franja de edad más común fue de 18 a 25 años, aunque la edad media de los agresores identificados en atestados policiales se sitúa en torno a los 28 años, y se destaca que un 13,2 % eran menores de edad. En otros estudios, el perfil más común identificado es el de un hombre de nacionalidad española de unos 35 años. También se ha clasificado a los agresores en función de sus objetivos: groomers que buscan el contacto físico para agredir sexualmente a niños y niñas; los motivados exclusivamente por interacciones digitales, como la obtención de CSAM o el cibersexo; o los mixtos o duales, que combinan ambos objetivos, dependiendo de la oportunidad y el contexto.


En muchos casos no ocultan su identidad: Aproximadamente la mitad de los agresores no oculta quién es, lo que puede generar una falsa sensación de confianza o seguridad en la víctima.


No siempre son personas desconocidas: El 35 % de los casos pertenece al entorno cercano del niño, niña o adolescente. Del mismo modo, los resultados de la encuesta muestran que, si bien en los casos detectados de explotación sexual predominaban los adultos desconocidos, en un número significativo de situaciones el agresor era una persona conocida por la víctima, especialmente cuando la agresión la cometió otra persona menor de edad.


La motivación no siempre es sexual: Existen casos de grooming y extorsión con fines económicos, o en los que se combina la motivación sexual con la económica, lo que evidencia perfiles más explotadores de agresores. En esta línea, la NCMEC advertía de que la coacción y/o extorsión centrada en el beneficio económico, en lugar de la gratificación sexual, era una tendencia en crecimiento vinculada a la explotación sexual digital. Esta tendencia también se está incrementando en España.


El perfil de los consumidores de MASI


El consumo de MASI no solo constituye un delito grave y una forma de violencia contra la infancia, sino que también se ha identificado como un factor de riesgo para la comisión de agresiones sexuales físicas. En este sentido, el informe del grupo finlandés Protect Children, que a través de cuestionarios publicados en la dark web logró recoger datos de 4.549 infractores anónimos que visualizaban material ilegal en varios países, reveló que el 44 % de los encuestados que visualizaban CSAM consideró contactar con un niño o niña después de ver CSAM, y el 37 % lo hizo efectivamente.


Diversidad de perfiles: Los estudios disponibles evidencian una notable diversidad de perfiles entre los consumidores, y subrayan diferencias clave entre quienes mantienen contacto directo con niñas, niños y adolescentes y producen o difunden MASI, y entre quienes solo visualizan este material, sin haber cometido agresiones ni haberlo producido. Este segundo grupo suele mostrar una mayor disposición al tratamiento, y algunos programas experimentales han logrado reducir tanto el consumo como la gravedad del material visionado. También se ha distinguido entre quienes buscan y visualizan material ilegal de forma deliberada y quienes buscan contenido de chicas jóvenes o infantilizadas (teens) sin ser conscientes de que son menores de edad.


Motivaciones para el visionado: En el proyecto Protect Children, un tercio de los encuestados admitió que el interés sexual en menores de edad era una de las razones principales por las que buscaban CSAM, pero destaca que más del 50% afirmaron que no estaban buscando ese tipo de imágenes cuando las vieron por primera vez (aunque más tarde sí las buscasen de forma intencionada). Esta «exposición accidental» resulta particularmente preocupante, subrayada por el hecho de que más de dos tercios de los encuestados afirmaron haber visto por primera vez CSAM cuando aún eran menores de edad, el 40 % de los cuales tenía menos de 13 años. Otro motivo para la búsqueda de CSAM desde una edad temprana se relacionaba con situaciones de victimización propias: se buscaba este material para comprender mejor el propio abuso o situación de explotación vivida, a través de la visualización de material que representara esta vivencia.


Menores de edad: La exposición de menores de edad a estos contenidos resulta particularmente alarmante. En este sentido, las autoridades británicas ya están advirtiendo de un descenso significativo en la edad de los detenidos por abuso sexual digital, siendo cada vez más los adolescentes o preadolescentes identificados por el consumo de MASI.


También en relación a la producción de CSAM, agentes clave señalan una preocupación creciente por la documentación de casos en los que otros menores de edad, incluso hermanos o amigos cercanos, participan activamente en la producción de este material. Los medios utilizados pueden incluir coacciones, amenazas o presiones para forzar la creación de imágenes o vídeos, así como la difusión no consentida de imágenes íntimas previamente compartidas (sexting sin consentimiento). También se han registrado casos en los que se graban y comparten sin permiso actos sexuales entre iguales, o incluso agresiones sexuales directas que son registradas en formato audiovisual. Estas dinámicas suelen combinar violencia, exposición digital y falta de conciencia sobre la magnitud del daño provocado.


¿Puede influir el consumo de pornografía?


La relación entre la pornografía y las diferentes formas de abuso y explotación sexual todavía es controvertida. Sin embargo, diversas investigaciones y agentes clave señalan hacia el consumo de pornografía como un elemento a considerar para el abordaje de la visualización de CSAM, especialmente el consumo temprano y/o de contenido violento.


El citado artículo de The Guardian recoge que algunos hombres detenidos por la posesión o visualización de CSAM, señalan una trayectoria hacia este material a través del consumo abusivo de la pornografía «legal» y la escalada de contenidos cada vez más extremos, facilitado por las recomendaciones y algoritmos de las páginas pornográficas.


Algunos trabajos han proporcionado evidencias que respaldan que una exposición temprana a la pornografía adulta puede ir desensibilizando y contribuir a una progresión hacia contenidos cada vez más extremos e incluso ilegales. En esta línea, en el proyecto Protect Children, el uso intensivo de pornografía se describe como uno de los «factores facilitadores»: reveló cómo algunas personas comenzaron viendo pornografía legal para adultos a una edad temprana, y con el tiempo empezaron a consumir material cada vez más extremo a medida que se desensibilizaban al contenido. Por otro lado, también se ha evidenciado que quienes acceden a CSAM tienden a visualizar pornografía adulta con mayor frecuencia, y a consumir contenidos más violentos, extremos o ilegales que quienes no lo hacen.


Expertos del ámbito de la protección de la infancia advierten que la disponibilidad masiva de pornografía violenta que cada vez más rompe con tabúes sociales que tradicionalmente protegían a la infancia, podría estar contribuyendo a la desensibilización y escalada en algunos consumidores. En un informe previo, ya se vio cómo el consumo de pornografía influye en la construcción del deseo sexual y las prácticas sexuales de los y las adolescentes, una influencia que los propios chicos y chicas reconocían, y cómo este consumo podía influir también en la percepción de la violencia, las desigualdades y las prácticas de riesgo en las relaciones sexuales.


Programas de intervención para consumidores de CSAM


Existen programas pioneros de actuación y atención directa destinados a consumidores de CSAM que no han cometido agresiones sexuales, que están arrojando resultados positivos. Por ejemplo, el proyecto europeo STOP-CSAM,68 financiado por la Comisión Europea, ofrece terapia anónima online a consumidores de CSAM, con el objetivo de prevenir la violencia sexual contra la infancia y la adolescencia. Entre 2023 y 2024, más de 2.000 personas fueron evaluadas y unas 400 participaron en sesiones terapéuticas a través de medios digitales. Los resultados son prometedores: el 80 % de los participantes redujo el consumo o la gravedad del contenido visualizado, y más del 50 % dejó de consumirlo por completo. La mayoría eran hombres jóvenes entre 18 y 30 años, con estudios superiores. El equipo implicado en este proyecto pionero señala que el acceso a un recurso de atención terapéutica anónima actúa como elemento motivador para personas que consumen y buscan ayuda sin haber sido detectados.


A nivel nacional, se lleva a cabo el programa «Fuera de la Red»,69 que consiste en tratamiento terapéutico específico, en el ámbito de las penas y medidas alternativas, para personas condenadas por delitos de posesión o difusión CSAM en el entorno digital, que persigue disminuir el riesgo de reincidencia.


 Lee el informe completo desde aquí en euskera, en castellano o en catalán.


Redes marinas en un puerto

 
 
 

Comentarios


bottom of page