¿Qué es?
Contenido de explotación hace referencia a imágenes que no pueden ser consideradas material de abuso sexual infantil (CSAM) ilegal pero que de igual manera infringe la privacidad de los menores representados y/o se usan para explotación sexual.
Posición del NCMEC:
Las plataformas que moderan el contenido (además de eliminar el CSAM evidentemente ilegal) deberían dar prioridad a la protección de los menores al restringir la distribución de imágenes legales que infringen la privacidad de los menores.
¿Por qué importa?
Las leyes penales de todo el mundo prohíben la creación, posesión y distribución de imágenes que representan claramente el abuso y explotación sexual de menores. Sin embargo, otros tipos de contenido que no están sujetos a estas leyes pueden usarse para explotación sexual. Cuando se infringen la privacidad y dignidad de los menores –o se promueve la actividad delictiva– mediante dichas imágenes, se compromete la seguridad de los menores y se les puede perjudicar.
¿Qué contexto es relevante?
Las imágenes consideradas de explotación sexual pero que no son ilegales pueden provenir de una gran variedad de fuentes, pero los delincuentes usan dicho material con fines sexuales. Incluso las imágenes y los vídeos creados sin intención maliciosa pueden ocasionar perjuicios.
Tal vez las imágenes más perjudiciales de este tipo son imágenes no explícitas asociadas con «series» de CSAM conocidas y documentadas. Estas imágenes y vídeos –que representan a un menor que se sabe ha sido abusado y explotado sexualmente mediante la creación de CSAM– no son sexualmente explícitas en sí mismas. Pueden mostrar el rostro identificable de un menor, marcas distintas y/o ropa consistente con lo que se ve en el CSAM asociado. También pueden mostrar las mismas ubicaciones y otros elementos presentes en el CSAM asociado. Los delincuentes distribuyen estas imágenes no explícitas para facilitar la comunicación con otros delincuentes –como intereses específicos o el CSAM específico de un menor disponible para distribución– sin someter a quien las distribuye o posee a las consecuencias de compartir abiertamente el CSAM asociado. La distribución de tales imágenes y vídeos también puede ejercer una influencia coercitiva o control sobre los sobrevivientes.
Algunas imágenes de menores están creadas con fines de explotación sexual aunque el contenido no supere los umbrales para convertirse en delito. A veces promocionadas como simple «modelaje de menores», estas imágenes pueden sexualizar a los menores con ropa, poses o utilería provocativa.
Otros tipos de imagen con orígenes completamente inocentes también pueden usarse para explotación sexual. Delincuentes con motivaciones sexuales pueden apoderarse de las fotografías y vídeos creados por los padres, o por los niños mismos, para documentar actividades sociales, logros atléticos o incluso la vida diaria y usarlas con fines maliciosos, de la misma manera que se usa el CSAM. No es infrecuente que los organismos de seguridad encuentren, entre las colecciones de CSAM claramente ilegal incautadas a los delincuentes, imágenes creadas originalmente con fines inocentes. Estas pueden incluir representaciones de niños vestidos de manera físicamente reveladora o con vestimenta deportiva muy ceñida, como trajes de baño o mallas para danzas o gimnasia y otras imágenes que los delincuentes pueden sexualizar. A pesar de que este contenido no es sexual, muchos delincuentes pueden recopilar, compartir o usar de otra manera dichas imágenes con intenciones de explotación sexual, como buscar gratificación sexual al ver las imágenes.
Los padres que rutinariamente comparten información personal e imágenes de sus niños en las redes sociales han sido criticados por «sharenting» que, según un estudio en Turquía en 2023, puede contribuir al abuso infantil. Se ha sugerido a los pediatras en Argentina abordar los perjuicios del «sharenting» –incluida la posibilidad de que las imágenes de menores compartidas públicamente puedan terminar en sitios y foros de CSAM– con los padres y niños en las consultas médicas.
En 2018, Child Rescue Coalition (una organización no gubernamental con base en Estados Unidos) lanzó una campaña de concienciación y prevención con la cuenta @KidsForPrivacy de Instagram para interrumpir la «sobrexposición» de menores mediante la distribución de imágenes legales que pueden infringir la privacidad de los menores.
Muchas plataformas de tecnología, en especial las redes sociales y los servicios de relaciones sociales, ya usan una variedad de estrategias de moderación de contenido para detectar, eliminar y denunciar el contenido ilegal, incluido el CSAM. Es posible realizar esfuerzos similares para restringir la distribución de imágenes legales que amenazan la privacidad y seguridad de los menores y contribuyen a la explotación sexual infantil. Estas medidas pueden no ocasionar una prohibición de dichas imágenes, aunque las plataformas típicamente tienen el derecho a determinar dichos límites. Es posible lograr restricciones importantes al:
- Interrumpir la difusión viral de imágenes que pueden ser legales pero usarse para explotación sexual;
- Mostrar una advertencia u orientación a los usuarios que publican imágenes que parecen representar niños en situaciones comprometedoras;
- Limiting the visibility of content posted by young users to prevent public/unrestricted access;
- Añadir protecciones contra la redistribución dentro de la plataforma de contenido dentro de los grupos privados creados para comunicación familiar y/o
- Usar hashing criptográfico o perceptual para detectar y eliminar imágenes no explícitas asociadas con series de CSAM conocidas.
En respuesta a las denuncias de material legal pero explotador sexualmente y textos predatorios –como comentarios sexuales o información personal acerca de una víctima infantil identificada– NCMEC envía rutinariamente avisos a las plataformas en línea. Debido a que este material es generalmente no ilegal, las plataformas en línea usan discreción sobre cómo responder a los avisos de NCMEC o si hacerlo.
NCMEC también comparte hashes de material legal pero explotador sexualmente mediante su iniciativa Exploitative Hash-Sharing Initiative. Los hashes que añade NCMEC a esta lista derivan únicamente de imágenes y vídeos denunciados por las plataformas en línea a CyberTipline de NCMEC. Estos hashes se ponen a disposición de las plataformas en línea participantes para usarlos en la detección de material de explotación y eliminarlo de sus plataformas.
El servicio «Take it Down» de NCMEC, disponible en más de 30 idiomas, puede ayudar a las personas que (1) tenían menos de 18 años cuando se tomaron imágenes o vídeos de ellas desnudas, parcialmente desnudas o en situaciones sexualmente explícitas y (2) creen que las imágenes han sido compartidas o se compartirán en línea. Más de diez plataformas en línea, incluidos algunos de los servicios más populares comúnmente usados, participan de Take it Down.
Las plataformas en línea tienen intereses comerciales legítimos para tomar medidas para promover sus servicios como seguros para los menores y hostiles a las conductas de explotación sexual. Cuando sea legal hacerlo, las empresas pueden tomar iniciativas voluntarias para restringir la distribución de contenido de explotación sexual sin necesidad de órdenes legales o gubernamentales.
¿Qué revelan los datos?
En 2023, NCMEC envió más de 6000 avisos acerca de material de explotación (imágenes y vídeos asociados con CSAM conocido) y texto predatorio a las plataformas en línea, que demoraron en eliminar el contenido denunciado aproximadamente cuatro días, en promedio. Notablemente, casi 140 avisos de ambos tipos no recibieron respuesta de las plataformas notificadas.
En 2024, el número de hashes que NCMEC contribuyó a Exploitative Hash-Sharing Initiative superó
315 000; 18 ESP han decidido voluntariamente acceder a la lista.
¿Qué dicen los sobrevivientes?
Los sobrevivientes reconocen la tensión inherente a este tema que implica la apropiación maliciosa de imágenes inocentes y la precaución contra los enfoques que puedan interpretarse como «culpar a la víctima». Los menores, padres y otras personas deberían tener el derecho de vivir y documentar sus vidas sin prohibiciones a la libertad de expresión. Sin embargo, las plataformas en línea –que están en el negocio de la innovación tecnológica– deberían usar su experiencia y recursos para hacer que las interacciones en línea de los usuarios sean más seguras en sus plataformas al mitigar el riesgo de determinadas conductas predatorias.
Algunos sobrevivientes coinciden en que las empresas que venden o comercializan ropa interior, trajes de baño o mallas para niños no deberían usar niños como modelo para hacerlo, por el riesgo de que dichas imágenes legítimas puedan usarse para explotación. Otros comentan que algunas plataformas o aplicaciones –como las que se usan para administrar exámenes académicos– pueden prohibir (o al menos obstaculizar) los esfuerzos para descargar, guardar o usar las funciones de captura de pantalla del contenido mostrado y sugieren que se adopten estrategias similares para proteger la redistribución rápida de determinadas imágenes.
![]()
Todos compartimos la obligación de proteger a los menores de los peligros. Lamentablemente, hay quienes usan infamemente las imágenes de niños en distintos estados de desnudez en su propio beneficio. Debemos tomar conciencia de la creación y distribución de tales imágenes, incluso si la intención es inocente.
- Sobreviviente
¿Que impulsa los puntos de vista de oposición?
Además de los delincuentes que poseen y distribuyen maliciosamente imágenes y vídeos, hay dos perspectivas clave que podrían oponerse a las demandas de que las plataformas en línea restrinjan la distribución de imágenes que puedan infringir la privacidad de los menores.
Las plataformas en línea mismas pueden estar preocupadas por el impacto en la experiencia de los usuarios y la pérdida potencial de usuarios a otras plataformas sin restricciones. Además, el desarrollo y adopción de cualquier nueva función pueden conllevar un coste financiero y las empresas pueden preferir invertir los recursos en otros aspectos de sus empresas. También puede haber preocupación acerca de la fiabilidad de las tecnologías de cálculo de edad que se usan para distinguir las imágenes que representan adultos de las que representan niños.
Quienes proponen la libertad de expresión ilimitada pueden considerar que dichas restricciones infringen los derechos de los usuarios de participar en conductas legales cuando las imágenes en cuestión no se clasifican comúnmente como ilegales. Algunos padres o niños motivados en generar una audiencia en línea –ya sea por ganancia personal o comercial– podrían obstaculizar acciones que impiden la «viralización» del contenido de redes sociales o que este se distribuya ampliamente.