country flag

En breve: Detección voluntaria por parte de las plataformas en línea

Introducción al problema y posición del NCMEC

¿Qué es?

Las plataformas en línea tienen intereses comerciales, independientes de cualquier mandato gubernamental o reglamentario, y los medios tecnológicos para filtrar o moderar el contenido en sus servicios y hacer cumplir las condiciones de servicio. No obstante, en algunas jurisdicciones, las leyes o reglamentaciones pueden restringir o prohibir, como medio de promover la privacidad de los usuarios, estos esfuerzos voluntarios de filtrar el contenido en línea.

Posición del NCMEC:

Los gobiernos deberían permitir que las plataformas en línea usen distintas estrategias para detectar, prevenir, interrumpir y denunciar, según corresponda, todo tipo de explotación sexual infantil en línea incluso como una excepción a prohibiciones más amplias o generales al filtrado de contenido.

¿Por qué importa?

Las plataformas en línea anualmente denuncian a CyberTipline decenas de millones de incidentes de explotación sexual infantil en línea, la mayoría descubiertos proactiva y voluntariamente. Cuando las leyes o reglamentaciones sobre privacidad de los usuarios impiden a las plataformas en línea filtrar voluntariamente el contenido en búsqueda de CSAM u otro tipo de explotación sexual infantil, los menores victimizados mediante dicho contenido siguen en riesgo de perjuicios continuos y, a menudo, más graves porque su victimización no se detecta ni se denuncia.

Las excepciones que permiten a las plataformas en línea detectar voluntariamente el CSAM y otras formas de explotación sexual infantil en línea crean oportunidades para detectar, denunciar e interrumpir los delitos contra menores de manera que sea posible recuperarles del abuso y salvaguardarles.

¿Qué contexto es relevante?

Mediante legislación y reglamentación, los gobiernos pueden imponer una variedad de requisitos y prohibiciones a las plataformas en línea. En un extremo, algunas jurisdicciones pueden solicitar censurar el contenido en línea relacionado con una gama de temas políticos y sociales con oposición de quienes promueven la libertad de expresión. En el otro extremo, las políticas proprivacidad que no están equilibradas con consideraciones de seguridad infantil pueden llevar a jurisdicciones a prohibir a las plataformas en línea moderar el contenido, con oposición de quienes están preocupados acerca de las formas de «desinformación» o la seguridad de los menores.

Cuando las prohibiciones a la moderación en línea colocan a los menores en riesgo, se han promovido soluciones que permiten a las plataformas en línea mantener los esfuerzos de detección voluntaria mediante tecnologías probadas como hashing criptográfico y perceptual y clasificadores de imágenes para detectar, eliminar y denunciar sospechas de CSAM.

A finales de 2020, NCMEC lideró un esfuerzo de promoción internacional para abordar el cambio legislativo pendiente en aquel momento en la Unión Europea (UE) que prohibiría a las plataformas en línea realizar el tipo de filtrado y moderación de contenido habitual que permitió la presentación de millones de denuncias a CyberTipline ese año. NCMEC y otras partes interesadas solicitaron a la UE implementar una solución antes de que entrara en vigencia la prohibición, pero los legisladores europeos no adoptaron una solución antes de la entrada en vigor. La prohibición estuvo vigente durante varios meses lo que ocasionó un impacto negativo en la detección y denuncia de CSAM en línea relacionadas con usuarios de la UE.

Los legisladores de la UE implementaron una solución eventual, denominada «derogación», que permitió a las plataformas en línea detectar CSAM voluntariamente. Sin embargo, esto se sancionó solo como una solución temporaria que se ha extendido a abril de 2026 mientras los legisladores negocian una solución permanente.

¿Qué revelan los datos?

La Comisión Europea ha observado que su evaluación del impacto de la derogación se ha complicado por las denuncias incoherentes por parte de las plataformas en línea relacionadas con sus esfuerzos voluntarios para detectar el CSAM.

NCMEC realizó una evaluación de 18 semanas inmediatamente después de la sanción en diciembre de 2020 de las cláusulas que prohibían la detección voluntaria y observó una reducción de 58 % en las denuncias a CyberTipline relacionadas con la UE. En 2021, esa tendencia continuó, incluso cuando la derogación temporaria eventualmente se implementó el 2 de agosto de 2021. Para finales de 2021, a medida que el volumen de denuncias a CyberTipline aumentó en general un 35 %, las denuncias de la UE se redujeron un 47 %. Con el aumento del 30 % del total de archivos denunciados a CyberTipline, los archivos incluidos en denuncias relacionadas con la UE disminuyó un 58 %. La participación de la UE en las denuncias a CyberTipline cayó de casi el 5 % en 2020 a menos del 2 % en 2021.

¿Qué dicen los sobrevivientes?

Los sobrevivientes reconocen la importancia de la privacidad, pero observan que quienes promueven la privacidad en línea normalmente dan prioridad a los intereses de privacidad de los usuarios de plataformas sobre los intereses de privacidad de los menores, en especial las víctimas de CSAM, que pueden no ser usuarios de la plataforma.

Algunos sobrevivientes, que han padecido perjuicios facilitados por plataformas en línea, se sienten en conflicto, no desean que los gobiernos prohíban la detección voluntaria de CSAM pero tampoco confían en que las plataformas en línea implementen efectivamente estrategias de detección y denuncia.

Opening Quote

Garantizar que las empresas tecnológicas puedan monitorizar sus propios sitios en búsqueda de CSAM es una estrategia esencial de prevención del material de abuso sexual infantil. Las agencias de promoción y las empresas de tecnología deben ser capaces de colaborar para identificar las estrategias existentes y las tendencias emergentes de los delincuentes que distribuyen CSAM en línea.

- Sobreviviente

¿Que impulsa los puntos de vista de oposición?

Quienes se oponen a la detección voluntaria de CSAM por parte de las plataformas en línea tienden a ser sólidos promotores de la privacidad de los usuarios. Cuestionan la eficacia de las tecnologías usadas para la detección, impugnan la precisión de las tasas de algunas personas y organizaciones, plantean preocupaciones de que la tecnología de detección pueda usarse para censurar contenido no relacionado con explotación sexual infantil y señalan que las falsas acusaciones presentadas contra partes inocentes son resultado de lo que afirman son estrategias de detección poco fiables.