country flag

En breve: Medidas mínimas de seguridad para los menores en las plataformas en línea

Introducción al problema y posición del NCMEC

¿Qué es?

Algunas soluciones tecnológicas relacionadas con la detección de CSAM han sido efectivas y una adopción más amplia de estas soluciones crearía un conjunto de medidas mínimas que las plataformas en línea implementen como parte de sus esfuerzos por contrarrestar los delitos de CSAM en línea.

Posición del NCMEC:

Los servicios que permiten el almacenamiento, transmisión o creación electrónica de imágenes y/o vídeos, incluidos los servicios de IA generativa y de transmisión en vivo, deberían usar hashing criptográfico, hashing perceptual y/o clasificadores de imágenes para prevenir, detectar, interrumpir y denunciar CSAM según corresponda.

¿Por qué importa?

La innovación tecnológica ha creado oportunidades para mejorar la seguridad en línea al incorporar herramientas para detectar mejor el CSAM y facilitar las denuncias de incidentes de explotación sexual infantil en línea. El uso de dichas tecnologías es voluntario y la implementación en las plataformas en línea varía ampliamente. La adopción más generalizada y coherente de tecnologías y estrategias de detección de CSAM ayudaría a contrarrestar su proliferación, mejorar la identificación de delincuentes y víctimas y facilitar denuncias más sólidas relacionadas con la distribución de CSAM. Estos resultados protegerían mejor tanto a los sobrevivientes revictimizados cuando el CSAM que les representa recircula en línea y a las víctimas cuyo abuso aún no se ha descubierto.

¿Qué contexto es relevante?

Hashing criptográfico es un proceso que usa un algoritmo matemático para crear una cadena de caracteres de longitud fija (que puede variar en función del algoritmo usado) con base en el contenido de una imagen o vídeo. La cadena, denominada hash o valor hash, puede compararse con otros hashes o valores hash para determinar si dos archivos son idénticos (como imágenes o vídeos duplicados). Hay distintos tipos de algoritmo de hash criptográfico, incluidos MD5, SHA-1 y SHA-256, que las organizaciones de protección de menores en línea usan comúnmente.

Hashing perceptual es un proceso que usa un algoritmo matemático para evaluar la similitud de distintas imágenes o vídeos con base en las características perceptuales de una imagen o vídeo (la apariencia para un observador humano). Un algoritmo de hash perceptual generará valores de hash similares para imágenes visualmente similares (aunque no idénticas), incluso si las imágenes no son idénticas. PhotoDNA es un algoritmo de hash perceptual ampliamente conocido y usado con fines de detección de CSAM; otros incluyen PDQ y pHash.

Los clasificadores de imágenes son aplicaciones de inteligencia artificial capaces de reconocer objetos en una imagen o vídeo. Los clasificadores pueden implementarse de distintas maneras para examinar instantáneas, vídeos grabados o en vivo e incluso actividad en vivo (como una cámara capaz de detectar sonrisas para poder tomar la mejor fotografía grupal). Esta tecnología se ha adoptado rápidamente para distintos fines de consumo, incluida la detección de sonrisas en cámaras digitales, búsqueda visual de tiendas en línea y concienciación del entorno en automóviles que se conducen solos. Los clasificadores de imágenes entrenados especialmente son útiles para detectar CSAM sospechoso que evade el hashing criptográfico o perceptual (comúnmente porque no ha sido previamente detectado, confirmado ni añadido a las bases de datos de hash correspondientes). De esta manera, la clasificación de imágenes es excepcionalmente capaz de detectar CSAM producido recientemente o que no ha circulado ampliamente.

Para contrarrestar la difusión de CSAM, algunas de las plataformas en línea más grandes del mundo han desarrollado e implementado herramientas de hashing y clasificación. Microsoft codesarrolló PhotoDNA y lo pone a disposición de organizaciones calificadas. El clasificador Content Safety API y CSAI Match de Google (que puede detectar imágenes de CSAM conocidas previamente «entre un gran volumen de contenido de vídeo no infractor») están disponibles para determinados socios. Meta desarrolló PDQ y su equivalente para vídeo TMK+PDQF y los lanzó como proyectos de código abierto.

No todas las empresas usan estos recursos ni otros similares, incluso las empresas que han desarrollado herramientas internamente. Apple desarrolló NeuralHash, un algoritmo de hash perceptual pero abandonó los planes de implementación debido a la resistencia de los críticos.

NCMEC aloja distintas iniciativas diferentes para compartir hashes que facilitan compartir voluntariamente los valores de hash de CSAM sospechoso por parte de líneas de denuncias, plataformas en línea y entre las plataformas en línea mismas. Project Lantern, el programa para compartir señales de Tech Coalition, también permite compartir valores de hash de CSAM y otras señales entre los participantes del programa.

En algunas jurisdicciones, los organismos legislativos y de aplicación están evaluando requisitos neutros en tecnología para que las plataformas en línea detecten, denuncien y eliminen CSAM, centrados en los resultados y dejando que las plataformas en línea decidan cómo lograrlos. Esta estrategia apunta a garantizar que independientemente de las leyes y reglamentaciones relevantes que se implementen, continúen aplicables a medida que se desarrollen nuevas tecnologías en el futuro y las existentes queden obsoletas.

El hashing criptográfico, el hashing perceptual y la clasificación de imágenes han probado ser medidas efectivas para contrarrestar la distribución de CSAM. NCMEC respalda la innovación continua para desarrollar otras soluciones tecnológicas e insta una adopción e implementación más generalizadas de estas herramientas como medidas mínimas que adopten las plataformas en línea como parte de sus esfuerzos para contrarrestar la explotación sexual infantil basada en imágenes.

Como con cualquier otro tipo de tecnología, ninguna solución única es perfecta. A pesar de que las herramientas de hashing y clasificación permiten a las plataformas en línea detectar, interrumpir y denunciar el CSAM sospechoso a escala, la revisión humana en cierto nivel sigue siendo una consideración importante para las plataformas en línea y los organismos de seguridad.

¿Qué revelan los datos?

Gracias al uso de estas tecnologías, las plataformas en línea que usan hashing y clasificadores de imágenes denuncian decenas de millones de imágenes y vídeos de CSAM sospechoso a CyberTipline de NCMEC cada año. Típicamente, las plataformas en línea no divulgan en sus informes de transparencia cuántas imágenes y vídeos de CSAM detecta cada tipo de tecnología.

Google ha calculado que aproximadamente el 90 % de las imágenes que denuncia a CyberTipline son conocidas o han sido confirmadas (mediante hashing) como CSAM. En su informe de transparencia, Meta, que opera Facebook, Instagram y otros servicios, ha divulgado que entre el 90 % y el 99 % del contenido infractor que «interviene» (elimina, restringe, etc.) por motivos de perjuicio a menores relacionado con desnudez y explotación sexual de menores se detectó e intervino antes de que otros usuarios lo denunciaran. En ausencia de una divulgación detallada acerca de cuántas imágenes y vídeos se han detectado mediante hashing, clasificadores y otros métodos, el volumen de imágenes sugiere que los sistemas automatizados participan significativamente en este trabajo.

Tech Coalition, en su primer informe de Lantern Transparency, divulgó que las empresas participantes compartieron casi 300 000 hashes a diciembre de 2023 que representan aproximadamente el 40 % de las señales compartidas mediante dicho proyecto.

¿Qué dicen los sobrevivientes?

Los sobrevivientes han expresado su frustración frente al hecho de que algunas plataformas en línea no usan tecnologías que han probado ser efectivas para ayudar a detectar, interrumpir y denunciar la distribución de CSAM. A falta de requisitos legales o reglamentarios universales, los sobrevivientes apelan a la responsabilidad moral, social, ética y comercial de las empresas para promover normas mínimas para combatir el CSAM en sus plataformas.

Opening Quote

El sector tecnológico debería utilizar herramientas de tecnología probadas siempre que exista la capacidad de crear, difundir y/o almacenar imágenes de abuso sexual infantil. Usar tecnología eficaz y disponible para priorizar las vidas y la seguridad de las víctimas infantiles es una decisión que todas las empresas tecnológicas deberían desear implementar en sus servicios.

- Sobreviviente

¿Que impulsa los puntos de vista de oposición?

La oposición al uso de tecnología de hashing y clasificación de imágenes por parte de las plataformas en línea como medidas mínimas de protección de menores tiene múltiples perspectivas. Quienes promueven la privacidad pueden estar preocupados acerca de las prácticas que someten el contenido en línea a filtrado, incluso si los métodos no divulgan información acerca del contenido legal. Parte de la oposición también surge de la creencia de que los intereses de privacidad de los usuarios superan los beneficios de seguridad de las herramientas tecnológicas, incluso las que se ha probado que protegen a los menores de la explotación sexual o victimización. Algunos críticos argumentan que estas tecnologías son imperfectas y podrían producir falsos positivos o que las listas de hash o datos de entrenamiento de estas herramientas podrían comprometerse, accidental o intencionalmente, para detectar y bloquear contenido distinto de CSAM. Los costes financieros de la implementación de estas soluciones sin un claro beneficio financiero podrían ser la razón por la cual algunas empresas se resisten a la adopción. Algunos también pueden sugerir que definir estándares mínimos específicos desincentiva la innovación relacionada con medidas alternativas para combatir la explotación sexual infantil en línea.