Qu'est-ce que c'est ?
Les plateformes en ligne ont à la fois des intérêts commerciaux — indépendamment de tout mandat gouvernemental ou réglementaire — et les moyens technologiques de filtrer ou de modérer le contenu sur leurs services afin de faire respecter leurs conditions d'utilisation. Toutefois, dans certaines juridictions, des lois ou des réglementations peuvent restreindre ou interdire, dans le but de promouvoir la vie privée des utilisateurs, ces efforts volontaires de filtrage du contenu en ligne.
Position du NCMEC :
Les gouvernements devraient autoriser les plateformes en ligne à utiliser diverses stratégies pour détecter, prévenir, déstabiliser et signaler, le cas échéant, tous les types d'exploitation sexuelle d'enfants en ligne, même s'il s'agit d'une exception à des interdictions plus larges ou plus générales sur le filtrage du contenu.
Pourquoi est-ce important ?
Les plateformes en ligne signalent chaque année à la CyberTipline des dizaines de millions d'incidents d'exploitation sexuelle d'enfants en ligne, qu'elles découvrent pour la plupart de manière proactive et volontaire. Lorsque les lois ou réglementations relatives à la protection de la vie privée des utilisateurs empêchent les plateformes en ligne de filtrer volontairement les contenus pour détecter le CSAM ou d'autres formes d'exploitation sexuelle des enfants, les enfants victimes de ces contenus risquent de continuer à subir des préjudices qui s'aggravent souvent parce qu'ils ne sont pas détectés et signalés.
Les exceptions qui permettent aux plateformes en ligne de détecter volontairement le CSAM et d'autres formes d'exploitation sexuelle d'enfants en ligne créent des opportunités de détection, de signalement et d'interruption des crimes contre les enfants afin qu'ils ne subissent plus ces abus et qu'ils soient protégés.
Quel contexte est pertinent ?
Par le biais de la législation et de la réglementation, les gouvernements peuvent imposer une variété d'exigences et d'interdictions aux plateformes en ligne. D'un côté, certaines juridictions peuvent chercher à censurer fortement le contenu en ligne relatif à une série de questions politiques et sociétales, suscitant l'opposition des défenseurs de la liberté d'expression. À l'opposé, des politiques favorables à la protection de la vie privée qui ne sont pas assorties de considérations relatives à la sécurité des enfants peuvent conduire les juridictions à interdire aux plateformes en ligne de modérer tout contenu, suscitant l'opposition de ceux qui s'inquiètent des formes de « désinformation » ou de la sécurité des enfants.
Lorsque les interdictions de modération en ligne mettent les enfants en danger, les défenseurs ont promu des solutions qui permettent aux plateformes en ligne de maintenir les efforts de détection volontaires en utilisant des technologies éprouvées telles que le hachage cryptographique et perceptuel et les classificateurs d'images pour détecter, supprimer et signaler le CSAM présumé.
À la fin de l'année 2020, le NCMEC a mené une action de sensibilisation internationale pour faire face à un changement législatif alors en suspens dans l'Union européenne (UE) qui devait interdire aux plateformes en ligne de procéder au type habituel de filtrage et de modération des contenus. Cette action a conduit à l'envoi de millions de signalements à la CyberTipline chaque année. Le NCMEC et d'autres parties prenantes ont demandé à l'UE de mettre en œuvre une solution avant que l'interdiction n'entre en vigueur, mais les législateurs de l'UE n'ont pas adopté de solution avant que l'interdiction n'entre en vigueur. L'interdiction est restée en vigueur pendant plusieurs mois, ce qui a eu un impact négatif sur la détection et le signalement de CSAM en ligne concernant les utilisateurs de l'UE.
Une solution a finalement été mise en œuvre par les législateurs de l'UE — connue sous le nom de « dérogation » — qui a permis aux plateformes en ligne de détecter volontairement le CSAM. Toutefois, cette mesure n'a été adoptée qu'à titre temporaire et a été étendue jusqu'en avril 2026, le temps que les législateurs négocient une solution permanente.
Que révèlent les données ?
La Commission européenne a noté que son évaluation de l'impact de la dérogation a été compliquée par l'incohérence des signalements des plateformes en ligne concernant leurs efforts volontaires pour détecter le CSAM.
Le NCMEC a mené une évaluation 18 semaines immédiatement après la promulgation en décembre 2020 des dispositions interdisant la détection volontaire et a observé une diminution de 58 % des signalements auprès de la CyberTipline liés à l'UE. Tout au long de l'année 2021, cette tendance s'est poursuivie, même si la dérogation temporaire a finalement été mise en œuvre le 2 août 2021. À la fin de l'année 2021, alors que le volume global des signalements auprès de la CyberTipline a augmenté de 35 %, les rapports concernant l'UE ont diminué de 47 %. Alors que le nombre total de fichiers transmis à la CyberTipline a augmenté de 30 %, le nombre de fichiers contenus dans les rapports relatifs à l'UE a diminué de 58 %. La part de l'UE dans l'ensemble des rapports de la CyberTipline est passée de près de 5 % en 2020 à moins de 2 % en 2021.
Qu'en ont dit les survivants ?
Les survivants reconnaissent l'importance de la protection de la vie privée, mais ils notent que les défenseurs de la vie privée en ligne donnent généralement la priorité aux intérêts de la vie privée des utilisateurs de la plateforme plutôt qu'à ceux des enfants, en particulier des victimes de CSAM, qui peuvent eux-mêmes ne pas être des utilisateurs de la plateforme.
Certains survivants ayant subi des préjudices rendus possibles par les plateformes en ligne, se sentent en conflit, ne voulant pas que les gouvernements interdisent la détection volontaire des CSAM, mais ne faisant pas non plus confiance aux plateformes en ligne pour mettre en œuvre des stratégies de détection et de signalement de manière efficace.
![]()
S’assurer que les sociétés technologiques peuvent surveiller leurs propres sites pour détecter le CSAM est une stratégie essentielle de prévention des abus sexuels d'enfants. Les organismes de défense et les sociétés technologiques doivent pouvoir collaborer pour identifier les stratégies existantes des auteurs et les nouvelles tendances en matière de diffusion de CSAM en ligne.
- Un(e) survivant(e)
Sur quoi s'appuient les points de vue opposés ?
Les opposants à la détection volontaire de CSAM par les plateformes en ligne sont généralement de fervents défenseurs de la vie privée des utilisateurs. Ils remettent en question l'efficacité des technologies utilisées pour la détection, contestent les taux de précision revendiqués par certaines personnes et organisations, s'inquiètent du fait que la technologie de détection puisse être utilisée pour censurer des contenus sans rapport avec l'exploitation sexuelle des enfants, et soulignent que de fausses accusations sont portées contre des parties innocentes en raison de ce qu'ils considèrent comme des stratégies de détection peu fiables.