Qu'est-ce que c'est ?
Le terme « contenu d'exploitation » fait référence aux images qui ne sont pas nécessairement considérées comme du matériel d'abus sexuel d'enfants (CSAM) illégal, mais qui portent néanmoins atteinte à la vie privée des enfants représentés et/ou qui sont utilisées à des fins d'exploitation sexuelle.
Position du NCMEC :
Les plateformes qui modèrent le contenu (au-delà du retrait du CSAM manifestement illégal) devraient donner la priorité à la protection des enfants en limitant la diffusion d'images légales qui violent la vie privée des enfants.
Pourquoi est-ce important ?
Les lois pénales du monde entier interdisent la création, la possession et la diffusion d'images représentant clairement l'abus sexuel d'enfants et leur exploitation. Toutefois, d'autres types de contenus non soumis à ces lois peuvent être utilisés à des fins d'exploitation sexuelle. Lorsque la vie privée et la dignité des enfants sont violées, ou lorsque des activités criminelles sont encouragées par le biais de telles images, la sécurité des enfants est compromise et ils risquent de subir des préjudices.
Quel contexte est pertinent ?
Les images considérées comme relevant de l'exploitation sexuelle mais non illégales peuvent provenir de sources très diverses, mais les criminels les utilisent à des fins sexuelles. Même des images ou des vidéos créées sans intention malveillante peuvent causer préjudice.
Les images non explicites associées à des « séries » connues et documentées de CSAM constituent peut-être le type d'images le plus préjudiciable. Ces images et vidéos, qui représentent un enfant dont on sait qu'il a été abusé et exploité sexuellement par le biais de la création de CSAM, ne sont pas en elles-mêmes sexuellement explicites. Elles peuvent montrer le visage d'un enfant identifiable ainsi que des signes distinctifs et/ou des vêtements correspondant à ce qui est visible dans le CSAM associé. Elles peuvent également représenter les mêmes lieux et d'autres éléments présents dans le CSAM associé. Les criminels font circuler ces images non explicites pour faciliter la communication avec d'autres criminels, tels que des intérêts spécifiques ou le CSAM spécifique de cet enfant qui est disponible pour la distribution, sans soumettre le distributeur ou le possesseur aux conséquences qui pourraient découler du partage ouvert du CSAM associé. La diffusion de ces images et vidéos peut également être un moyen d'exercer une influence coercitive ou un contrôle sur les survivants.
Certaines images d'enfants sont créées dans un but d'exploitation sexuelle, bien que leur contenu ne franchisse pas les seuils de la légalité. Souvent présentées comme de simples « modèles d'enfants », ces images peuvent sexualiser les enfants à travers des vêtements, des poses ou des accessoires provocants.
D'autres types d'images d'origine tout à fait innocente peuvent également être utilisés à des fins d'exploitation sexuelle. Les photos et les vidéos créées par les parents, ou les enfants eux-mêmes, pour documenter des activités sociales, des exploits sportifs ou même la vie de tous les jours peuvent être détournées par des criminels sexuellement motivés et utilisées à des fins malveillantes, tout comme le CSAM. Il n'est pas rare que les services répressifs trouvent, parmi le CSAM manifestement illégal saisi chez les criminels, des images créées à l'origine à des fins innocentes. Elles peuvent regrouper des représentations d'enfants portant des vêtements de sport révélateurs ou très serrés, tels que des maillots de bain ou des justaucorps pour la danse ou la gymnastique, et d'autres images susceptibles d'être sexualisées par les criminels. Bien que ce contenu n'ait pas de connotation sexuelle, certains criminels peuvent collecter, partager ou de toute autre manière utiliser ces images dans un but d'exploitation sexuelle, par exemple en cherchant à en retirer une gratification sexuelle en les visionnant.
Les parents qui partagent régulièrement des informations personnelles et des images de leurs enfants via les médias sociaux ont été critiqués pour le « sharenting », qui, selon une étude réalisée en 2023 en Turquie, pourrait contribuer à la maltraitance des enfants. En Argentine, les pédiatres ont été invités à aborder les préjudices découlant du « sharenting », notamment la possibilité que des images d'enfants partagées publiquement se retrouvent sur des sites et des forums axés sur le CSAM, avec les parents et les enfants lors des visites médicales.
En 2018, Child Rescue Coalition (une organisation non gouvernementale basée aux États-Unis) a lancé une campagne de sensibilisation et de prévention en utilisant le compte Instagram @KidsForPrivacy pour bouleverser la « surexposition » subie pas les enfants du fait de la diffusion d'images légales susceptibles de violer la vie privée des enfants.
De nombreuses plateformes technologiques, en particulier les médias sociaux et les services de réseaux sociaux, ont déjà recours à diverses stratégies de modération des contenus pour détecter, supprimer et signaler les contenus illégaux, y compris le CSAM. Des efforts similaires peuvent être déployés pour restreindre la diffusion d'images légales qui menacent la vie privée et la sécurité des enfants et contribuent à leur l'exploitation sexuelle. Ces mesures ne doivent pas nécessairement aboutir à une interdiction de ces images, bien que les plateformes aient généralement le droit de fixer de telles limites. Divers moyens peuvent être mis en œuvre pour imposer des restrictions pertinentes :
- interrompre la diffusion virale d'images qui peuvent être légales mais aussi exploitables sexuellement ;
- afficher un avertissement ou des conseils aux utilisateurs qui publient des images semblant représenter des enfants dans des situations compromettantes ;
- Limiter la visibilité du contenu publié par les jeunes utilisateurs afin d'en empêcher l'accès public ou illimité ;
- Ajouter des protections contre la redistribution sur la plateforme de contenus au sein de groupes privés créés pour la communication familiale ; et/ou
- Utiliser le hachage cryptographique et perceptuel pour détecter et supprimer les images non explicites associées à des séries CSAM connues.
En réponse aux signalements de contenus légaux mais sexuellement exploitables et de textes prédateurs, tels que des commentaires sexuels ou des informations personnelles sur un enfant victime identifié, le NCMEC envoie régulièrement des avis aux plateformes en ligne. Ces contenus n'étant généralement pas illégaux, il appartient aux plateformes en ligne de décider de répondre ou non aux avis du NCMEC et de déterminer la manière de le faire.
Le NCMEC partage également des hachages de contenus légaux mais exploitables sexuellement dans le cadre de son Exploitative Hash-Sharing Initiative. Les hachages ajoutés par le NCMEC à cette liste proviennent uniquement d'images et de vidéos signalées à la CyberTipline du NCMEC par les plateformes en ligne. Les hachages sont mis à la disposition des plateformes en ligne participantes afin qu'elles les utilisent pour détecter les contenus relevant de l'exploitation et les retirer de leurs plateformes.
Le service « Take it Down » du NCMEC, disponible dans plus de 30 langues, peut aider les personnes qui (1) avaient moins de 18 ans lorsque des images ou des vidéos les représentant nues, partiellement nues ou dans une situation sexuellement explicite ont été prises, et (2) pensent que les images ont été ou seront partagées en ligne. Plus de dix plateformes en ligne, y compris certains des services les plus populaires et les plus couramment utilisés, participent à Take it Down.
Les plateformes en ligne ont un intérêt commercial légitime à prendre des mesures pour promouvoir leurs services comme étant sûrs pour les enfants et hostiles aux comportements d'exploitation sexuelle. Lorsque cela est légal, les sociétés pourraient s'engager dans des initiatives de bénévolat visant à limiter la distribution de contenus relevant de l'exploitation sexuelle sans devoir recourir à des mandats légaux ou gouvernementaux.
Que révèlent les données ?
En 2023, le NCMEC a envoyé plus de 6 000 avis concernant du matériel d'exploitation (images et vidéos associées au CSAM connu) et des textes prédateurs aux plateformes en ligne, qui ont réagi et supprimé le contenu signalé dans les quatre jours qui ont suivi, en moyenne. Il convient de noter que près de 140 notifications des deux types n'ont reçu aucune réponse de la part des plateformes notifiées.
En 2024, le nombre de hachages fournis par le NCMEC à l'Exploitative Hash-Sharing Initiative a dépassé les 315 000 ; 18 ESP ont volontairement choisi d'accéder à cette liste.
Qu'en ont dit les survivants ?
Les survivants ont conscience de la tension inhérente à cette question de l'appropriation malveillante d'images innocentes et mettent en garde contre les approches qui pourraient être interprétées comme une « culpabilisation de la victime ». Les enfants, les parents et d'autres personnes devraient avoir le droit de vivre et de documenter leur vie sans interdiction de leur liberté d'expression. Cependant, les plateformes en ligne, qui sont spécialisées dans l'innovation technologique, devraient mettre à profit leur expertise et leurs ressources pour rendre les interactions en ligne des utilisateurs plus sûres sur leurs plateformes en atténuant le risque de certains agissements prédateurs.
Certains survivants conseillent aux entreprises qui vendent ou commercialisent des sous-vêtements, des maillots de bain ou des justaucorps pour enfants de ne pas utiliser de modèles enfants pour le faire, en raison du risque que ces images légitimes soient utilisées à des fins d'exploitation. D'autres ont noté que certaines plateformes ou applications, telles que celles utilisées pour administrer des tests académiques, peuvent interdire (ou du moins entraver) les tentatives de téléchargement, d'enregistrement ou d'utilisation des outils de capture d'écran sur le contenu affiché, et ils suggèrent que l'adoption de stratégies similaires soit appliquée pour protéger certaines images d'une redistribution rapide.
![]()
Nous avons tous le devoir de protéger les enfants contre tout préjudice. Malheureusement, certains utilisent de manière malveillante, pour leur propre bénéfice et profit, des images d'enfants les montrant dans diverses situations de dénuement. Nous devons être conscients et attentifs à la création et à la diffusion de telles images, même si l'intention semble innocente.
- Un(e) survivant(e)
Sur quoi s'appuient les points de vue opposés ?
Outre les criminels qui possèdent et distribuent des images et des vidéos de manière malveillante, deux points de vue principaux peuvent s'opposer à la demande des plateformes en ligne de restreindre la distribution d'images susceptibles de porter atteinte à la vie privée des enfants.
Les plateformes en ligne elles-mêmes peuvent s'inquiéter de l'impact sur l'expérience des utilisateurs et de la perte potentielle d'utilisateurs au profit d'autres plateformes n'imposant pas de telles restrictions. En outre, le développement et l'adoption de toute nouvelle fonctionnalité peuvent engendrer des coûts financiers, et les sociétés peuvent ainsi préférer investir des ressources dans d'autres aspects de leurs activités. La fiabilité des technologies d'estimation de l'âge utilisées pour distinguer les images représentant des adultes de celles représentant des enfants peut également susciter des inquiétudes.
Les partisans d'une liberté d'expression illimitée peuvent voir dans ces restrictions une violation du droit des utilisateurs à adopter un comportement légal, alors que les images en question ne sont généralement pas considérées comme illégales. Certains parents ou enfants désireux de se constituer un public en ligne, que ce soit à des fins personnelles ou commerciales, pourraient se montrer réticents face à des mesures qui empêchent le contenu des médias sociaux de « devenir viral » ou d'être largement distribué d'une autre manière.