country flag

En bref: Responsabilités des plateformes en ligne

Présentation du problème et position du NCMEC

Qu'est-ce que c'est ?

Les plateformes en ligne opèrent dans plusieurs juridictions — dont la plupart ne réglementent pas de manière notable leur conduite — et s'adressent à des enfants issus de milieux sociaux, économiques, linguistiques et culturels différents. Certaines plateformes en ligne appliquent des politiques, des services et des pratiques différents en ce qui concerne l'accès au contenu, le contrôle parental et la modération du contenu, entre autres, en fonction du lieu où se trouvent les utilisateurs. Ces différences ne sont que partiellement fondées sur des exigences et des attentes juridiques régionales et locales différentes.

Position du NCMEC :

Les plateformes en ligne qui permettent aux enfants de créer des comptes ou des profils, d'envoyer ou de partager des contenus ou de communiquer avec d'autres utilisateurs devraient mettre à disposition certaines caractéristiques, notamment une documentation dans les langues officielles ou usuelles du pays de l'utilisateur, des mécanismes simples pour signaler les abus et les mauvais comportements sur la plateforme, des procédures de notification et de retrait accessibles et efficaces, et des mesures de sécurité raisonnablement normalisées d'une juridiction à l'autre.

Pourquoi est-ce important ?

Bien que les facteurs de risque spécifiques puissent varier, les enfants du monde entier sont vulnérables aux préjudices subis par le biais des plateformes en ligne ou facilités par celles-ci. Pour des raisons évidentes, telles que le respect des obligations réglementaires, et peut-être pour d'autres raisons moins évidentes, telles que la recherche du profit, les plateformes en ligne mettent parfois à disposition ou retiennent certaines fonctionnalités liées à la sécurité en fonction du marché.

Par exemple, les paramètres de confidentialité par défaut du compte d'un utilisateur peuvent avoir un impact sur la sécurité en ligne. Si l'activité en ligne d'un enfant et ses listes d'amis, de followers et de connexions sont publiques (visibles par tout autre utilisateur) par défaut, les prédateurs ont accès à des informations qui peuvent être utilisées pour exploiter l’enfant. L'utilisation de ces informations par les criminels a été fréquemment observée dans des cas de sextorsion à des fins financières. La visibilité des contacts en ligne d'un enfant donne aux criminels le pouvoir nécessaire pour menacer de diffuser à grande échelle des images d'exploitation, ce qui entraîne une détresse émotionnelle qui, dans certains cas, a entraîné la mort des victimes par suicide.

Des paramètres par défaut — que les plateformes en ligne peuvent définir pour les comptes en ligne des enfants — pourraient contribuer à atténuer ce risque.

Quel contexte est pertinent ?

Dans une analyse menée par Fairplay avec dix autres organisations, les chercheurs ont constaté des disparités géographiques dans les fonctionnalités liées à la sécurité offertes par les plateformes en ligne ciblées.

Publiée en 2022, cette étude a mis en évidence, par exemple, que les plateformes définissent les paramètres de visibilité publique ou privée par défaut différemment en fonction de la localisation de l'utilisateur. Dans trois juridictions européennes évaluées, Instagram définissait par défaut le paramètre « privé » pour les comptes nouvellement créés par les chercheurs en tant qu'utilisateurs âgés de 17 ans. Dans 11 autres juridictions à travers le monde (dont une en Europe), l'utilisateur était invité à choisir entre les paramètres publics et privés. De son côté, TikTok définissait par défaut le paramètre « public » pour les nouveaux comptes créés dans les juridictions hors d'Europe. Pour les utilisateurs situés en Europe, ils étaient invités à sélectionner « privé » de manière proactive ou à sauter la sélection, qui devenait alors « public » par défaut.

Ces différences ont été attribuées aux exigences réglementaires existantes ou prévues dans l'UE et au Royaume-Uni, alors que les plateformes en ligne n'étaient pratiquement pas réglementées dans les autres régions. Fairplay a critiqué la préférence générale du secteur pour les comptes publics, estimant qu'elle correspond davantage aux intérêts commerciaux des entreprises qu'à l'intérêt supérieur des enfants, qui bénéficieraient d'une confidentialité par défaut et d'une sécurité accrues.

Les disparités géographiques évaluées dans cette étude portent notamment sur les points suivants :

  • des « expériences adaptées à l'âge » limitées à certaines juridictions ;
  • des pratiques plus strictes en matière de confidentialité des données dans certaines juridictions que dans d'autres ;
  • la disponibilité de la documentation et des éléments de l'interface utilisateur dans les langues officielles des juridictions dans lesquelles les services sont mis à disposition ;
  • des paramètres de confidentialité par défaut pour les jeunes utilisateurs dans certaines juridictions, mais pas dans d'autres ;
  • les exigences relatives à l'âge minimum, qui mettent en évidence l'incohérence des messages internes concernant les règles spécifiques à chaque juridiction ; et
  • l'accessibilité des politiques, des lignes directrices et des fonctions d'assistance des plateformes en ligne dans certaines langues officielles seulement des juridictions où leurs services sont disponibles.

En Australie, la Online Safety Act prévoit l'établissement des Basic Online Safety Expectations (BOSE - Attentes fondamentales en matière de sécurité en ligne) et habilite le commissaire d’eSafety à exiger des plateformes en ligne qu'elles rendent compte de leurs progrès en vue de se conformer aux BOSE. Plusieurs plateformes en ligne ont fourni des informations sur divers sujets liés à la sécurité en ligne en réponse aux exigences réglementaires d'eSafety concernant les rapports de transparence.

En 2022 et 2023, eSafety a exigé des plateformes en ligne désignées qu'elles rendent compte de leurs efforts pour lutter contre l'exploitation et les abus sexuels d'enfants en ligne. En 2024, eSafety a lancé les premiers rapports périodiques des plateformes en ligne sélectionnées, qui sont désormais tenues de rendre compte tous les six mois de leurs progrès dans la mise en œuvre des BOSE. Ce cadre réglementaire ne s'applique qu'aux services mis à la disposition des utilisateurs australiens, mais les rapports de transparence peuvent être utiles pour identifier les différences géographiques dans les pratiques de sécurité en ligne.

Qu'en ont dit les survivants ?

Les survivants ne comprennent pas pourquoi les plateformes en ligne ne normalisent pas déjà les caractéristiques et les mesures de sécurité dans l'ensemble des juridictions. Ils s'interrogent également sur les autres facteurs (sexe, race, etc.) qui entraînent des différences de sécurité dans la manière dont les plateformes en ligne traitent les enfants.

Les plateformes en ligne ne doivent pas dissimuler les paramètres de confidentialité, les articles consacrés à l'assistance, les processus de signalement des abus ou les politiques de sécurité derrière une navigation lourde et en plusieurs étapes ou un jargon juridique compliqué. Pour accroître l'engagement et la compréhension des informations ou des processus de sécurité importants, ceux-ci doivent être présentés dans des formats faciles à trouver et pertinents pour les utilisateurs. Par exemple, sur une plateforme principalement destinée à l'interaction vidéo, les informations relatives à la sécurité et aux politiques devraient être présentées aux utilisateurs sous forme de vidéo et de documentation écrite.

Opening Quote

Les règles, réglementations et responsabilités des [plateformes en ligne] devraient être normalisées et ne devraient pas varier d'un pays à l'autre.

- Parent d'une victime de CSAM

Cette responsabilité incombe sans aucun doute aux plateformes en ligne : protéger les jeunes avec les meilleures normes de sécurité et de protection de la vie privée au niveau mondial et dans tous les services.

- Un(e) survivant(e)

Sur quoi s'appuient les points de vue opposés ?

Les plateformes en ligne peuvent préférer les paramètres publics par défaut pour les comptes d'utilisateurs en raison de plusieurs facteurs, tels que la promotion de l'interaction avec les utilisateurs, l'aide à la découverte de contenu, la collecte de données pour soutenir la publicité ciblée, l'expansion des réseaux dans le but d'accroître la base d'utilisateurs et la monétisation du contenu. En outre, les comptes privés peuvent nécessiter davantage de ressources pour être modérés et garantir que les attentes en matière de protection de la vie privée et de sécurité sont satisfaites.