Passer au contenu

Facebook ne lutte pas assez contre les contenus terroristes, selon cette autorité européenne

La Coimisiún na Meán, l’équivalent de l’Arcom en Irlande, a estimé que Meta, la maison mère de Facebook, ne faisait pas suffisamment contre les contenus terroristes. Facebook a désormais trois mois pour montrer patte blanche.

Facebook est exposé à « des contenus terroristes » et doit prendre des mesures pour y remédier : voilà la conclusion de la Coimisiún na Meán, l’équivalent de l’Arcom en Irlande, une autorité qui agit dans certains cas au nom de l’Union européenne. Dans un communiqué publié sur son site le lundi 16 décembre, l’autorité irlandaise estime que Meta, la maison mère de Facebook, ne faisait pas suffisamment pour lutter contre les contenus terroristes sur son réseau social.

L’autorité européenne, qui contrôle les (nombreuses) plateformes établies en Irlande, agit dans le cadre règlement européen contre les contenus terroristes en ligne. Ce texte impose aux réseaux sociaux la mise en place de mesures pour éviter la diffusion de contenus terroristes en ligne : les réseaux sociaux doivent par exemple retirer dans l’heure qui suit leur signalement des « transmissions en direct, qui incitent, sollicitent ou contribuent à des infractions terroristes, qui fournissent des instructions pour de telles infractions ou qui incitent des personnes à participer à un groupe terroriste ». Il en est de même pour toute explication relative à la fabrication ou l’utilisation d’explosifs.

À lire aussi : Cyberharcèlement, haine en ligne… Vous pourrez saisir ce nouvel organisme si un réseau social refuse de modérer un contenu

Et depuis le lundi 16 décembre, Facebook a rejoint la liste des entreprises qui doivent prendre des mesures spécifiques contre la diffusion de contenus terroristes, un mois après une décision similaire visant un autre réseau social de Meta, Instagram. Les plateformes qui reçoivent au moins deux ordres de retrait de ce type de contenus, au cours des 12 derniers mois, peuvent rentrer dans cette catégorie, ce qui est le cas de Meta ici.

À lire aussi : Meta et TikTok refusent de financer le nouveau contrôle de modération de l’UE

Facebook doit adopter des mesures spécifiques

Concrètement, quelles conséquences pour le groupe de Mark Zuckerberg ? Il doit désormais « prendre des mesures spécifiques pour empêcher que ses services ne soient utilisés pour la diffusion de contenus terroristes ». Le groupe de Mark Zuckerberg est aussi contraint d’envoyer des rapports à l’autorité irlandaise, détaillant quelles mesures ont été prises, dans un délai de trois mois à compter de la réception de la décision. Les mesures doivent être « efficaces, ciblées et proportionnées et respecter les droits fondamentaux des utilisateurs », rappelle l’autorité.

Si on ne sait pas encore quel contenu terroriste a été trouvé sur Facebook et notifié à l’autorité de régulation, Facebook devra adopter de nouvelles mesures pour répondre à l’autorité irlandaise. Cela peut se traduire par de nouvelles conditions générales d’utilisation, qui interdisent la diffusion d’un contenu terroriste. Après trois mois, l’autorité évalue les mesures prises. Si elle estime qu’elles sont insuffisantes, elle peut aboutir à des amendes salées allant jusqu’à 4 % du chiffre d’affaires mondial. Dans son communiqué, l’autorité ajoute que les utilisateurs des plateformes peuvent signaler des contenus terroristes à la plateforme ou à une autre autorité locale.

Facebook estime avoir supprimé « plus de 99 % de ce type de contenus violents avant même qu’ils ne nous soient signalés »

Sollicité par TechCrunch lundi 16 décembre, Meta estime avoir « l’une des approches les plus complètes du secteur pour cibler les organisations et les individus dangereux ». L’entreprise américaine affirme avoir durant le dernier trimestre « trouvé et supprimé plus de 99 % de ce type de contenus violents avant même qu’ils ne nous soient signalés ».

Un mois plus tôt, l’autorité irlandaise avait visé d’autres entreprises : outre Instagram, TikTok et X ont aussi été ajoutés à la liste des plateformes exposées à des contenus terroristes. L’Arcom irlandaise, en charge du contrôle de la diffusion de ce type de contenus, travaille avec la Commission européenne qui, elle, encadre plus largement la modération des très grandes plateformes, en vertu du DSA, le règlement européen sur les services numériques.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.