Facebook s’associe à la police. Le réseau social fait appel aux forces de l’ordre aux États-Unis et au Royaume-Uni pour entraîner ses outils d’intelligence artificielle (IA) à stopper les retransmissions en direct d’attaques extrémistes.
Début des opérations en octobre
Cette initiative, annoncée mardi 17 septembre par Facebook via un communiqué officiel, s’inscrit dans le cadre plus large des mesures prises par le réseau social pour nettoyer les contenus « haineux et extrémistes » et en particulier de ses efforts pour ajouter les mouvements ou individus prêchant la supériorité de la race blanche à sa liste « d’organisations terroristes ».
À partir du mois d’octobre, la police de Londres apportera son aide à Facebook afin de mieux entraîner ses filtres intelligents à détecter rapidement ce type de contenus et les supprimer. La difficulté réside dans le fait que la machine doit pouvoir faire la différence entre une attaque dans la vraie vie et une scène de fiction.
The Met is working with #Facebook to develop technology that identifies when someone is live streaming footage of a firearms attack. The technology could help identify firearms attacks in their early stages and assist police in their response to incidents. https://t.co/lvAUFSrSwf pic.twitter.com/yjTf1kVPD0
— Metropolitan Police (@metpoliceuk) September 17, 2019
Pour entraîne l’IA, les images filmées par les caméras portées par les unités de police de la Met (Metropolitan Police Service) lors de leurs entraînements au tir viendront alimenter et enrichir la banque d’images que Facebook a déjà constituée grâce aux forces de l’ordre aux Etats-Unis. Grâce auxquelles, la machine va apprendre à les reconnaître, les trier et in fine les effacer.
200 organisations suprémacistes supprimées
Cette mesure va de pair avec une série d’initiatives lancées récemment par Facebook : restrictions pour l’accès à Facebook Live, rencontres avec des responsables politiques, en passant par une alliance avec d’autres réseaux pour freiner le « détournement de technologies permettant de diffuser du contenu terroriste ».
Après avoir mis beaucoup de moyens pour combattre l’utilisation de son réseau par des organisations comme Al-Qaïda ou le groupe État islamique, le réseau communautaire met particulièrement l’accent sur le suprémacisme blanc, dont les tenants sont à l’origine de nombreuses tueries perpétrées ces dernières années aux Etats-Unis et en Nouvelle-Zélande. Le réseau rappelle avoir banni 200 organisations suprémacistes blanches.
Des liens vers la « déradicalisation »
Dans la même veine, l’entreprise a étendu à l’Austalie et l’Indonésie une initiative lancée en mars aux Etats-Unis, consistant à aiguiller les usagers qui font une recherche contenant des mots clés associés à la suprémacie blanche vers un site de « déradicalisation ». Pour mesurer précisément l’efficacité de ces initiatives, Facebook s’est associé à Moonshot CVE (pour Countering Violent Extremism), une jeune entreprise britannique qui se base sur l’exploitation de données pour cibler les utilisateurs aux vues extrémistes.
Moonshot CVE a mis au point une méthode permettant de rediriger ces extrémistes vers des sites aux informations neutres, ou faisant appel à des personnalités reconnues ou des personnes ayant quitté des groupes radicalisés pour tenter de les faire changer d’avis.
Toutes ces mesures répondent aux critiques auxquelles Facebook a fait face pour avoir mis 17 minutes avant d’arrêter la retransmission par un suprémaciste blanc, qui a tué 51 fidèles musulmans le 15 mars à Christchurch, en Nouvelle-Zélande.
Source : Facebook
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.