C’est une conséquence inattendue de la modération des réseaux sociaux : les plateformes, en supprimant via des outils d’intelligence artificielle des contenus postés par leurs utilisateurs jugés « problématiques » comme des vidéos violentes ou pornographiques, font disparaître des images de crimes de guerre. C’est ce que montre une enquête de la BBC, publiée jeudi 1er juin.
Nos confrères, en essayant de diffuser des images documentant des attaques contre des civils en Ukraine, se sont aperçus qu’elles avaient été rapidement et définitivement supprimées. Or ces séquences, qui pourraient être des pièces maîtresses lors de procès jugeant des potentiels crimes de guerre, sont irrémédiablement perdues, alors qu’elles pourraient être archivées.
Les outils de modération n’analysent pas le contexte d’une vidéo
La raison est simple : les outils de modération des réseaux sociaux, qui suppriment des contenus en masse, sont incapables de faire la différence entre un contenu jugé violent – comme une agression mortelle – et des vidéos de civils attaqués dans un contexte de guerre. Ces outils automatiques sont programmés pour détecter des mots clés et des situations bien définies : leur apprendre à identifier des situations de guerre via l’analyse du contexte, du lieu et des victimes ne serait pas encore à leur portée.
Interrogés par nos confrères, Meta, la maison mère d’Instagram et de Facebook, et YouTube, ont expliqué être face à un défi : d’un côté, ils doivent protéger les utilisateurs de contenus préjudiciables – et donc supprimer toute image ou vidéo qui rentrerait dans cette définition. Mais de l’autre, ils expliquent avoir aussi conscience de ce « devoir de témoignage », cette fonction des réseaux sociaux, qui est aussi de diffuser les atrocités commises dans le monde. Ces deux sociétés ont ajouté avoir mis en place dans de telles situations des alternatives à ces suppressions, lorsqu’il y a « un intérêt du public », en mettant en place une diffusion d’une vidéo limitée aux adultes par exemple. Mais ces alternatives ne suffisent pas, explique la BBC.
Des scènes de massacre supprimées en quelques minutes sur Instagram et YouTube
Pour preuve, le témoignage d’un ancien journaliste, Ihor Zakharenko, qui depuis des mois documente jour après jour les attaques contre les civils ukrainiens. Ce dernier a expliqué à nos confrères qu’il y a près d’un an, des femmes et des enfants ont été abattus par des soldats russes, alors qu’ils cherchaient à fuir la banlieue de Kiev. L’ancien reporter avait alors filmé les 17 corps et les voitures calcinées, avant de diffuser ses vidéos sur les réseaux sociaux. Son objectif était de contrer le discours du Kremlin, et montrer au monde l’atrocité de cet épisode. Mais une fois sur Facebook et Instagram, les vidéos avaient rapidement été supprimées. De quoi susciter l’incompréhension de l’ancien reporter qui rappelle qu’au même moment, « les Russes disaient que ces vidéos étaient fausses, qu’ils n’avaient pas touché de civils et qu’ils ne s’étaient battus qu’avec l’armée ukrainienne ».
Pour en avoir le cœur net, nos confrères ont tenté de diffuser ces mêmes images sur Instagram et YouTube, en utilisant des comptes fictifs. En moins d’une minute, trois vidéos d’Ihor Zakharenko ont disparu sur Instagram, sur les quatre diffusées. YouTube a, pour sa part, d’abord appliqué des restrictions d’âge aux trois mêmes vidéos, avant de les supprimer dix minutes plus tard. La BBC aurait alors recommencé l’opération, sans succès, bien qu’elle ait expliqué que ces séquences contenaient des preuves de crimes de guerre et qu’elles devaient être rétablies.
Développer une modération plus nuancée ?
Pour Alan Rusbridger qui siège au conseil de surveillance de Facebook, sorte de cour suprême indépendante pour Meta, il est temps que les plateformes changent de braquet. On peut comprendre « pourquoi ils ont développé et entraîné leurs machines à retirer les vidéos dès lors qu’elles sont (…) difficiles ou traumatisantes », souligne-t-il auprès de nos confrères. Mais il faudrait désormais sortir de cette « prudence excessive », et s’atteler à développer des process ou « des machines, humaines ou IA, qui prennent des décisions plus raisonnables »… et surtout plus nuancées.
Contactés par nos confrères, la maison mère de WhatsApp a expliqué répondre « aux demandes légales valables des organismes chargés de l’application de la loi dans le monde entier ». YouTube a tenu à rappeler, de son côté, que la plateforme n’était pas une archive. Pour l’entreprise, c’est aux ONG, aux activistes, aux défenseurs des droits de l’homme et aux journalistes de s’assurer que ces vidéos sont bien sauvegardées. Bien que ce soit parfois le cas, des voix s’élèvent de plus en plus pour demander que les réseaux sociaux prennent leur part de responsabilité à ce sujet. Notamment parce que c’est sur ces canaux de diffusion, accessibles à tous, que sont transmises des bribes d’un conflit qui resterait, sans ces séquences, caché au reste du monde.
Quelles pistes existent pour changer la donne ? Des métadonnées de ces contenus pourraient être automatiquement conservées. Un système de collecte et de stockage des contenus supprimés pourrait également être mis en place, plaident des défenseurs des droits de l’homme, comme Van Schaak, ambassadrice des États-Unis pour la justice pénale mondiale, citée par nos confrères. « Nous devons créer un mécanisme qui permette de conserver ces informations en cas de futurs et éventuels examens de responsabilité (des donneurs d’ordre ou d’auteurs de crimes de guerre, ndlr) ». Car dans un procès jugeant un potentiel crime de guerre, obtenir le plus de sources possible est essentiel. Les juges vont en effet s’atteler à rassembler des pièces, apparemment sans rapport les unes avec les autres, pour statuer sur des responsabilités. Et lorsque des éléments clefs ont été supprimés, c’est tout un dossier qui peut s’effondrer.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : BBC
Bizarre, aucune preuve de crimes de guerre commis par les USA. Pourtant plus de 500.000 civils tués lors des guerres d’Irak et d’Afghanistan et sans oublier les prisons secrètes de la CIA (tortures et exécution sommaires).
face de bouk et autres c’est le monde des bizounours… Où tout le monde y est beau tout le monde y est gentil. Alors les mots qui font “peur” comme guerre; massacre; charnier; crimes etc c’est banni automatiquement. La manipulation de masse passe aussi par là…