Passer au contenu

Lutte contre la pédopornographie : Apple accusée d’inaction

Apple en fait-elle assez pour lutter contre la pédopornographie ? La question est posée au Royaume-Uni par l’organisation nationale de lutte contre la cruauté envers les enfants : le constructeur informatique est accusé de sous-estimer le volume de documents pédopornographiques qui transitent par ses produits.

Les entreprises basées aux États-Unis ont pour obligation de signer les contenus pédopornographiques détectés sur leurs plateformes au National Center for Missing & Exploited Children (NCMEC). Ce centre se coordonne ensuite avec des agences internationales et des organisations pour combattre ces crimes contre les enfants et partager des informations.

Apple critiqué pour son manque de signalements

L’an dernier, Apple a réalisé 267 signalements de matériel pédopornographique suspecté ayant transité par ses plateformes, et ce dans le monde. Google a de son côté rapporté 1,47 million de signalements, Meta plus de 30 millions, TikTok et X/Twitter près de 600 000… Apple en fait même moins que PlayStation (3 674 signalements) et que Xbox (1 537).

Ces chiffres, obtenus par le National Society for the Prevention of Cruelty (NSPCC), en vertu de la loi sur la liberté de l’information anglaise, montrent un véritable gouffre entre Apple et les autres entreprises. Une « divergence inquiétante », accuse l’organisation britannique : « Apple est clairement à la traîne par rapport à bon nombre de ses concurrents dans la lutte contre les abus sexuels sur les enfants, alors que toutes les entreprises technologiques devraient investir dans la sécurité ».

Les données d’iMessage, de FaceTime et une grande partie d’iCloud sont chiffrées de bout en bout, ce qui empêche Apple d’accéder aux documents partagés. Néanmoins, les communications de WhatsApp sont protégées de la même manière et pourtant, la messagerie de Meta a fait 1,4 million de signalements CSAM en 2023…

Fin 2022, Apple annonçait l’abandon de son programme de lutte contre la pédopornographie qui consistait en un scan préventif des photos iCloud sur l’iPhone. Il y a un an, la firme à la pomme donnait de plus amples explications sur cet abandon, tout en mettant en avant les différentes fonctions regroupées sous le label « sécurité des communications » qui détectent la nudité dans FaceTime et l’app Messages, notamment.

Lire Apple explique l’abandon de son projet de détection de photos pédopornographiques

Les plateformes, à commencer par Apple, devront peut-être changer leur fusil d’épaule. Une loi européenne pourrait en effet leur imposer le scan des conversations en amont.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : The Guardian


Mickaël Bazoge
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *