La controverse sur les nouveaux outils de filtrage qui seront mis en œuvre dans les terminaux Apple ne désenfle pas. Les critiques estiment qu’il s’agit là d’une backdoor que les gouvernements auront vite fait de s’approprier. Afin de calmer les esprits, la firme de Cupertino vient de publier une foire aux questions.
Concernant le filtrage des images d’iMessage avant envoi, elle souligne que seules les personnes concernées par cette analyse — les enfants et leurs parents — sont susceptibles de recevoir des informations résultantes de cette analyse, en occurrence des notifications. Personne d’autre n’est mis dans la boucle, « ni Apple, ni les forces de l’ordre, ni les organismes de protection de l’enfance ». Par ailleurs, l’entreprise estime que ce dispositif ne casse pas le chiffrement de bout en bout d’iMessage, car « Apple n’aura jamais accès aux communications ».
A découvrir aussi en vidéo :
Au sujet de l’analyse des photos pédopornographiques (CSAM, Child Sexual Abuse Material), Apple rappelle que cette fonction ne s’applique qu’aux photos sauvegardées sur iCloud. S’il n’y pas de sauvegarde de photos sur iCloud, la détection de photos CSAM ne fonctionne pas. Par ailleurs, Apple affirme qu’il refusera toute demande gouvernementale qui viserait à détourner cette détection vers d’autres types de contenu.
« La capacité de détection CSAM d’Apple est conçue uniquement pour détecter les images CSAM connues stockées dans iCloud Photos qui ont été identifiées par des experts du NCMEC (National Center for Missing and Exploited Children, ndlr) et d’autres groupes de protection des enfants. Nous avons déjà été confrontés à des demandes de création et de déploiement de changements mandatés par le gouvernement qui dégradent la confidentialité des utilisateurs, et nous avons fermement refusé ces demandes. Nous continuerons à les refuser à l’avenir », explique Apple.
Mais les opposants à la cybersurveillance ne se montrent pas très impressionnés par ces affirmations.
« Les FAI britanniques avaient également refusé d’étendre le blocage CSAM au filtrage de contenus protégés par le droit d’auteur, mais cette bataille juridique a été perdue et ils doivent le faire quand même. Apple sera-t-il capable de quitter un marché s’il est mis dans une situation similaire ? », s’interroge Steven Murdoch, professeur en cybersécurité à l’University College of London, sur Twitter.
Même son de cloche chez Daphne Keller, ex-directrice juridique chez Google et actuelle directrice Platform Regulation à l’université Stanford.
« Parlant en tant que personne qui a plaidé et perdu précisément sur cette question dans trois pays (Royaume-Uni, Allemagne, France), je peux vous dire que le refus ferme de filtrer de nouvelles choses au-delà du CSAM ne signifie pas grand-chose face au pouvoir d’un État », écrit-elle sur Twitter.
L’incendie provoqué par cette annonce est encore loin d’être éteint.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.