C’est un nouveau revers cinglant pour Clearview AI, cette société américaine qui propose un outil d’enquêtes aux forces de l’ordre fondé sur la reconnaissance faciale de portraits collectés de manière sauvage sur la Toile, et notamment sur les réseaux sociaux. La CNIL australienne vient en effet de conclure que l’activité de Clearview AI contrevient aux principes de la protection des données personnelles en Australie. Elle est priée d’arrêter immédiatement toute collecte de données liées à des citoyens australiens. Elle est également sommée de détruire celles qu’elle a récoltées jusqu’à présent.
Dans son rapport final d’enquête, Angelene Falk, la patronne de la CNIL australienne, a rejeté tous les arguments avec lesquels Clearview AI cherchait à échapper aux lois australiennes sur la protection des données personnelles. Ainsi, l’entreprise estimait qu’elle n’avait aucune activité commerciale dans ce pays, alors qu’elle avait bel et bien livré un accès de test à certaines de ses forces de l’ordre dans l’espoir de signer un contrat.
A découvrir aussi en vidéo :
Plus étonnant, Clearview AI a argué que les portraits collectés en masse sur la Toile n’étaient pas des données personnelles, même s’ils étaient analysés par des algorithmes de reconnaissance faciale pour en extraire une empreinte mathématique destinée à réaliser des recherches d’individus. Mais pour Angelene Frank, il ne fait évidemment aucun doute que ces données sont non seulement personnelles, mais aussi particulièrement sensibles, car biométriques.
Par ailleurs, comme Clearview AI revendique une base de « plus de 3 milliards de visages », la CNIL australienne part du principe qu’elle doit traiter les données d’un nombre important d’Australiens. Partant de là, Clearview AI est donc contraint de respecter les lois locales sur la protection des données personnelles, ce qui n’est manifestement pas le cas. Les personnes dont les portraits sont collectés ne sont pas alertées de cette collecte et ne peuvent donc pas donner de consentement éclairé.
Totalement hors des clous
Certes, Clearview AI donne quelques informations sur ses traitements automatisés par le biais de son document qui décrit sa politique de confidentialité, mais ces informations sont jugées insuffisantes par la CNIL australienne. L’entreprise propose également un mécanisme de « opt-out » permettant à une personne d’être exclue de ces traitements. Mais c’est ubuesque, car une telle demande nécessitait de transférer à Clearview AI un portrait que l’entreprise devait garder pour toujours.
« Je considère que le fait de télécharger une image sur un site de média social n’indique pas sans ambiguïté un accord pour la collecte de cette image par un tiers inconnu à des fins commerciales. (…) Le consentement ne peut pas non plus être implicite si les personnes ne sont pas suffisamment informées des implications de la fourniture ou du refus de consentement. (…) Les documents politiques accessibles au public de l’intimé ne fournissaient pas d’informations claires sur les vecteurs d’images », a souligné Angelene Frank dans son rapport.
C’est évidemment un coup dur pour Clearview AI, qui a déjà été épinglé en février dernier au Canada pour avoir exercé une « surveillance de masse illégale ». Au même moment, la police suédoise, cliente de Clearview AI, a été sanctionnée pour l’utilisation illégale de données biométriques. D’autres plaintes sont en cours, déposées par un groupe d’ONG mené par Privacy International, y compris en France. Et dans la mesure où Clearview AI réalise une collecte indifférenciée et massive d’images glanées sur le web, on voit mal comment l’entreprise pourrait se mettre en conformité avec les lois sur la protection des données personnelles.
Source: rapport de la CNIL australienne
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.