Pour lutter contre la propagation du Covid-19 en France, de nouveaux dispositifs vidéo sont testés par des acteurs publics et privés, notamment dans le métro parisien. « Leur déploiement comprend toutefois des risques importants pour les droits et libertés des citoyens », pointe la Commission nationale de l’informatique et des libertés (Cnil) dans un communiqué publié mercredi 17 juin. Inquiet, le gendarme de la protection des données « estime nécessaire d’alerter sur le fait que, sous réserve d’une analyse au cas par cas, il lui apparaît qu’une grande partie de ces dispositifs ne respectent pas le cadre légal applicable à la protection des données personnelles ».
Une banalisation du recours aux technologies intrusives
Concrètement, ces dispositifs sont des caméras dites « intelligentes » par l’ajout d’une couche logicielle à des systèmes de vidéo-protection préexistants, capable par exemple de détecter le port de masque ou le respect des mesures de distanciation sociale. Dans le cas des caméras thermiques, il s’agit de capteurs qui mesurent automatiquement la température des corps.
« Leur développement incontrôlé présente le risque de généraliser un sentiment de surveillance chez les citoyens, de créer un phénomène d’accoutumance et de banalisation de technologies intrusives, et d’engendrer une surveillance accrue, susceptible de porter atteinte au bon fonctionnement de notre société démocratique », explique la Cnil.
Une absence de cadre légal spécifique
Pour prévenir ces risques, la Cnil rappelle les obligations induites par le respect du RGPD. Elle rappelle qu’au regard de la sensibilité de ces données, ces caméras doivent entre autres « garantir une durée de conservation limitée », assurer leur « pseudonymisation ou anonymisation ; attester de « l’absence de suivi individuel ». Mais, pour l’instant, « le recours à des caméras “intelligentes” n’est aujourd’hui prévu par aucun texte particulier ». Cette absence d’encadrement législatif spécifique est problématique.
Un « non » de la tête insuffisant pour la Cnil
Un des points d’achoppement pour la Cnil est également le non-respect du droit d’opposition. Dans le cadre du RGPD, pour qu’un consentement soit valide, la personne doit pouvoir dire non. Or, en raison de l’automatisation du traitement des images, « ces personnes pourront uniquement obtenir la suppression de leurs données et non éviter leur collecte », peut-on lire dans le communiqué. Concernant la possibilité de dire non de la tête, la Cnil est très claire : ce n’est pas une garantie suffisante.
« Cette solution est peu praticable dans les faits et difficilement généralisable. Elle contraint également les individus à afficher publiquement leur opposition au traitement et fait porter une charge trop importante sur la personne, à fortiori si les dispositifs de ce type se multiplient », explique la Cnil.
Ce n’est pas la première fois que le gendarme des données personnelles appelle à un encadrement strict et urgent concernant des dispositifs de traitement d’images automatisé. Sur le volet de la reconnaissance faciale, qui analyse des données encore plus sensibles, la Cnil a également demandé l’élaboration d’un cadre légal spécial.
Source : Cnil
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.