L’expérimentation de la vidéosurveillance algorithmée (VSA), censée être limitée jusqu’au 31 mars 2025, est en passe d’être prolongée jusqu’en décembre 2027. Si le gouvernement Barnier n’avait pas caché son intention d’étendre l’expérience avant de rétrograder l’année dernière, le gouvernement Bayrou est, cette semaine, allé plus loin.
L’exécutif a en effet ajouté un amendement à la proposition de loi sur la sûreté dans les transports. Le texte, adopté mardi 11 février dans la soirée par l’Assemblée nationale, doit encore recevoir le feu vert de la commission mixte paritaire – une commission composée de sept députés et de sept sénateurs. Retour sur cette affaire controversée qui suscite la levée de boucliers des défenseurs des droits, mais qui est applaudie par le ministre des Transports, comme tous ceux qui estiment la technologie indispensable à la sécurité des Français.
1. C’est quoi cette VSA ?
La vidéosurveillance dopée à l’IA a été autorisée pour la première fois en France – une première en Europe – par la loi relative aux Jeux olympiques du 19 mai 2023, malgré l’alarme de nombreuses associations de défense des droits civils et de politiques.
Le dispositif n’autorise pas la reconnaissance faciale, mais repose sur la détection « d’événements anormaux » : concrètement, des algorithmes vont analyser automatiquement des images prises par des systèmes de vidéosurveillance. Les caméras couplées à des outils de détection algorithmiques scrutent la foule, collectent et analysent les images, avant d’alerter les forces de l’ordre si un « comportement anormal » est repéré – à charge pour ces dernières d’agir, ou pas.
Ces « comportements anormaux » ont été définis dans un décret. Dans le dispositif actuel de VSA, les algorithmes peuvent détecter les événements suivants :
- les départs d’incendie ;
- les armes à feu ;
- le franchissement ou la présence d’une personne dans une zone interdite ou sensible ;
- une densité trop importante de personnes ;
- un mouvement de foule ;
- la présence d’objets abandonnés.
2. Qu’est ce qui était prévu initialement ?
À l’origine, ce dispositif était censé être exceptionnel, limité à la sécurité des jeux olympiques, après le fiasco de la finale de la Ligue des champions au Stade de France, en mai 2023. Mais il a finalement été étendu après la compétition mondiale, jusqu’en mars 2025. Le texte adopté prévoit que le recours aux caméras sera possible pour d’autres événements comme les « manifestations sportives, récréatives ou culturelles » qui, « par leur ampleur ou leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes ».
L’expérimentation a été prévue avec de nombreux garde-fous. Limitée dans le temps, elle devrait faire l’objet d’un rapport d’évaluation dressant le bilan de cette utilisation, avant qu’un débat n’ait lieu sur son éventuelle prolongation.
En 2023, le Conseil constitutionnel avait estimé que tout projet de pérennisation du dispositif devrait être réexéminé par ses soins, les résultats de son évaluation devant faire pencher la balance dans un sens ou dans l’autre.
Mais en pratique, les défenseurs de cette technologie n’ont pas attendu l’évaluation pour se prononcer en faveur du dispositif. L’été dernier, Laurent Nunez, le préfet de police de Paris, appelait déjà à sa pérennisation. Tout comme Michel Barnier, alors Premier ministre, et tout récemment Philippe Tabarot (LR), le ministre des Transports et auteur de la proposition de loi. En janvier dernier, ce dernier expliquait, avant que le rapport d’évaluation ne soit rendu, que la technologie avait « plutôt très bien fonctionné », et qu’elle « permett(ait) de gagner un temps fou ». Il estimait dans les pages du Parisien qu’il comptait « pérenniser les caméras dites “intelligentes” et les algorithmes d’analyse qui permettent de détecter les mouvements inhabituels dans une foule ».
3. Comment l’expérimentation s’est déroulée en pratique ?
En pratique, l’expérimentation de la VSA a été, ces derniers mois, limitée. Seul le logiciel de détection de Cityvision, de Wintics, a été utilisé par quatre organisations : la Préfecture de Police (PP), la Régie Autonome des Transports Parisien (RATP), la Société Nationale des Transports (SNCF), et la ville de Cannes.
Si ces derniers ne se sont pas épanchés publiquement sur la façon dont l’expérimentation s’était déroulée, un rapport, rédigé par un comité d’évaluation, nous a permis d’en savoir un peu plus.
4. Qu’a conclu le comité d’évaluation ?
Ce comité était prévu par la loi sur les JO de Paris : il devait rendre son évaluation au gouvernement avant le 31 décembre 2024. S’il a bien remis son bilan mi-janvier – le document a finalement été rendu public que le 7 février dernier – il est loin d’être un blanc seing. Le document dresse une évaluation en demi-teinte. D’abord parce que la moitié des situations censées être détectées a été mise de côté.
Les trois scénarios que les outils devaient détecter, à savoir, les départs d’incendie, les chutes de personnes ou la détection d’armes à feu, n’ont pas été expérimentés par la RATP ou la SNCF. Le dépistage d’armes a bien été testé à Cannes, mais cela n’a pas été un succès, les auteurs relevant un grand nombre de faux positifs.
Côté départ d’incendie ou de chute, là aussi, le rapport note « une faible maturité technologique » – comprenez, les outils ne les détectent pas bien – les phares des voitures étant par exemple pris pour des feux. Même chose pour les objets abandonnés : sur les 270 alertes envoyées à la SNCF par le logiciel, seules 21 ont été jugées pertinentes. Certaines auraient détecté à tort des bancs, des poubelles, et même des sans domicile fixe.
Les déplacements en sens interdit, les attroupements et l’intrusion en zone interdite (pour détecter toute personne sur les voies par exemple) ont, eux, été correctement détectés. Pour les mouvements de foule, le comité botte en touche, notamment par ce que « la RATP avait programmé une vitesse importante de mouvement de foule, de sorte qu’aucune alerte n’a été enregistrée » souligne le rapport.
Si certains utilisateurs (les forces de l’ordre et agents de la SNCF et de la RATP) interrogés dans le rapport sont eux, enthousiastes – les auteurs du rapport optent plutôt pour la prudence. Pour ces derniers, l’expérimentation actuelle, qui ne porte que sur un seul et unique logiciel, et qui n’évalue que des utilisations limitées, ne permet pas de trancher sur la pertinence de la VSA. Ni de se prononcer sur l’opportunité de prolonger ou pas l’expérimentation.
5. Que souhaite le gouvernement ?
Mais pour le gouvernement, ce « ni oui, ni non » lui donne la possibilité de prolonger l’expérimentation, sans pour autant la pérenniser – du moins pour l’instant. Puisque « la RATP et la SNCF » n’auraient pas eu assez de temps pour tester les systèmes et « faire évoluer leur organisation », écrivent-ils dans les motifs de l’amendement, étendons cette expérimentation de 21 mois supplémentaires, jusqu’au 31 décembre 2027.
Autre changement prévu : le gouvernement, qui était censé remettre au Parlement, « au plus tard le 31 décembre 2024, un rapport d’évaluation de la mise en œuvre de l’expérimentation », aura maintenant jusqu’au 30 septembre 2027 pour le faire, soit trois mois avant la fin du dispositif, si le texte est adopté tel quel à l’issue du processus législatif.
6. Que craignent les associations et défenseurs des droits ?
La durée initiale de l’expérimentation, jusqu’en mars 2025, était déjà très critiquée par les pourfendeurs du texte. Beaucoup craignaient en effet que la mesure, censée être exceptionnelle, soit à la fin intégrée dans le droit commun – qu’elle devienne donc la norme, comme cela s’est déjà produit dans le passé pour des mesures anti-terroristes. « Il est rare que ces mesures dites “d’exception” soient levées rapidement. En lieu et place, les mesures de surveillance et de contrôle deviennent la norme », écrivait un collectif d’organisations internationales en mars 2023 dans une tribune du Monde, bien avant l’adoption de la loi.
A côté de cette crainte, la VSA est vivement critiquée par les défenseurs des droits, d’abord parce qu’aucune étude n’a jamais prouvé son efficacité. C’est d’ailleurs ce que pointe du doigt le rapport sénatorial publié en avril 2024. « Nous avons compris, lors du concert de Depeche Mode ayant servi d’expérimentation (de la VSA, NDLR), que l’outil (de vidéosurveillance algorithmique, NDLR) ne fonctionnait pas. Les Jeux olympiques offriront un terrain d’expérimentation supplémentaire, mais en aucun cas il y a là un moyen de sécurisation », soulignait la sénatrice et rapporteure du texte Agnès Canayer (Les Républicains), lors de la présentation du rapport devant le Sénat.
D’un autre côté, cette technologie serait attentatoire aux libertés, comme l’expliquait ce collectif d’organisations internationales l’année dernière : « ces mesures de surveillance introduites (…) impliquent des risques inacceptables par rapport à plusieurs droits fondamentaux tels que le droit à la vie privée, le droit à la liberté de réunion et d’association et le droit à la non-discrimination ».
Pour la Quadrature du Net, qui a publié un communiqué au vitriol le 7 février dernier, le gouvernement n’a qu’un objectif : « imposer coûte que coûte la VSA », que cette technologie fonctionne ou pas. Pour l’association de défense des droits, « la VSA ne doit pas être prolongée. Elle doit être interdite ». Notamment parce qu’elle « contribue à parfaire un édifice de la surveillance qui transforme l’espace public en un espace de contrôle social permanent, qui trie les “bons citoyens” et les “suspects” ».
En juillet dernier, la Commission nationale consultative des droits de l’homme (CNCDH), un organe qui conseille le gouvernement français en matière de droits de l’homme, avait tiré à boulet rouge sur le dispositif actuel de VSA. Dans un avis consultatif, l’autorité indépendante demandait que les « pouvoirs publics reconsidèrent leur volonté d’accélérer le déploiement des dispositifs de vidéoprotection », expliquant « solliciter l’organisation d’un débat démocratique relatif à l’utilisation de la vidéosurveillance algorithmique », en association avec la CNIL, le gendarme français de la vie privée.
À lire aussi : Vidéosurveillance dopée à l’IA : la Commission nationale consultative des droits de l’homme passe au vitriol le dispositif actuel
De son côté, la CNIL a appelé, à plusieurs reprises, à la vigilance face à la généralisation de la vidéosurveillance algorithmique. Interrogée par Contexte en octobre, le gardien de notre vie privée « insistait sur l’importance de l’évaluation pour mesurer de façon rigoureuse, contradictoire et pluridisciplinaire [leur apport] dans le cadre de cette expérimentation, qui ne saurait préjuger d’une éventuelle pérennisation de ces systèmes ».
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.