Passer au contenu

L’expérimentation des caméras dopées à l’IA de la SNCF va-t-elle trop loin ?

Si vous passez par la gare du Nord, la gare de Lyon à Paris, ou la gare Saint Charles à Marseille, vos faits et gestes pourraient être enregistrés par le dispositif de vidéosurveillance algorithmique, testé en ce moment par la SNCF. La Quadrature du Net demande à la CNIL, plainte à l’appui, de faire cesser cette expérimentation qui serait attentatoire à nos libertés et contraire aux lois protégeant les données personnelles et la vie privée.

La SNCF va-t-elle trop loin dans son dispositif de vidéosurveillance algorithmique (VSA), testé en ce moment dans trois gares françaises ? La réponse est positive pour la Quadrature du Net, l’association de défense des droits numériques, qui estime que le dispositif expérimenté est disproportionné et illégal. L’association a porté plainte devant la CNIL, le gardien de nos libertés individuelles, le 2 mai dernier. Elle demande à l’autorité française en charge de la défense de notre vie privée de faire cesser cette expérimentation et de contraindre la SNCF à supprimer les données collectées, sanctions à l’appui.

Depuis février dernier, la SNCF teste l’analyse automatique de ses images de vidéosurveillance. Trois gares de l’Hexagone sont actuellement concernées :

  • la gare du Nord à Paris du 12 février au 30 août 2024 – 100 caméras sont déployées,
  • la gare de Lyon à Paris du 27 mars au 30 août 2024, avec 70 caméras,
  • la gare Saint-Charles à Marseille, du 15 avril au 30 août 2024, 87 caméras à l’appui.

Le projet, appelé « Prevent PCP », vise à permettre aux agents de la SNCF de détecter plus facilement des bagages abandonnés (« délaissés »), et de retrouver leurs propriétaires, comme l’explique l’entreprise ferroviaire sur son site Web.

Pour la SNCF, aucune donnée biométrique n’est collectée

Or, selon la Quadrature du Net, cette expérimentation dépasserait les limites définies par la loi sur les JO de Paris du 19 mai 2023 qui autorise à titre expérimental la VSA en France avant, pendant et après les compétitions, jusqu’en mars 2025. La loi, controversée, a en effet autorisé l’utilisation de ces caméras couplées à des systèmes de détection algorithmiques, une première en Europe. Les dispositifs de vidéosurveillance algorithmique pourront scruter la foule, collecter et analyser les images avant d’alerter les forces de l’ordre si un « comportement anormal » est repéré, précise la réglementation. Les forces de l’ordre pourront alors décider d’agir ou pas.

La loi exclut toutefois toute collecte de données biométriques et toute reconnaissance faciale, un point qui serait bien respecté par la SNCF, selon qui « aucune donnée biométrique n’est traitée durant cette expérimentation », avance l’entreprise sur son site Web. La SNCF précise qu’il s’agit d’un traitement de données « à des fins statistiques », « sur la base de données agrégées et anonymes produites en sortie du traitement », les données analysées étant « non-biométriques (données qui ne relèvent pas des caractéristiques physiques, biologiques, voire comportementales, strictement propres à une personne) », détaille-t-elle.

Mais pour l’ONG, les données physiques ou physiologiques des personnes sont bien collectées et traitées illégalement

La vision des choses n’est pas partagée par l’ONG, qui estime au contraire que la SNCF, à travers ce dispositif de VSA, cherche à « repérer les situations où un bagage serait aban- donné, mais (aussi à) suivre la personne qui a déposé le bagage à travers les différentes caméras connectées au dispositif ». Pour ce faire, le dispositif enregistre et traite « les comportements et le positionnement » des personnes circulant dans les gares, avec pour objectif de « réidentifier » et retrouver les propriétaires de bagages abandonnés. « Cette réidentitification et cette recherche ne sont possibles que par l’analyse par un traitement spécifique des données physiques ou physiologiques des personnes à des fins d’identification unique », estime l’association.

Or de telles données impliquent forcément « des caractéristiques corporelles spécifiques à chaque personne », à savoir la taille, la démarche, les vêtements d’un usager. Il s’agit bien de données biométriques, puisqu’elles permettent d’identifier une personne, plaide la Quadrature du Net dans sa plainte de 29 pages.

Une telle collecte et un tel traitement constituent « une atteinte manifestement disproportionnée au droit à la protection des données personnelles que protègent le RGPD, la directive « police-justice » et la loi Informatique et Libertés », souligne l’ONG, qui explique mener une campagne, dans un communiqué du 2 mai, pour sensibiliser l’opinion publique aux dangers de cette technologie. 

Une technologie qui ne fonctionnerait pas, selon un rapport sénatorial

Depuis des années, la VSA est vivement critiquée par les défenseurs des droits, d’abord parce qu’aucune étude n’a jamais prouvé son efficacité. C’est d’ailleurs ce que pointe du doigt le rapport sénatorial publié en avril dernier. « Nous avons compris, lors du concert de Depeche Mode ayant servi d’expérimentation (de la VSA, NDLR), que l’outil (de vidéosurveillance algorithmique, NDLR) ne fonctionnait pas. Les Jeux olympiques offriront un terrain d’expérimentation supplémentaire, mais en aucun cas il y a là un moyen de sécurisation », soulignait la sénatrice et rapporteure du texte Agnès Canayer (Les Républicains), lors de la présentation du rapport devant le Sénat.

À lire aussi : Match PSG/OL, concert Black Eyed Peas… Voici ce que l’on sait du système de vidéosurveillance augmentée (VSA), déployé à Paris

De l’autre, cette technologie serait attentatoire aux libertés, comme l’expliquait ce collectif d’organisations internationales l’année dernière : « ces mesures de surveillance introduites (…) impliquent des risques inacceptables par rapport à plusieurs droits fondamentaux tels que le droit à la vie privée, le droit à la liberté de réunion et d’association et le droit à la non-discrimination ». Avec cette action, la Quadrature du Net espère faire cesser l’expérimentation de la SNCF et lutter plus largement « pour que l’espace public ne se transforme pas définitivement en lieu de répression policière ». 

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Communiqué de la Quadrature du Net


Votre opinion
  1. La conclusion de la quadrature du net «  pour que l’espace public ne se transforme pas définitivement en lieu de répression policière » me semble inadaptée par rapport au technique et buts ( même cachés … si c’était le cas ) de l’algorithme qui n’identifie pas les personnes au sens d’association avec une l’identité , mais les associent à leur bagage !
    Et dans ce but c’est le bagage qui est l’élément surveillé…
    Donc pas de stress à être filmé ! Surtout que …. Ça marche pas … pas encore …
    Il faudra encore beaucoup d’expérimentations pour arriver à mettre au point ces algorithmes

Les commentaires sont fermés.