• @NuclearPlatypus
    link
    Français
    76 months ago

    Suivi de personnes, maraudage, détection d’intrusion… Depuis 2017, la SNCF a expérimenté plusieurs outils de surveillance des géants français Thales et Atos, mais aussi des sociétés étrangères Briefcam et Anyvision. Ces outils, proches de la reconnaissance faciale, pourraient être expérimentés par la SNCF durant les Jeux olympiques. Malgré des tests aux résultats contrastés.

    Certaines portent une valise direction la Côte d’Azur en TGV, d’autres un simple cartable pour aller au travail avec un train régional. Chaque jour, des centaines de milliers de personnes fourmillent dans les couloirs des gares SNCF. Elles sont encore plus nombreuses lors des fêtes de fin d’année. Durant leur passage en gare, l’ensemble des voyageurs et voyageuses est soumis au regard des 70 000 caméras installées par la SNCF en France : 17 000 dans les gares et 45 000 embarquées dans les trains.

    Lors des Jeux olympiques qui se tiendront en août prochain à Paris, en plus du regard de ces yeux numériques, les citoyen·nes fréquentant les halls des gares pourront être soumis·es à des algorithmes de vidéosurveillance. La loi « Jeux olympiques » du 19 mai 2023 a fixé un cadre à l’expérimentation de ces logiciels jusque-là illégaux. Jusqu’en mars 2025, lors d’événements sportifs et culturels – dont les JO –, la police, la gendarmerie, mais aussi les services de sécurité de la SNCF peuvent coupler ces IA aux caméras pour identifier la présence d’objets abandonnés, un mouvement de foule ou le port d’une arme.

    Des systèmes que le groupe ferroviaire connaît bien. Selon des documents obtenus par Mediapart, il a déjà testé entre 2017 et 2021, avec l’accord de la Commission nationale de l’informatique et des libertés (Cnil), 19 logiciels de vidéosurveillance algorithmique en conditions réelles sur les citoyen·nes fréquentant ses gares. Des projets menés avec les plus grandes multinationales du secteur comme Thales et Atos, les PME françaises Aquilae et XXII ou les sociétés étrangères Anyvision et Briefcam. Sur ces dix-neuf tests, dix ont obtenu un niveau de performance jugé inférieur à 50 % par la SNCF. Contactée, la société n’a pas voulu entrer dans le détail de leur efficacité.

    Initialement, selon des documents consultés par Mediapart, la SNCF a même voulu, pour identifier les comportements, tester une technologie illégale, la reconnaissance faciale. Mais elle n’a pas obtenu de dérogation de la Cnil, qui a rappelé le côté intrusif de cette technologie biométrique. Désireuse de mener son projet à bien, la SNCF s’est donc tournée vers le logiciel de vidéosurveillance algorithmique d’Anyvision, car il n’examine pas, selon elle, une donnée biométrique – le visage d’un individu – mais d’autres caractéristiques non biométriques comme la démarche ou la tenue vestimentaire.

    L’utilisation de ce type de logiciel dans l’espace public n’étant encadrée par aucune législation à cette époque, la SNCF a demandé début 2019 une autre autorisation à la Cnil, qui la lui a cette fois-ci accordée. Par le passé, la SNCF avait déjà testé deux autres algorithmes du même type, ceux de la start-up française XXII et de l’entreprise japonaise Fujitsu. Plusieurs gares ont été concernées par au moins une de ces expérimentations, notamment la gare du Nord, la gare de l’Est, la gare Saint-Lazare, la gare de Lyon-Part-Dieu ou celle de Marseille-Saint-Charles.

    « Ces outils dont le rôle et l’usage sont définis par des termes flous sont particulièrement dangereux », réagit Noémie Levain, juriste au sein de l’association de défense des libertés numériques La Quadrature du Net. Cela signifie que la SNCF délègue la définition d’un comportement anormal d’un citoyen en gare à un algorithme, qui plus est développé par des sociétés pour la plupart issues de l’industrie militaire, dont la définition de la sécurité est nécessairement subjective, politique et repose sur la base d’une vision répressive et discriminante. »

    Depuis 2021, les tests semblent s’être estompés. Dans un document transmis à des parlementaires, la société note que cela coïncide avec un changement de posture de la Cnil, « qui, face au développement de ces technologies et aux premiers déploiements qu’elle a pu constater ces dernières années, a temporisé et lancé une consultation publique ».

    Le résultat de cette consultation a été publié en juillet 2022. La Cnil s’y inquiète des conséquences potentielles du développement massif des outils de vidéosurveillance algorithmique. « Une généralisation non maîtrisée de ces dispositifs, par nature intrusifs, conduirait à un risque de surveillance et d’analyse généralisées dans l’espace public susceptibles de modifier, en réaction, les comportements des personnes circulant dans la rue ou se rendant dans des magasins », note l’autorité administrative.

    Quelques semaines après la publication de cette consultation, dans la nuit du 20 au 21 octobre 2022, la SNCF a mené trois nouvelles expérimentations de vidéosurveillance algorithmique. L’une avait vocation à identifier l’entrée à contresens d’un individu ou son franchissement d’une zone interdite, la seconde une personne se mettant au sol et la dernière le port d’une arme.

    Mentionné dans une mission d’information sur les enjeux de l’utilisation d’images de sécurité dans le domaine public, le retour d’expérience de la Direction des entreprises et partenariats de sécurité et des armes (DPSIS) du ministère de l’intérieur est mitigé, notamment sur le port d’armes. « Les deux solutions mises en œuvre ont présenté des résultats insatisfaisants sur l’ensemble des scénarios de test, avec des taux de détection presque nuls et des dizaines de fausses alarmes », note la DPSIS.

    • @NuclearPlatypus
      link
      Français
      66 months ago

      Concernant le recours à des algorithmes de surveillance durant les Jeux olympiques, la SNCF reste tout aussi évasive. « Le déploiement de ces solutions sera décidé par le ministère de l’intérieur, avec la Cnil comme garante de la bonne application de la loi. Conformément à la réglementation, elles n’utiliseront aucun traitement biométrique et les techniques d’intelligence artificielle resteront une aide à la décision, un opérateur demeurant dans tous les cas responsable des décisions opérationnelles. Par exemple, pour la détection des intrusions dans nos emprises ou des bagages suspects. »

      Selon des documents obtenus par Mediapart, une expérimentation a été « particulièrement emblématique » par son ampleur. Durant plusieurs mois en 2020, la SNCF a passé certains voyageurs à la moulinette d’un logiciel un peu particulier, développé par la firme israélienne Anyvision – renommée en 2021 Oosto. Associés aux caméras, ses algorithmes sont capables de suivre en temps réel une personne sur l’ensemble du réseau, selon différentes caractéristiques. « Le logiciel testé était en version bêta. C’était une solution non biométrique de recherche de personnes basée sur les vêtements », complète Michel*, un salarié impliqué dans le projet.

      Selon les échanges entre la SNCF et la Cnil, le gendarme français des données personnelles, datés de 2018, ce logiciel « aide les opérateurs vidéo de la SNCF à retrouver rapidement une personne dans le temps et dans l’espace ». Ces derniers pourraient ainsi retrouver une personne ayant abandonné un bagage, l’auteur·e d’un délit ou d’un crime ou tout autre personne volontaire.

      Lors du passage de la loi Jeux olympiques devant le Parlement, des eurodéputés s’alarmaient de voir ces systèmes de vidéosurveillance intelligente « créer un précédent de surveillance jamais vu en Europe ». Au contraire, la SNCF ambitionne depuis plusieurs années « de se positionner comme un acteur majeur et incontournable des technologies liées à la vidéo », comme elle l’écrit sur son site internet.

      Cette obsession pour les systèmes de vidéo-intelligence inquiète Katia Roux, chargée de plaidoyer au sein de l’ONG Amnesty International. « Il y a un vrai débat sur le caractère biométrique ou non de ces technologies de vidéosurveillance algorithmique. Une démarche ou un vêtement est un élément qui permet d’identifier concrètement quelqu’un. C’est donc une donnée biométrique. Or, le Règlement général sur la protection des données interdit le traitement de ces données, sauf exceptions. »

      Le nom du partenaire choisi interroge également. La société Anyvision est connue pour ses liens avec le monde militaire israélien. En 2020, son président est Amir Kain, ancien chef du département de la sécurité au ministère israélien de la défense. Tamir Pardo, l’un de ses conseillers, est un ancien chef du Mossad, l’agence de renseignement israélienne. La même année, Microsoft décide de revendre ses parts dans la société, à la suite de la publication d’une enquête de NBC News qui pointe le rôle de l’entreprise dans un programme de surveillance en Cisjordanie.

      Une annonce qui a amené en 2020 Microsoft à revendre ses parts dans Anyvision. Mais qui n’a pas dissuadé la SNCF de mener une expérimentation avec l’entreprise. En 2017, la SNCF a testé un logiciel d’aide à l’investigation d’une autre firme née en Israël, Briefcam. Il y a quelques semaines, le tribunal administratif de Caen a estimé que le recours à ce logiciel par la communauté de communes de Deauville « portait une atteinte grave et manifestement illégale au respect de la vie privée », selon les termes de la décision. La même année, la SNCF a également testé une solution de détection « d’anormalités » du géant français Thales.

      Un logiciel à l’usage flou, dont les algorithmes, couplés à des caméras de videosurveillance, pourraient détecter des citoyens et citoyennes adoptant des « comportements dangereux » dans les gares. Interrogé sur la nature de ces comportements, Thales refuse d’entrer dans le détail, par souci de confidentialité. « Le groupe propose une plateforme digitale de fusion de données hétérogènes pour contribuer à créer des territoires de confiance, des villes plus intelligentes, plus sûres et résilientes. » Même son de cloche chez les entreprises Atos, Anyvision ou Aquilae, qui n’ont pas souhaité répondre à Mediapart.

      « Il y a des questionnements légitimes sur la maturité de ces technologies : est-ce que les policiers ou opérateurs de terrain ont conscience de leur efficacité relative ? Si un policier ne l’est pas et considère que l’IA est infaillible, il peut estimer qu’une zone où il n’y a aucune détection de port d’armes est sécurisée, alors que ce n’est pas forcément le cas, compte tenu des erreurs des logiciels. En l’absence de démarche scientifique d’évaluation de l’impact de ces technologies, il est hasardeux de se positionner sur leur efficacité », détaille le chercheur Guillaume Gormand, auteur d’une enquête sur la vidéosurveillance.

      Les coauteurs de cette mission d’information, les députés Philippe Gosselin et Philippe Latombe, notent également l’efficacité fluctuante de certaines technologies. « Si le comptage d’un flux de spectateurs ou le repérage d’un individu dans une zone interdite correspondent aujourd’hui à des technologies matures, la détection de personnes au sol, d’objets abandonnés, de mouvements de foule ou du port d’une arme présente une relative complexité, en dépit de l’ampleur des progrès technologiques récemment accomplis. » Malgré cette immaturité, ces quatre exemples font partie des comportements autorisés à être analysés par ces systèmes d’IA dans le cadre de la loi Jeux olympiques. Jusqu’en mars 2025, ils peuvent donc être librement testés en temps réel sur les citoyens et citoyennes.

      • Syl ⏚
        cake
        OPM
        link
        Français
        36 months ago

        merci 🙂