Vers une généralisation de la surveillance algorithmique testée pendant les JO?

Attention, vous êtes filmé! Les caméras intelligentes sont déjà là, elles vous suivent à la trace, en temps réel, et ça ne va pas s'arrêter là. Grâce à la "magie" de l’intelligence artificielle, la vidéosurveillance algorithmique ou biométrique se développe.
Prenez des caméras de surveillance classiques, ajoutez-y un logiciel intelligent, et vous obtenez des supers caméras augmentées, capables de détecter des situations à risque.
Ces caméras sont programmées pour repérer des événements précis: un départ de feu, un objet abandonné, un mouvement de foule, une arme, une personne à terre, des voitures à contresens. L’algorithme analyse en temps réel les images qu’il reçoit, il les compare à des scénarios types stockées en mémoire. Puis la machine donne l’alerte à un agent, l’être humain garde la main. Et comme toute intelligence artificielle, elle apprend de ses erreurs, se perfectionne au fil du temps notamment grâce à l’agent qui lui dit si elle a bien travaillé.
Un héritage des JO 2024
La vidéosurveillance algorithmique est un héritage des JO 2024. C’est pour sécuriser l'événement que le système a été pensé et autorisé par une loi de mai 2023. Il s’est appuyé sur le réseau de 185 caméras fixes déjà en place à Paris. Le gouvernement a confié l’installation de l’algorithme et la formation des agents à quatre entreprises françaises, pour un montant de 8 milliards d’euros.
Le système devait initialement être expérimenté jusqu’au 31 mars 2025. Il sera donc a priori prolongé. L’objectif pour les forces de l’ordre, in fine, c’est de gagner en réactivité en cas d'incident ou de menace. Et le premier bilan dressé par la préfecture de police de Paris est positif et pousse au développement de cette méthode.
Quid des libertés fondamentales?
En termes d’innovation technologique, c'est impressionnant. Mais en termes de libertés, ça pose question quand même. La ligne rouge pour bon nombre de défenseurs des libertés, c’est la reconnaissance faciale. La loi ne l’autorise pas mais elle ne l’interdit pas non plus. La machine n’est pas prévue pour analyser votre visage, le stocker et le comparer. Mais ça ne signifie pas qu’elle n’en est pas capable.
Cette brèche législative inquiète Amnesty International France. L’ONG réclame l'adoption d’un texte qui interdise purement et simplement la reconnaissance faciale, “pour protéger l’anonymat dans l’espace public”.
Le gouvernement n’est pas le seul à avoir accès à la vidéosurveillance algorithmique
Vous ne le savez peut-être pas mais la SNCF teste aussi le dispositif. Dans deux gares parisiennes, gare du Nord et gare de Lyon, ainsi qu’à la gare Saint-Charles à Marseille, les caméras enregistrent en continu les usagers et analysent leurs comportements, leurs vêtements, leur démarche. Elles peuvent ainsi tracker un voyageur qui oublierait un bagage sur le quai et le suivre à la trace, en temps réel. Pratique ou effrayant, à vous de voir.
L’association La Quadrature du net à déposé un plainte auprès de la CNIL, pour atteinte à la vie privée et aux données personnelles.
Un comité d’évaluation de toutes ces expérimentations doit remettre son rapport au Parlement d’ici la fin de l’année. Et quoi qu’il en soit, une nouvelle loi devra être votée d’ici le 31 mars prochain, si le gouvernement veut pérenniser les caméras intelligentes.