La législation française adoptée en 2023 autorise l’utilisation de la surveillance vidéo par IA pour une période d’essai couvrant les Jeux afin de détecter des événements anormaux ou des comportements humains lors d’événements de grande envergure.
La technologie pourrait être essentielle pour déjouer une attaque comme le bombardement des Jeux Olympiques de 1996 à Atlanta ou l’attaque au camion de Nice en 2016, selon les officiels.
Les militants des droits de l’homme avertissent que la technologie représente une menace pour les libertés civiles.
QU’EST-CE QUE LA SURVEILLANCE ALIMENTÉE PAR IA?
La surveillance vidéo algorithmique utilise des logiciels informatiques pour analyser en temps réel les images capturées par des caméras de surveillance vidéo.
Quatre entreprises — Videtics, Orange Business, ChapsVision et Wintics — ont développé des logiciels IA qui utilisent des algorithmes pour analyser les flux vidéo provenant de systèmes de surveillance vidéo existants pour aider à identifier les menaces potentielles dans les espaces publics.
Les algorithmes sont entraînés à détecter des « événements » prédéterminés et des comportements anormaux et à envoyer des alertes en conséquence. Des êtres humains décident ensuite si l’alerte est réelle et s’il faut agir en conséquence.
QUE CHERCHERONT LES ALGORITHMES?
La loi autorise huit différents « événements » à être signalés par le logiciel de surveillance IA pendant les Jeux, qui incluent : mouvements de foule; foules anormalement denses; objets abandonnés; présence ou utilisation d’armes; une personne au sol; un incendie éclatant; infraction aux règles de direction du trafic.
Dans ces catégories, des seuils spécifiques (nombre de personnes, type de véhicule, timing, etc.) peuvent être définis manuellement pour chaque événement, lieu ou menace individuelle.
QUI UTILISERA LA SURVEILLANCE ALIMENTÉE PAR IA?
La police nationale et locale, les pompiers, les agents de sécurité des transports publics auront tous accès à la surveillance alimentée par IA.
Le logiciel développé par Wintics et testé lors du concert de Depeche Mode, sera déployé dans la région parisienne et dans les transports publics.
Le chef de la police de Paris, Laurent Nunez, a décrit l’essai comme largement réussi.
« Tout s’est relativement bien passé, tous les feux sont au vert (pour une utilisation future) », a-t-il déclaré.
LA RECONNAISSANCE FACIALE SERA-T-ELLE UTILISÉE?
Elle ne devrait pas l’être. La nouvelle loi continue d’interdire la reconnaissance faciale dans la plupart des cas et les autorités françaises ont déclaré qu’il s’agissait d’une ligne rouge à ne pas franchir.
Néanmoins, les militants des droits s’inquiètent du risque de dérive missionnaire à l’avenir.
« Les logiciels permettant la surveillance vidéo alimentée par IA peuvent facilement permettre la reconnaissance faciale. C’est simplement un choix de configuration », a déclaré Katia Roux d’Amnesty International France.
Le cadre juridique réglementant la reconnaissance faciale reste trop flou et les garanties techniques et juridiques sont insuffisantes, selon Amnesty International.
Matthias Houllier, co-fondateur de Wintics, a déclaré que les algorithmes de son logiciel n’étaient pas entraînés pour la reconnaissance faciale.
« Il n’y a aucune méthode d’identification personnelle dans nos algorithmes », a-t-il dit. « C’est techniquement exclu. »
COMMENT LA VIE PRIVÉE SERA-T-ELLE PROTÉGÉE?
Le ministère de l’Intérieur français a créé un comité d’évaluation pour surveiller les libertés civiles tout au long de la période d’essai.
Dirigé par un haut fonctionnaire de la plus haute cour administrative de France, le comité comprend également le chef de la CNIL, le gardien de la vie privée du pays, quatre lég