867/1153
Date : 15-01-2025 20:29:19
DES S.D.F. PRIS POUR DES COLIS SUSPECTS - Le bilan mitigé de la vidéosurveillance algorithmique aux J.O. de Paris 2024 :
Ses conclusions étaient très attendues par les autorités et les associations de défense des libertés. Remis au ministère de l'Intérieur le 14 janvier, le rapport du comité d’évaluation concernant l'efficacité de la vidéosurveillance algorithmique expérimentée lors des Jeux olympiques de Paris 2024 dresse un bilan mitigé.
Plusieurs médias comme Le Monde, La Croix ou France Info ont publié ce mardi 15 janvier un aperçu des limites et des réussites du mécanisme mis en place par le gouvernement. Ces résultats inégaux tranchent avec la volonté indéfectible affichée par les autorités de généraliser en 2025 l'utilisation de ces technologies présentées comme un remède au manque de moyens humains pour repérer des comportements jugés suspects ou à risque, comme les mouvements de foule, les chutes, les colis abandonnés ou les véhicules à contresens, lors des événements de grande et moyenne envergure.
Lors de son discours de politique générale, l'ancien Premier ministre, Michel Barnier, affirmait en octobre vouloir généraliser la vidéosurveillance algorithmique. Matignon indiquait alors attendre les conclusions du rapport d'évaluation pour prendre sa décision. Le préfet de police de Paris Laurent Nunez s'était dit lui aussi favorable "sur le plan personnel" à la pérennisation du dispositif devant les députés fin septembre, estimant qu'il avait "montré son utilité". Ce rapport est-il de nature à faire évoluer leur position ? Sollicités par RTL, ni le ministère de l'Intérieur, ni le cabinet du Premier ministre n'avaient donné suite à nos questions à l'heure où était publié cet article.
>>> Plus d'erreurs dans les espaces ouverts, plus efficace dans les couloirs du métro :
Dans les aspects positifs, les performances techniques du dispositif sont jugées comme "globalement satisfaisantes" dans certaines situations comme "l’intrusion d’individus ou de véhicules dans une zone non autorisée, la circulation dans un sens non autorisé, ou encore la densité de personnes". Malgré tout, on peut noter quelques réserves dans la catégorisation des individus, "le logiciel a parfois eu du mal à comptabiliser un nombre d’individus trop resserrés (...) en raison de la hauteur d’emplacement des caméras". Ce n'est d'ailleurs pas le seul facteur urbain qui fait défaut à la vidéosurveillance algorithmique.
Autre constat : la luminosité et la nature du lieu s'avèrent très déterminantes dans l'efficacité du processus de vidéosurveillance. Le comité estime, notamment, que la VSA est, "moins efficace quand il y a peu d'éclairage" et que les résultats sont plus pertinents "dans les espaces clos ou semi-clos, notamment les couloirs du métro et les gares, par rapport aux résultats observés dans les espaces ouverts".
Il semble que la surveillance des zones trop denses et dégagées amène un grand nombre de faux positifs. La détection des feux, ou des chutes, trahit d'ailleurs, selon le rapport, "une faible maturité technologique" des algorithmes confondant parfois les devantures de magasin ou les phares de voiture pour des incendies.
>>> Une identification potentiellement disciminatoire :
L'identification des objets fixes ou en mouvement est l'un des points les plus problématiques du rapport. Si la détection d’intrusion en zone interdite fait l'unanimité, notamment pour identifier les personnes sur les voies, les mouvements de foules posent plus de problèmes. Il est singulièrement "délicat de définir des mouvements de regroupement ou de dispersion rapide" d'après le rapport.
Le repérage des objets suspects ou abandonnés offre pour sa part des performances jugées "très inégales". Le mobilier urbain (banc, panneaux) est par exemple catégorisé comme suspect trop régulièrement. Il arrive aussi que les personnes immobiles ou assises sont par ailleurs elle-même assimilées sur les images comme des objets. C'est particulièrement le cas des sans domicile fixe qui ont été considérés nombre de fois par les machines comme des "colis abandonnés".
Ce dernier point fait réagir Amnesty International qui alerte RTL sur ces "technologies dites neutres qui sont conçues par des humains et peuvent apporter des biais dans leur jugement". Katia Roux, chargée de plaidoyer chez Amnesty, souligne que l'organisme n'est pas surpris des résultats peu satisfaisant de la technologie de vidéosurveillance algorithmique, ayant "déjà été alertée sur le manque d'efficacité de ces outils". L'organisation non gouvernementale s'oppose fortement à ce type de surveillance, vue comme une menace pour les libertés individuelles. “Il y a déjà une volonté politique de pérenniser un système discriminatoire” insiste par ailleurs Katia Roux.
>>> L'abandon ou la généralisation du dispositif relève du politique :
Ce rapport d'une centaine de pages admet aussi ses propres limites, écrit La Croix : le faible nombre d'interventions permises par le dispositif et son temps d'évaluation "relativement court" de neuf mois n'ont pas pleinement permis d'en apprécier l'intérêt opérationnel", écrit le comité, qui souligne à ce titre qu'il ne dispose pas des éléments nécessaires pour soutenir ou non sa généralisation. Le comité rappelle que "l'abandon, la prolongation ou la pérennisation" du système relève d'"un choix politique" qui ne relève pas de sa mission. En cas de généralisation, le comité estime toutefois important que "le législateur" sanctuarise plusieurs principes généraux, comme "le contrôle des parlementaires en amont et le renvoi à des projets de décrets soumis à la CNIL". Le comité réaffirme aussi "l'interdiction de la reconnaissance faciale en dehors du cadre judiciaire", rapporte FranceInfo.
|