La prolongation de l’expérimentation de la vidéoprotection algorithmique jusqu’au 31 décembre 2027, inscrite à l’article 35 du projet de loi relatif à l’organisation des Jeux olympiques et paralympiques de 2030, s’inscrit dans une logique de continuité plus que de rupture. Le texte reconduit, « dans les mêmes termes », un dispositif déjà testé lors des Jeux de Paris 2024, sans élargissement de ses finalités ni de ses capacités techniques. Pour autant, la lecture attentive des travaux parlementaires révèle un cadre encore fragile, marqué par des limites opérationnelles, territoriales et calendaires que la rapporteure elle-même souligne.
Une reconduction juridiquement prudente
Le choix d’une prolongation jusqu’à fin 2027, soit plus de deux ans après la fin officielle de l’expérimentation initiale (31 mars 2025), repose d’abord sur une contrainte constitutionnelle. Le rapport rappelle explicitement l’article 37-1 de la Constitution, qui encadre strictement les dispositifs expérimentaux dans le temps. Cette borne temporelle vise à maintenir la conformité du dispositif, mais elle introduit une incohérence assumée : l’expérimentation s’achèvera plus de deux ans avant la tenue effective des Jeux d’hiver de 2030.
Ce décalage n’est pas anodin. Il empêche, en l’état, tout usage direct de la vidéoprotection algorithmique lors des Jeux eux-mêmes, sauf à prévoir ultérieurement une nouvelle base législative. Le texte ne préjuge donc en rien d’une pérennisation du dispositif, et encore moins de son extension structurelle dans le droit commun.
Un retour d’expérience jugé insuffisant
Le rapport est particulièrement clair sur un point : les conditions dans lesquelles la vidéoprotection algorithmique a été déployée en 2024 n’ont pas permis d’en évaluer pleinement l’utilité opérationnelle. Les bilans disponibles, y compris celui du comité d’évaluation transmis au Parlement début 2025, convergent vers le même constat : le dispositif a été utilisé dans un périmètre restreint, principalement en Île-de-France, sur des sites très spécifiques, avec des cas d’usage définis de manière étroite.
Les huit situations à risque détectables par les algorithmes (objets abandonnés, mouvements de foule, franchissement de zones interdites, départs de feu, densité excessive de personnes, notamment) n’ont donné lieu à aucun automatisme décisionnel. Les signalements produits n’avaient pas de valeur opérationnelle autonome et ne pouvaient fonder ni interpellation ni poursuite. Cette architecture volontairement limitative, pensée pour préserver les libertés publiques, a aussi réduit la portée concrète de l’expérimentation.
Une technologie encore peu appropriée par les territoires
L’un des enseignements les plus structurants du rapport tient à la faible appropriation territoriale du dispositif. La rapporteure insiste sur la nécessité de sortir d’un usage concentré sur quelques acteurs institutionnels et quelques zones urbaines denses. Les Jeux d’hiver de 2030, par nature dispersés sur deux régions, avec des sites majoritairement en milieu montagnard et en plein air, constituent un contexte radicalement différent.
Cette spécificité géographique pose plusieurs questions techniques : couverture des zones étendues, adaptation des cas d’usage à des espaces ouverts, fiabilité des algorithmes dans des environnements soumis aux aléas climatiques et topographiques. Le rapport évoque explicitement plusieurs événements intermédiaires, sommet du G7, championnats du monde de cyclisme, congrès nationaux, comme autant de terrains possibles pour tester ces adaptations, à condition que les textes d’application le permettent.
Un encadrement maintenu, sans inflexion technologique
Sur le fond, l’article 35 ne modifie ni la nature des traitements autorisés ni les garanties associées. Le rapport rappelle avec insistance que la vidéoprotection algorithmique demeure strictement distincte de toute reconnaissance biométrique ou faciale. Aucun traitement d’identification individuelle n’est autorisé, aucun rapprochement automatisé avec d’autres bases de données n’est possible, et aucune interconnexion n’est prévue.
Le rôle de la Cnil reste central, tant sur le plan du contrôle que de l’accompagnement des acteurs. L’ANSSI conserve, de son côté, une mission de supervision en matière de cybersécurité des systèmes déployés. Le Sénat a toutefois introduit une évolution notable : l’accès aux signalements issus des traitements algorithmiques est étendu aux agents des communes, des établissements publics de coopération intercommunale et des syndicats mixtes, sous la supervision d’un agent de police municipale. Cette ouverture traduit une volonté de territorialisation, sans remise en cause du principe de contrôle humain.
Une expérimentation sous contrainte de crédibilité
En filigrane, le rapport exprime une inquiétude : celle de voir l’expérimentation se prolonger sans inflexion réelle, au risque de nourrir un sentiment de déconnexion entre l’outil testé et les besoins opérationnels futurs. La rapporteure insiste sur la nécessité d’éviter une reconduction « sans inflexion » d’un cadre qui a montré ses limites. L’enjeu n’est pas tant de prolonger pour prolonger, que de produire des enseignements exploitables, tant sur le plan technique que sur celui de la gouvernance.
À ce stade, la vidéoprotection algorithmique demeure un dispositif juridiquement encadré, technologiquement bridé et politiquement sensible. Sa prolongation jusqu’en 2027 ne constitue ni une validation définitive ni un basculement stratégique. Elle ouvre une fenêtre de temps supplémentaire, étroite et conditionnelle, pour démontrer une utilité réelle dans des contextes variés. À défaut, la question de son devenir au-delà de l’expérimentation restera entière.








