Présentés comme des outils permettant de renforcer la sécurité dans les villes, les dispositifs de surveillance algorithmique répondent à un besoin croissant de protection des espaces publics.
C’est dans cette perspective que la ville de Nice a décidé, en 2023, de déployer 77 caméras dites « augmentées », destinées à signaler automatiquement les véhicules stationnés devant les entrées des écoles, dans un objectif affiché de sécurité des établissements scolaires.
Le contrôle de la CNIL : un dispositif à haut risque pour les droits et libertés
Dans le cadre de son plan stratégique 2022-2024, la CNIL avait fait de la thématique des usages des caméras « augmentées » un axe prioritaire. Elle a dans ce cadre procédé à un contrôle dans les locaux de la commune de Nice concernant le traitement mis en œuvre.
Ce type de dispositif étant susceptible d’affecter les conditions d’exercice des droits et libertés des personnes concernées, la CNIL a estimé que des garanties renforcées s’imposaient, notamment :
- La réalisation préalable d’une analyse d’impact relative à la protection des données (AIPD) ;
- Et la saisine de la CNIL pour autorisation, en application de l’article 90 de la Loi Informatique et Libertés.
En effet, le traitement remplissait manifestement les critères imposant la réalisation d’une AIPD, tels qu’une surveillance systématique ou encore, le recours à un usage innovant reposant sur une nouvelle technologie.
Le fonctionnement du dispositif « zone d’intrusion entrées des écoles » en question
Le dispositif mis en œuvre par la ville de Nice reposait sur un algorithme analysant en temps réel les images issues de caméras de vidéoprotection installées sur la voie publique, afin :
- De détecter automatiquement la présence de véhicules stationnant irrégulièrement devant les écoles pendant les horaires d’ouverture ;
- Et d’alerter les services de police municipale pour prévenir des troubles d’ordre public.
Pour la CNIL, cette finalité d’intervention immédiate posait difficulté.
Tout véhicule stationnant devant une école déclenchait automatiquement une alerte, susceptible d’aboutir à un contrôle, sans base légale claire ni infraction caractérisée.
Si l’objectif affiché était la protection des entrées des écoles, ce dispositif avait pour contrepartie une surveillance généralisée des personnes se garant à proximité, indépendamment de tout comportement suspect.
Base légale et proportionnalité : un double test non satisfait
Pour être licite, un tel traitement devait satisfaire à deux conditions cumulatives :
- Reposer sur une base légale explicite ;
- Etre proportionné au but poursuivi.
Or, dans le cas présenté devant le Conseil d’Etat, le dispositif ne franchissait pas la première étape.
La ville de Nice invoquait l’article L. 251-2 du Code de la sécurité intérieure, qui autorise la mise en œuvre de systèmes de vidéoprotection sur la voie publique pour certaines finalités (protection des bâtiments, constations d’infractions via la vidéo-verbalisation ou encore la prévention des atteintes à la sécurité des personnes).
Toutefois, ce texte n’autorise pas l’adjonction d’un traitement algorithmique d’analyse automatisée des images. Le Conseil d’Etat rappelle à cette occasion qu’un texte de police administrative ne peut faire l’objet d’une interprétation extensive.
Pour l’heure, seule la loi du 19 mai 2023 relative aux Jeux olympiques et Paralympiques autorisait à titre expérimental et pour une durée limitée jusqu’au 31 mars 2025, le recours à des traitements algorithmiques d’analyse d’images. Cette expérimentation était strictement cantonnée à des hypothèses précises :
La sécurité de manifestations sportives, culturelles ou récréatives particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes.
La commune de Nice ne pouvait manifestement pas s’appuyer sur ce texte comme base légale pour justifier le traitement algorithmique.
Confirmation de l’absence de base légale par le Conseil d’Etat
Par sa décision du 30 janvier 2026, le Conseil d’Etat confirme, au regard des éléments précités, la délibération n°2025-032 du 15 mai 2025 de la CNIL.
Il juge en effet qu’en l’état actuel du droit, les collectivités territoriales ne disposent d’aucune base légale leur permettant de recourir à des traitements algorithmiques d’analyse automatisée des images issues de la vidéoprotection, en dehors des dispositifs expressément autorisés par la loi.
La commune soutenait que le traitement ne relevait pas des systèmes d’IA à haut risque au sens du règlement européen sur l’IA (AI Act). Le Conseil d’Etat écarte cet argument : le problème n’est pas la qualification du système d’IA, mais bien le traitement de données à caractère personnel et les risques qu’il fait peser sur les personnes concernées.
Une décision aux enjeux démocratiques forts
L’usage des caméras augmentées comporte des risques importants en cas de dérive, en particulier lorsqu’il permet de déclencher des contrôles ou interventions en l’absence de toute infraction définie par la loi.
Cette décision rappelle que toute infraction ou mesure de police doit reposer sur un fondement légal explicite, et qu’il appartient au seul législateur de définir les conditions dans lesquelles de tels dispositifs pourraient être autorisés afin de protéger les droits et libertés des personnes.
En l’absence d’un texte spécifique encadrant précisément ce type de traitement, notamment la surveillance automatisée des véhicules stationnés aux abords des écoles, il apparaît que les collectivités territoriales ne peuvent pour l’heure légalement pas mettre en place de telles pratiques.
***
Le cabinet HAAS Avocats est spécialisé depuis trois décennies en droit des nouvelles technologies et de la propriété intellectuelle. Il accompagne de nombreux acteurs du numérique dans le cadre de leurs problématiques judiciaires et extrajudiciaires relatives au droit de l’IP/IT. Dans un monde incertain, choisissez de vous faire accompagner par un cabinet d’avocats fiables. Pour nous contacter, cliquez ici.
