01 56 43 68 80

6, Rue de Saint-Petersbourg, 75008 Paris

Sécurité des espaces publics et réverbères dopés à l’IA : quels risques juridiques ?

Les élections pour la Ville de Paris sont en pleine effervescence. Un climat toujours propice aux innovations dans les propositions politiques…
Reverbère intelligent dans une rue sombre, illustrant la sécurité urbaine et l'usage de l'intelligence artificielle pour la surveillance et la gestion des espaces publics.

C’est dans ce cadre que, pour renforcer la sécurité dans les espaces publics, certains candidats envisagent le déploiement de réverbères intelligents équipés de capteurs et pilotés par l’intelligence artificielle (IA).

Déjà effectifs dans des villes comme Los Angeles, ces dispositifs sont potentiellement capables de détecter en temps réel des crimes et délits (cris de détresse, bris de verre, coups de feu) et de déclencher automatiquement des alertes.

L’IA qui les pilote a été entraînée sur des millions de scénarios pour reconnaître avec précision les situations d’urgence et permettre une intervention rapide.

Fonctionnement des réverbères intelligents à IA : analyse de ces systèmes

Ce type de technologie a pour objectif un véritable atout pour les villes : non seulement il contribue à prévenir les agressions et à protéger les citoyens, mais il permet également de renforcer la confiance dans l’espace public, d’optimiser la réponse des forces de l’ordre et de valoriser l’image de la ville comme innovante et sécurisée.

Le pitch de fonctionnement est le suivant : dès qu’un incident suspect est détecté par les capteurs des réverbères intelligents (cris de détresse, bris de verre ou coup de feu) le système déclenche immédiatement une réaction « visible et dissuasive ». L’intensité lumineuse du réverbère le plus proche augmente brutalement et est dirigée vers l’agresseur pour l’exposer.

Parallèlement, dès la détection d’un incident, la patrouille de police municipale la plus proche serait alertée et pourrait intervenir immédiatement sur les lieux.

Acceptabilité sociale des réverbères intelligents : une surveillance perçue comme moins intrusive ?

L’absence de captation globale de sons et d’images, combinée au fait que ces réverbères intelligents se fondent naturellement dans le paysage urbain, contribue à ce que le dispositif soit perçu comme moins intrusif que d’autres technologies de surveillance par les personnes concernées.

En ce sens, contrairement à la vidéosurveillance (classique ou algorithmique) ou à la surveillance sonore généralisée, qui peuvent susciter un sentiment d’être constamment observé, ces réverbères sont vus comme ne collectant des informations que dans des situations précises et ciblées, lorsqu’un incident est détecté.

Quels risques pour la vie privée ?

Si les réverbères intelligents anti-agression semblent présenter des atouts indéniables en matière de prévention et de dissuasion, ils ne sont pas pour autant dépourvus de risques pour la vie privée des personnes concernées.

Risque de collecte excessive : minimisation des données au regard du RGPD

La mise en œuvre de dispositifs fondés sur l’intelligence artificielle et des capteurs environnementaux implique nécessairement la collecte et le traitement de données, dont certaines peuvent relever de la sphère personnelle, voire sensible.

En effet, le fonctionnement de ces systèmes repose sur une forme d’écoute dite « flottante », destinée à capter les signaux sonores environnants afin d’identifier des situations anormales. Même si l’objectif affiché est la détection d’événements précis (cris de détresse, bris de verre, coups de feu), ce type de captation peut, par nature, conduire à l’enregistrement de données ne correspondant pas strictement aux finalités initiales, telles que des conversations, des voix ou des sons de la vie quotidienne.

Un entrainement secondaire de l’algorithme de l’IA : quels enjeux juridiques ?

Par ailleurs, afin d’entraîner, d’améliorer ou d’affiner les algorithmes d’intelligence artificielle, il est fréquent que des données soient conservées ou réutilisées à des fins d’apprentissage. Il n’est d’ailleurs pas exclu que le fournisseur d’IA[1] effectue ce traitement de manière cachée.

Le risque est alors de voir des données collectées pour une finalité autre que la seule détection d’incidents.

La sécurisation globale des données enregistrées : les obligations RGPD des collectivités

Les modalités d’enregistrement, de sécurisation et de transfert des données constituent également un point de vigilance majeur…

Les collectivités peuvent être exposées à des risques juridiques et techniques importants en cas de faille de sécurité ou de non-conformité réglementaire[2] en raison notamment de :

  • L’absence de clarté sur la durée de conservation ;
  • Mesures de sécurité lacunaires ;
  • Localisation à risques des serveurs associée ou non à des transferts hors de l’Union européenne (Ex : Etats Unis, etc).

Quels fondements légaux pour les réverbères intelligents ?

Ces dispositifs s’inscrivent dans un contexte juridique encore insuffisamment encadré, en l’absence de texte spécifique définissant précisément leurs conditions de déploiement, leurs limites techniques et les garanties à offrir aux citoyens.

Cette lacune normative renforce l’incertitude juridique pour les communes et impose une vigilance accrue…

Conformité RGPD et AI Act : quelles mesures à mettre en place ?

Afin de diminuer le risque technique et juridique, plusieurs mesures sont notamment possibles selon les modalités techniques mises en œuvre à travers le dispositif d’IA :

MesureObjectif / Description
Minimisation des données·       Limiter la collecte aux seules informations nécessaires à la détection d’incidents précis (cri, bris de glace, coup de feu) ;

·       Éviter l’enregistrement des données et privilégier la simple captation en temps réel ;

·       Eviter de collecter les données pour entraîner l’algorithme.

Encadrement contractuel avec le prestataireDéfinir clairement les obligations du fournisseur d’IA/prestataire en matière de protection des données, sécurité, localisation des serveurs, transferts de données et conformité réglementaire à travers un contrat dédié[3].
Mesures organisationnelles internesMettre en place des procédures pour encadrer l’usage des dispositifs, définir des responsabilités, former le personnel (PSSI, politique de gestion des incidents, politique d’habilitation, PCA, etc)[4].
Transparence vis-à-vis des personnes concernéesInformer clairement les citoyens sur le dispositif, les données collectées, les finalités et leurs droits, via panneaux explicatifs, notices ou supports numériques[5].
Analyse d’impact sur la protection des données (AIPD)[6]Évaluer les risques pour la vie privée, identifier les mesures juridiques, techniques et organisationnelles pour les réduire, et documenter ces démarches.

On pourrait donc imaginer que, en cas d’intégration de ces réverbères dopés à l’IA, cette dernière doit donc s’accompagner d’une stratégie rigoureuse et vigilante, notamment sur le plan juridique et technique.

À la vue des risques afférents, seule une démarche anticipative et structurée permettra de concilier innovation, efficacité opérationnelle et respect des droits des personnes, et de faire que ce type de dispositif soit sécurisé. Affaire à suivre…

***

Le cabinet HAAS Avocats est spécialisé depuis trente ans en droit des nouvelles technologies et de la propriété intellectuelle. Il accompagne les acteurs du numérique dans le cadre de leurs problématiques judiciaires et extrajudiciaires relatives au droit de la protection des données et de l’intelligence artificielle. Dans un monde incertain, choisissez de vous faire accompagner par un cabinet d’avocats fiables. Pour nous contacter, cliquez ici.

[1] Au sens de l’article 3 du RIA

[2] Article 32 du RGPD

[3] Article 28 du RGPD

[4] Article 4 du RIA et 32 du RGPD

[5] Articles 12 à 14 du RGPD

[6] Articles 35 et 36 du RGPD