01 56 43 68 80

6, rue de Saint-Petersbourg, 75008 Paris

#Data : L’AI au secours de l’enquête criminelle

Logo HAAS 2022

Les affaires criminelles non résolues font tristement légende en matière pénale. Mais le développement de l’intelligence artificielle et son utilisation dans l’enquête pénale vont peut-être changer les choses. C’est ainsi que l’affaire Grégory (retrouvé mort dans la Vologne le 16 octobre 1984) vient d’être réouverte, grâce aux découvertes d’ANACRIM, logiciel d’intelligence artificielle.
De nouvelles pistes, de nouveaux suspects…l’AI révolutionne les méthodes de police en pointant les contradictions qu’elle n’avait pas vues, en faisant les liens qu’elle n’avait pas fait…

1/ Contexte
Après les Américains dans les années 70, puis les Anglais et les Belges, les Français se mettent aussi à utiliser cette méthode. Aujourd’hui, ils utilisent le logiciel ANB (Analyst’s Notebook), créé dans les années 90 par la société I2 (rachetée depuis par IBM) et dénommé ANACRIM en France (pour analyse criminelle).
Pour fonctionner, le logiciel doit être nourri de toutes les informations relatives à l’enquête, extraites des différents dossiers existants par les analystes : procès-verbaux, expertises, témoignages, interrogatoires, écoutes téléphoniques…
Une fois ce travail fastidieux effectué, la machine traite la totalité des données pour mettre en lumière ce qui avait pu échapper aux hommes et femmes du terrain, relégués les uns après les autres au cours des nombreuses années que peut durer l’enquête.
Le logiciel construit alors deux bases de données consultables sous forme de graphique à plusieurs entrées :

  • Une base relationnelle tissant un réseau entre tous les protagonistes,
  • Une base évènementielle tissant un lien chronologie entre les entités (personnes ou objets tels que véhicules).

Evolutif, le logiciel rapproche désormais les entités concordantes : un même nom orthographié différemment, par exemple.
Ainsi, les enquêteurs peuvent interroger le logiciel de toutes les hypothèses possibles concernant une personne ou un véhicule et vérifier les probabilités selon lesquelles cette hypothèse a pu avoir lieu.  
Aujourd’hui, le but est d’automatiser la saisie grâce au fonctionnement de deep learning du logiciel : celui-ci doit pouvoir lire des pièces de procédure, comprendre la nature des données (numéros de téléphone, plaques d’immatriculation, dates…) et les mettre en relation.
En Angleterre, ce sera au tour de VALCRI d’être testé : ce nouveau logiciel d’IA peut lire les rapports de police, les expertises, les notes manuscrites de policiers, les vidéos de surveillance, les relevés automatiques de plaques minéralogiques.
 
2/ Efficacité policière Vs libertés individuelles
Il est indéniable que l’intelligence artificielle permet de poser un regard neuf sur une scène de crime.
Mais son mode de fonctionnement soulève d’autres questions, à l’instar de Person of Interest :

  • La résolution des crimes implique-t-elle la surveillance de masse ?
  • La résolution des crimes implique-t-elle le profiling automatisé ?

 
3/ Mission de service public et d’intérêt général
Le propre du deep learning, procédé le plus utilisé pour créer de l’AI, est l’apprentissage par la collecte et le traitement du Big Data. C’est la mise en œuvre des cinq V : volume, variété, vélocité, véracité, valeur. Dès lors, l’on peut se poser la question de la protection des données personnelles ainsi récoltées et traitées, à l’instar du Parlement européen dans sa Résolution du 16 février 2017 2015/2103 (INL), notamment au regard des grands principes à mettre en œuvre à l’aune de l’application prochaine du Règlement européen pour la protection des données (RGPD) du 27 avril 2016 et en vigueur le 25 mai 2018 : consentement préalable, minimisation des données, limitation des finalités, principe de nécessité, principe de proportionnalité, privacy by design, privacy by default…   
De même, l’enregistrement d’une multitude d’informations personnelles et nécessairement sensibles relatives à une enquête criminelle, leur traitement dans le but de tisser informatiquement des liens permettant l’émergence de nouveaux suspects et la création in fine par l’AI de fiches de suspects posent la question du droit des personnes concernées par ces fichiers de connaître leur existence ou leur contenu ou d’en demander la mise à jour ou la suppression.
Ces droits de la personne concernée par un traitement automatisé ont été renforcés et augmentés par le RGPD et le profilage y est décrit à l’article 4.4 RGPD comme toute forme de traitement ou décision automatisée fondée sur le seul traitement de données personnelles visant à évaluer la personnalité d’une personne physique par l’analyse ou la prédiction d’éléments la concernant (santé, préférences, intérêts, situation économique, travail, localisation…).
Exemple de profilage : Dans le cadre d’achats de produits en ligne (vêtements, livres, transports…), les plateformes peuvent recueillir plusieurs données issues du comportement de l’acheteur : horaires habituels de connexion, durée passée à consulter le site, pages, vendeurs et/ou produits consultés, quantité moyenne de produits commandés dans le mois, prix moyen par commande et par produit, style de produits, etc. Ces données permettent d’établir un « profil » de l’acheteur, de créer une fiche sur ses goûts, ses habitudes, ses moyens financiers ; profil qui sera utilisé afin d’orienter la publicité qui s’affichera sur son écran lors de ses prochaines connexions, ou de lui conseiller des produits similaires sur son compte client, ceci dans un but marketing évident. Concrètement, l’internaute qui a tendance à acheter en ligne des disques vinyles de chanteurs des années 70 pourra se voir proposer des produits similaires ou proches, dans un onglet souvent intitulé « Ceux qui ont acheté ce produit ont aussi aimés ces produits », tels que des disques vinyles de chanteurs des années 60.   
En principe, l’article 22 permet de s’y opposer.
Toutefois, ces principes et ces droits s’appliquent-ils en cas de surveillance et de profilage criminologique à des fins de résolution d’enquêtes criminelles ?
L’article 23 du RGPD prévoit que ces principes et ces droits peuvent être limités pour garantir :

  • « La prévention et la détection d’infractions pénales, ainsi que les enquêtes et les poursuites en la matière ou l’exécution de sanctions pénales, y compris la protection contre les menaces pour la sécurité publique et la prévention de telles menaces » (article 23 d) RGPD)
  • « La protection de la personne concernée ou des droits et libertés d’autrui » (article 23 f) RGPD).

L’article 23.2 RGPD ajoute que le droit de l’Etat membre de l’Union européenne qui instaure de tels fichiers dans ces buts bien définis doit au moins définir les « finalités du traitement, les catégories de données à caractère personnel, l’étendue des limitations introduites, les garanties destinées à prévenir les abus ou l’accès ou le transfert illicites, la détermination du responsable du traitement ou des catégories de responsables du traitement, les durées de conservation et les garanties applicables, en tenant compte de la nature, de la portée et des finalités du traitement ou des catégories de traitement, risques pour les droits et libertés des personnes concernées et le droit des personnes concernées d’être informées de la limitation, à moins que cela risque de nuire à la finalité de la limitation ».
Ainsi, en l’espèce, ANACRIM peut être utilisé sans obtenir le consentement des personnes, sans les informer de ce traitement, et sans leur donner de droit de rectification.
A l’évidence, comme pour toute mesure d’ordre pénal limitant les libertés fondamentales (article 9 de la Déclaration des droits de l’homme et du citoyen, article 6 de la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales, article préliminaire du Code de procédure pénale), la limitation des droits du RGPD, composante du droit à la vie privée (liberté fondamentale selon l’article 8 de la Convention européenne des droits de l’homme et les articles 7 et 8 de la Charte des droits fondamentaux de l’Union européenne 2012/C 326/02), doit respecter « l’essence des libertés et droits fondamentaux » et constituer « une mesure nécessaire et proportionnée dans une société démocratique » (article 23.1 RGPD).
Quant à la police et à la gendarmerie, elles prennent bien soin de ne pas donner tout le crédit de la réussite d’une enquête pénale au logiciel d’IA en rappelant que ce dernier n’est qu’une méthode de travail parmi d’autres permettant de visualiser un dossier dans son ensemble, de chercher une information dans la fourmilière. In fine, l’enquêteur interviendra toujours pour utiliser ou non les hypothèses proposées par l’intelligence artificielle, et pour résoudre le crime.  
 
Vous souhaitez en savoir plus sur notre offre « Data » et « Protection des données », cliquez ICI
 

ENVELOPPE NEWSLETTER copie

L'actu juridique numérique
du mardi matin.

Inscrivez-vous pour recevoir nos derniers articles, podcasts, vidéos et invitations aux webinars juridiques.