01 56 43 68 80

6, rue de Saint-Petersbourg, 75008 Paris

[ #IA ] Intelligence artificielle : repenser la gestion des risques

Logo HAAS 2022

avec la contribution de Quentin Jacob, ingénieur data scientist :
Intelligence artificielle, I.A., algorithme, machine learning, deep learning, réseaux de neurones… autant de termes qui ont le vent en poupe mais que l’on a parfois du mal à conceptualiser. Face à ce constat un bref retour sur les notions essentielles s’impose. Si les définitions à venir n’ont pas pour prétention d’être exhaustives, elles auront pour objet d’introduire et d’éclairer le développement à venir sur l’intelligence artificielle et les mécanismes juridique de la responsabilité.
 

  1. INTELLIGENCE ARTIFICIELLE : LE B.A.BA

Algorithme : ensemble de règles énoncées de manière non ambiguë dans le but de résoudre un problème ou d’obtenir un résultat.
(Exemple :  une recette de cuisine, la technique de multiplication avec retenue)
 
Intelligence artificielle (IA) : ensemble des techniques et théories mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine.
Elle se matérialise par « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique »[1].
 
Machine Learning : sous-ensemble de l’intelligence artificielle. Ensemble d’algorithmes capables d’apprendre par l’exemple (d’où l’intérêt de collecter des données massives, et l’essor actuel de ces algorithmes). L’humain n’a plus besoin de figer des règles de décision précises, ces dernières sont apprises par la machine par essai-erreur.
 

Exemples :

  • En intelligence artificielle classique, un algorithme de diagnostic médical comprendrait un ensemble de règles figées, codées par un expert dans la machine. Si la température corporelle est supérieure à 39°C, que le patient ressent une grande fatigue, etc. alors il a probablement la grippe. L’expert doit transposer ses règles de décision à l’intérieur d’une machine dans le but de la rendre intelligente. Cela nécessite a priori de connaître ces règles de décision et de pouvoir les exprimer de manière non ambiguë.
  • En Machine Learning, les règles ne sont pas codées dans une machine. La démarche consisterait à collecter des mesures effectuées sur des patients sains et sur des patients atteints de la grippe (température corporelle, niveau de fatigue, tension, etc.). La machine chercherait alors à séparer les patients sains des patients malades en fonction des signaux mesurés. Il est fort probable que la machine apprendra la pertinence du critère « température corporelle supérieure à 39°C ».

 
Avantages et inconvénients du Machine Learning par rapport à l’intelligence artificielle classique :
 

AVANTAGES

INCONVENIENTS

Permet d’aboutir à des algorithmes performants dans des domaines où les règles de décision sont difficiles à exprimer pour un humain.

 Ex. : reconnaissance d’images. Quelles sont les règles utilisées par un humain pour reconnaître un visage ? Difficile à dire, laissons la machine apprendre.

Nécessite de la puissance de calcul pour apprendre à partir des exemples, et l’apprentissage peut prendre du temps (plusieurs semaines sur certains problèmes de reconnaissance d’images, par exemple). Cependant, la phase d’apprentissage est uniquement une étape préalable : Siri analyse le contenu des signaux vocaux en temps réel.

 
 

S’applique à un grand nombre de problèmes : reconnaissance de la parole (Siri, Shazam), d’image (Face ID, voiture autonome), analyse de sentiments dans un texte (études d’impact de campagnes marketing par analyse des Tweets), etc.L’humain a peu de contrôle sur les règles de décision apprises. Les algorithmes appris sont difficilement interprétables (black-box). Un médecin saura expliquer son diagnostic, la machine en est peu capable.
 
Capacité à s’adapter à un environnement changeant. Les règles ne sont pas figées et peuvent être mises à jour en permanence grâce au retour utilisateur.
Ex. : pour un utilisateur donné, Facebook affine en permanence le contenu qui sera pertinent de lui proposer, en fonction des posts qu’il « like », du temps qu’il passe sur les posts de ses amis. Capacité d’auto-calibration à mesure que l’utilisateur se sert du produit.
Les données utilisées pour l’apprentissage peuvent contenir des biais que la machine va apprendre à imiter.
Ex. : algorithme utilisé en ressources humaines, pour estimer la rémunération d’un employé à partir de sa performance annuelle, de sa formation, etc. Si les données d’apprentissage contiennent des inégalités salariales entre hommes et femmes, l’algorithme va perpétuer ces inégalités. C’est d’autant plus dangereux qu’une fois apprises, ces inégalités sont « cachées dans la black box », donc encore plus difficile à combattre.

 
Les réseaux de neurones : sous-ensemble du Machine Learning
La vision du Machine Learning qui consisterait à penser que l’humain ne joue aucun rôle dans l’étape d’apprentissage des règles est erronée. Certes, la machine calibre des règles par essai-erreur, mais l’humain impose préalablement un type d’algorithme que la machine doit utiliser. Il s’agit d’une charpente, du squelette qui va être façonné par la machine dans le but de parvenir à une décision à partir des données. L’humain impose donc une structure sur les règles qui vont être apprises, sans toutefois les énoncer.
Une structure très basique sur le problème de diagnostic médical énoncé précédemment pourrait être la suivante : « parmi l’ensemble des signaux mesurés, conserver uniquement le signal le plus discriminant. Ensuite, construire une règle de décision en comparant la valeur de ce signal à un seuil. » La machine doit donc d’une part détecter le signal le plus pertinent, puis apprendre la valeur du seuil de décision, sur ce signal, qui permet de séparer les patients sains des patients malades. En imposant une structure sur les règles de décision à apprendre, on facilite l’apprentissage de la machine, qui sait où chercher.
Beaucoup plus complexe que la règle précédente, les réseaux de neurones constituent une de ces structures,. Un réseau de neurones va considérer tous les signaux mesurés (température corporelle, niveau de fatigue, tension, etc.) à la fois, les additionner, les multiplier. La machine cherche donc des règles dans un espace beaucoup plus vaste. Si le critère pertinent pour diagnostiquer la grippe est de comparer le produit de la température corporelle et du niveau de fatigue à un certain seuil, le mécanisme essai-erreur va conduire la machine vers cette approche. Si, au contraire, la simple règle « température supérieure à 39°C » entraine un grand nombre d’erreur, le mécanisme va pénaliser l’utilisation de ce critère qui sera in fine abandonné par la machine. Un réseau de neurones est donc un type d’algorithme de Machine Learning qui impose une structure très libre, où la structure des règles est peu contraignante. Cela fait des réseaux de neurones un modèle particulièrement adapté aux domaines où les règles de décisions sont difficilement exprimables pour un humain (reconnaissance d’images, reconnaissance de la parole, traduction). Le prix à payer pour cette complexité réside dans le volume de données nécessaires pour l’apprentissage : l’entrainement d’un réseau de neurones pour de la reconnaissance d’images nécessite plusieurs milliers d’images et des capacités de calcul conséquentes. Amazon, Google et Microsoft proposent par exemple aux entreprises qui désirent entrainer des réseaux de neurones relativement grands de louer de la capacité de calcul, dans le cloud, pour quelques dollars de l’heure.
 
Le deep-learning : une cascade de réseaux de neurones
Le deep-learning consiste à mettre bout à bout des réseaux de neurones, en multipliant ainsi les règles que la machine pourra apprendre. Cette structure de réseaux de neurones en cascade est utilisée principalement dans la reconnaissance d’images, où des neurones bas-niveau se spécialisent dans la détection de détails (angles présents dans une image, contours), puis transmettent cette information à des neurones de plus haut-niveau qui combinent ces détails pour détecter des formes. Cette approche hiérarchique, automatiquement apprise par la machine, donne également de bons résultats en traitement de la parole et en traduction automatique de textes.
 

  1. LES REGIMES DE RESPONSABILITE A L’EPREUVE DE L’INTELLIGENCE ARTIFICIELLE

A partir du moment où un concepteur lance sur un marché une solution qui apprend de façon autonome, le lien entre le concepteur et la solution s’efface-t-il ? se neutralise-t-il ? se renforce-t-il ? De la réponse à ces questions se dégage un questionnement autour de la responsabilité mais en l’état actuel du droit, aller chercher la responsabilité du concepteur parait délicat et complexe.
L’I.A. :  une technologie fantasmée
Marvin Lee Minsky, scientifique américain spécialiste de l’IA et des réseaux de neurones et co-fondateur du MIT, définit l’IA comme : « la science qui consiste à faire faire aux machines ce que l’homme ferait moyennant une certaine intelligence ». L’intelligence artificielle consiste donc à reproduire artificiellement les attributs de l’intelligence humaine.
A cet égard, nombreux sont ceux qui s’accordent à dire que l’intelligence artificielle est source de perspectives enthousiasmantes. Parmi les applications qui révolutionnent déjà nos sociétés et qui n’ont sûrement pas fini de nous étonner, on peut citer la reconnaissance d’image appliquée à l’imagerie médicale, la création d’agents virtuels tel que les chatbot utilisés dans les services à la clientèle ou dans les gestionnaires maison employés pour la domotique, les outils de reconnaissance biométrique permettant l’identification ou l’authentification ou encore les logiciels de Traitement automatique du langage naturel (TALN) actuellement utilisé dans la détection de fraude ou la sécurité. Autant d’exemple de la place que tient déjà l’intelligence artificielle dans notre quotidien et des perspectives infinies qui s’offrent à nous.
Bien que l’intelligence artificielle soit désormais une réalité, chacun d’entre nous demeure profondément imprégné des représentations fictionnelles de l’IA dont nous sommes entourés. Dès 1818, Mary Shelley racontait comment Victor Frankenstein créa une créature à son image, douée d’intelligence. Le terme de robot apparu quant à lui dans les années 1920 sous la plume de Karel Capek, écrivain tchécoslovaque qui écrivit la pièce Rossum’s Universal Robots. Puis plus récemment, Big Brother, Terminator, Minority Report, I-Robot, Black Mirror, etc.  Autant de représentations plus ou moins réalistes qui alimentent nos espoirs de progrès comme nos craintes de dérives. L’intelligence artificielle provoque des réactions ambivalentes, tout à la fois crainte et idéalisée.
Lorsqu’on se penche sur l’histoire de la robotique et de l’intelligence artificielle, on s’aperçoit que l’approche de l’IA par les risques est apparue très tôt. Dès 1942, Isaac Asimov formulait les 3 lois de la robotique :

  • Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un humain soit exposé au danger ;
  • Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  • Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi

Dans son fameux ouvrage « 1984 », Georges Orwell nous livrait également une analyse visionnaire de l’impact que pourraient avoir de telles technologies sur nos libertés et notre vie privée.
L’approche de l’intelligence artificielle par les risques
« Aucun indice que la machine intelligente soit plus proche de nous aujourd’hui qu’avant »
Jean Ponce
Nous semblons aujourd’hui redécouvrir l’intelligence artificielle alors même que le domaine de recherche a été fondé en tant que discipline académique en 1956 lors de la conférence de Dartmouth. Tel que nous le redécouvrons aujourd’hui, le concept est désormais fortement imprégné par les représentations fictionnelles de l’intelligence artificielle dont nous sommes entourés et les avancements de cette technologie suscitent bien souvent chez nous des craintes : l’intelligence artificielle va-t-elle un jour nous dépasser ? Nous contrôler ?  Ces craintes s’incarnent dans ce que l’on appelle la singularité technologique. La singularité, concept originellement sans prétention scientifique apparu sous la plume du mathématicien Vernor Vinge[2], était l’hypothèse selon laquelle nous passerions de la science-fiction à la science tout court.
Désormais, on emploie cette théorie pour désigner le point d’autonomisation de l’IA. Jean-Gabriel Ganascia parle de mythe de la singularité, critiquant l’ensemble de fantasme que nous formons autour de cette technologie, nous amenant à penser que à tort que l’IA pourrait créer ses propres lois. Jean Ponce, directeur du département d’informatique de l’Ecole normale supérieure (ENS) considère que pour peu qu’il existe, nous sommes encore loin de ce point de singularité. A l’instar du normalien, beaucoup de chercheurs s’accordent à dire que nous sommes encore loin de réaliser une super intelligence qui dépasse les hommes et qui en cela risquerait de prendre le pouvoir.
Si nos fantasmes nous font parfois développer des craintes pour l’heure injustifiées, pis encore, une approche de l’IA décorrélée de la réalité des avancements scientifiques risquerait de nous amener à minimiser les risques réels qu’il est nécessaire de prendre en compte dès maintenant.
Parmi les risques couramment soulevés lorsqu’on aborde l’intelligence artificielle, on retrouve notamment ceux liés au traitement automatisé de donnée personnelle. A cet égard, l’article 22 du Règlement général sur la protection des données (RGPD) qui entrera en vigueur le 25 mai prochain encadre strictement la question du profilage et des prises de décision individuelles automatisées qui pourraient produire des effets juridiques ou similaires sur les personnes. Un autre risque souvent pointé du doigt est celui de la reproduction des biais humains. Comme nous l’énoncions précédemment, l’entrainement des algorithmes par les procédés de Machine Learning nécessite l’utilisation de vastes bases de données : banques d’image, banques de son, etc. A l’heure du big data, la difficulté ne réside plus dans le fait de réunir les quantités de données nécessaires mais dans le fait de réaliser des bases de données dénuées de biais. Ainsi, lorsque les chercheurs de l’université de Stanford ont élaboré GloVe, un programme dédié à l’association entre les mots et à l’apprentissage des propriétés du langage humain. Ils se sont alors aperçus que leur création reproduisait les stéréotypes humains pour le meilleur et pour le pire : association des femmes aux arts et au foyer, association des hommes aux professions scientifiques, etc. D’autres risques sont notamment liés à l’introduction des technologies dans la sphère privée, au scoring et à ses dérives, à la transformation de l’emploi, etc.
I.A. et responsabilité juridique
Aussi, à partir du moment où l’on approche l’IA en termes de risques, surgit immédiatement la question de la responsabilité si chère aux juristes. Deux principales approches ressortent actuellement de la doctrine :

  • La première consiste à vouloir adapter de manière sectorielle les régimes de responsabilité existants pour envisager les responsabilités individuelles de la chaîne d’acteurs : programmeur, concepteur, fabriquant, propriétaire, utilisateurs, tiers.
  • La seconde consiste à créer un régime autonome de responsabilité

En effet nous disposons déjà d’un arsenal juridique conséquent qui permettrait d’envisager nombre de schémas de responsabilité. Parmi les mécanismes civilistes, on retrouve notamment la responsabilité civile pour faute[3] ou du fait des produits défectueux[4], lesquelles pourraient être prononcées solidairement[5] ou conjointement[6].
Si on regarde du côté des mécanismes de droit administratif, il serait possible de recourir aux régimes de responsabilité sans faute[7] ou pour faute présumée[8] ou encore à la responsabilité du fait des risques[9].
Néanmoins, il apparait que les outils existants ne permettent pas d’engager la responsabilité du concepteur dans toutes les hypothèses et ce pour différentes raisons. Tout d’abord, parce que l’IA est conçue pour apprendre de manière autonome, par ses erreurs ou le milieu avec lequel elle interagit. Si le programme ne peut se soustraire aux finalités qui lui ont été assignées, il s’autonomise néanmoins, apprend, oriente ses choix en temps réel. Il serait par conséquent difficile de rechercher un lien de causalité certain et direct tel qu’envisagé en matière de responsabilité civile.
Ainsi, au regard des nouveaux enjeux crée par l’IA et de la distension du lien de causalité que cela génère, il semblerait pertinent de créer un régime de responsabilité autonome du concepteur. Précisons tout d’abord qu’il ne s’agirait pas d’inventer un nouveau régime sorti de nulle part : il s’inspirerait nécessairement des concepts juridiques existants. L’enjeu serait de créer un régime de responsabilité qui couvrirait la relation d’autorité existant entre le concepteur et son IA.
En outre, l’utilisateur devra également être responsabilité dans l’usage qu’il fera d’une intelligence artificielle. Tout comme le propriétaire d’un chien est responsable du dressage inculqué à son animal et pourra voir sa responsabilité engagée si en ayant dressé son animal à l’attaque il cause un dommage, il conviendrait de créer une responsabilité de l’utilisateur lequel peut être amené à influencer le développement d’une I.A. par l’utilisation qu’il en fait. En effet, nombre d’objets autonomes ont pour finalité l’interaction avec la personne humaine et l’adaptation aux comportements par interaction avec elle.
En outre, il pourrait être pertinent de rechercher une personnalité juridique adéquat pour ce nouvel objet de droit qu’est l’IA et que nous avons pour l’heure tant de mal à aborder. Rappelons-nous alors que le législateur a déjà su créer une abstraction juridique qui est celle de la personne morale pour envisager la personnalité juridique de nouvelles entités telles que les entreprises ou les associations.
Cette approche aurait le triple avantage de permettre d’envisager la responsabilité du concepteur, de dissocier la personnalité juridique du robot et celle de l’I.A. qui l’anime et de permettre de décomposer les responsabilités de la chaîne d’acteur : concepteur à l’origine de l’autonomie décisionnelle, producteur à l’origine de la mécanique du robot dans lequel l’I.A. s’insère, l’utilisateur impliqué dans le processus d’apprentissage.
Lors de la conférence organisée en janvier 2017 par le Futur of Life Institute à Asilomar en Californie, plus de 1000 scientifiques ont adopté 23 principes pour encadrer le développement de l’intelligence artificielle et de la robotique. Le 9ème de ces principes promeut à juste titre la responsabilisation des concepteurs et constructeurs. Les concepteurs et les constructeurs d’IA avancées sont les premiers concernés par les conséquences morales de leurs utilisations, détournements et agissements. Ils doivent donc assumer la charge de les influencer.
Devant la complexité des systèmes d’IA actuellement en développement, il conviendrait donc d’inscrire dans le marbre certain grands principes tels que le principe de précaution en matière d’IA, lequel conduirait à instaurer des périodes de test systématiques. En effet, s’il semble difficile de reprocher au concepteur d’avoir oublié un cas particulier d’utilisation susceptible de prendre l’IA en défaut, on pourra en revanche lui faire grief de ne pas l’avoir assez testée.
En outre, tout logiciel devrait être capable de retracer le processus de décision qui l’aura conduit à déclencher une action. A ce titre, la loi pourrait imposer l’utilisation de boites noires (black box) analysable à posteriori, voire même une transparence a priori des processus décisionnels implémentés afin de vérifier le respect de certains grands principes tel que la neutralité de traitement. Selon, Serge ABITEBOUL[10], plus que la transparence, c’est la « redevabilité » entendue comme « devoir de rendre compte », qui paraît être le véritable enjeu. Ce devoir inclut deux composantes : le respect de règles, notamment juridiques ou éthiques, d’une part ; la nécessité de rendre intelligible la logique sous-jacente au traitement, d’autre part.
Par conséquent, il apparait possible d’envisager la possibilité d’accéder au fonctionnement sous-jacent de l’IA mais également de pouvoir modifier, la maintenir ou la détruire l’IA.
 
[1] Marvin Lee Minsky, spécialiste des réseaux de neurones, co-fondateur du MIT, conférence de Darmouth, 1956
[2]JG GANASCIA, Le mythe de la Singularité : faut-il craindre l’intelligence artificielle, Seuil, 2017
[3] Article 1240 du Code civil
[4] Article 1245 du Code civil
[5] Article 1309 du Code civil
[6] Article 1311 du Code civil
[7] CE, 7 mars 1958, Secr. d’État à la Santé publique c/ Dejous
[8] CE, 27 juillet 1988, Compagnie marseillaise de Madagascar
[9] CE, 1919, Regnault-Desroziers
[10] Serge ABITBOUL, Le temps des algorithmes, janvier 2017, Belin

ENVELOPPE NEWSLETTER copie

L'actu juridique numérique
du mardi matin.

Inscrivez-vous pour recevoir nos derniers articles, podcasts, vidéos et invitations aux webinars juridiques.

*Champs requis. Le cabinet HAAS Avocats traite votre adresse e-mail pour vous envoyer ses newsletters.

Vous pouvez accéder aux données vous concernant, les rectifier, demander leur effacement ou exercer votre droit à la limitation du traitement de vos données en nous contact à l’adresse mail suivante : dpo@haas-avocats.com