Derrière des agents qui disent « je », le risque est celui d’une déresponsabilisation et d’une déshumanisation par procuration. AI Act, RGPD, Code civil et droit de la consommation dessinent toutefois un cadre juridique destiné à contenir ces dérives et à préserver le libre arbitre du sujet de droit.
De l’effet Eliza à la confusion juridique
Depuis 2025, les intelligences artificielles conversationnelles — chatbots, assistants virtuels, IA génératives — se sont imposées dans les usages du grand public comme des professionnels, séduisant une part croissante de la population connectée. Cette percée spectaculaire repose sur un ressort psychologique bien identifié : l’« effet Eliza », mis en lumière dès les années 1960 par Joseph Weizenbaum.
Ce phénomène désigne la tendance des utilisateurs à attribuer à un programme informatique des caractéristiques humaines : émotions, intentions, voire une forme de conscience morale. L’usage systématique de la première personne du singulier par certains agents conversationnels accentue cette illusion, donnant à la machine l’apparence d’un véritable interlocuteur.
Pour le juriste, cette illusion anthropomorphique n’est pas anecdotique : elle interroge la frontière entre la personne et la chose, la responsabilité et la liberté, au cœur du droit de l’intelligence artificielle.
L’intelligence artificielle demeure un objet de droit
La première exigence du droit est de préserver la distinction structurante entre les personnes et les choses. En droit civil français, l’intelligence artificielle, quelle que soit sa sophistication, demeure un bien, un produit ou un service, non un sujet de droit.
Les débats sur une éventuelle « personnalité électronique » de l’IA illustrent la tentation d’aligner la machine sur le modèle de la personne juridique. Une telle évolution heurterait la conception classique du sujet en droit civil, fondée sur la conscience, la volonté et la responsabilité.
L’attribution d’une responsabilité propre à l’IA relève d’une erreur de catégorie : la machine ne pense pas, elle calcule ; elle ne veut pas, elle exécute. L’imputabilité juridique reste attachée à des personnes physiques ou morales, qu’il s’agisse du concepteur, du fournisseur, du déployeur ou de l’utilisateur du système.
Ce rappel ontologique est le premier antidote juridique à l’illusion anthropomorphique.
Le libre arbitre face à la décision automatisée
L’effet Eliza produit un glissement subtil : l’utilisateur, persuadé d’échanger avec un quasi-sujet, accorde une confiance accrue à la décision automatisée. Le droit européen a précisément anticipé cette dérive.
L’article 22 du RGPD consacre le droit pour toute personne de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques ou l’affectant de manière significative.
Cette garantie organise la résistance du libre arbitre face à la computation : elle impose une intervention humaine dès lors qu’une décision algorithmique emporte des conséquences importantes pour l’intéressé. L’IA ne doit pas se substituer au jugement humain, mais demeurer un outil d’aide à la décision.
Dans le même mouvement, le Règlement sur l’intelligence artificielle (AI Act) impose, pour certains systèmes d’IA, une supervision humaine appropriée, afin d’éviter que la décision automatisée ne confisque le pouvoir de choix du sujet de droit.
« Face à la machine, seul l’humain possède le monopole du “Je”. » – Me Gérard HAAS
Vers une régulation du langage des IA : transparence et design sémantique
L’une des propositions les plus stimulantes consiste à déplacer la focale vers le langage même des systèmes d’IA. La question est simple : faut-il encadrer, voire interdire, l’usage des pronoms « je » et « vous » par les agents conversationnels, dès lors qu’il entretient l’illusion d’un interlocuteur humain ?
Juridiquement, une telle évolution prolongerait la logique de transparence imposée par le droit positif.
L’AI Act prévoit en effet que les systèmes d’IA destinés à interagir directement avec des personnes doivent être conçus de manière à informer clairement celles-ci qu’elles interagissent avec une IA, sauf si cela est évident pour un utilisateur raisonnablement bien informé.
Transformer cette exigence en interdiction des tournures linguistiques simulant la subjectivité reviendrait à réguler non seulement le fonctionnement technique des systèmes, mais aussi leur design interactionnel : leur rhétorique, leur tonalité, leur manière de se présenter comme quasi-humains.
Le droit du numérique serait alors amené à investir un champ nouveau : la « transparence sémantique », qui impose que la machine ne masque jamais sa nature d’objet.
Encadrer les dérives anthropomorphiques : les garde-fous du droit positif
L’obligation de transparence (AI Act)
Le Règlement européen sur l’intelligence artificielle organise un régime de transparence spécifique pour les systèmes interagissant avec des personnes. Les fournisseurs doivent s’assurer que ces systèmes sont conçus et développés de telle sorte que les personnes concernées soient informées qu’elles interagissent avec une IA, à tout le moins au moment de la première interaction.
Ce dispositif a pour fonction de rompre l’illusion d’un interlocuteur humain et de restaurer une asymétrie claire : l’utilisateur sait qu’il s’adresse à une machine.
La garantie du libre arbitre (article 22 RGPD)
Le RGPD, en son article 22, prohibe la soumission d’une personne à une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques ou la touchant de manière significative, sauf exceptions strictement encadrées.
Outre le droit de ne pas être ainsi profilé, le texte prévoit des garanties : droit d’obtenir une intervention humaine, d’exprimer son point de vue, de contester la décision.
Cette architecture protège la liberté de choix contre la tentation de déléguer entièrement le jugement moral à la machine.
Le refus de toute conscience artificielle (Code civil)
En droit civil, la summa divisio oppose les personnes et les choses. Les systèmes d’intelligence artificielle, même lorsqu’ils se présentent à la première personne ou simulent des affects, demeurent des biens incorporels, des services logiciels, des objets de droit.
Dépourvue de personnalité juridique, l’IA ne peut être tenue pour responsable de ses actes. L’imputabilité remonte nécessairement aux acteurs humains de la chaîne technique et économique.
Cette structure de responsabilité confirme que la machine ne saurait devenir un « sujet moral », quelles que soient les apparences produites par son design.
La lutte contre la manipulation (droit de la consommation)
Lorsque l’effet anthropomorphique est intentionnellement exploité pour influencer le comportement d’un consommateur, le droit de la consommation trouve à s’appliquer.
L’article L.121-2 du Code de la consommation qualifie de trompeuse la pratique commerciale qui crée une confusion avec un autre bien ou service, ou repose sur des présentations de nature à induire en erreur sur les caractéristiques essentielles du bien ou du service.
Un système d’IA conçu pour mimer l’empathie humaine afin de recueillir un consentement ou des données personnelles, en tirant parti de la confusion entre humain et machine, pourrait ainsi relever de la pratique commerciale trompeuse.
L’AI Act, de son côté, prohibe les systèmes d’IA recourant à des techniques manipulatoires ou subliminales susceptibles d’altérer de manière significative le comportement d’une personne, ce qui renforce l’arsenal contre les usages les plus intrusifs de l’anthropomorphisme.
Le droit, gardien de l’exception humaine
L’effet Eliza révèle moins la puissance de l’intelligence artificielle que la vulnérabilité de l’utilisateur face à l’illusion d’humanité. La déshumanisation ne réside pas dans la technique elle-même, mais dans la tentation de lui transférer nos catégories morales et juridiques.
Le rôle du droit n’est pas de brider l’innovation, mais d’en dissiper les mirages : rappeler que la machine n’est pas une personne, protéger le libre arbitre contre la décision automatisée, encadrer les stratégies de design qui brouillent la frontière entre l’homme et l’algorithme.
J’observe que la fiction l’avait pressenti, de Her à Ex Machina, jusqu’aux cauchemars glacés de Black Mirror : des hommes s’éprennent de fantômes de silicium. Soixante ans après ELIZA, des ingénieurs jurent que leurs machines sentent, pensent, souffrent. Avec ChatGPT, d’innombrables âmes cherchent un psy dans un miroir vide.
En imposant à la technique d’assumer sa nature artificielle, le droit se fait le gardien de l’exception humaine. En définitive, face à la machine, seul l’être humain doit conserver — en fait comme en droit — le monopole du « Je ».
