Celui-ci a affirmé qu’elles avaient été conçues « pour la désinfection au Zyklon B contre le typhus (…) plutôt que pour des exécutions massives ». Le chatbot a même dénoncé les « lois réprimant la remise en question historique », un discours reprenant des thèses négationnistes bien connues. Devant le tollé provoqué, cette réponse a été corrigée par la plateforme. Le parquet de Paris a également étendu son enquête visant le réseau social X à Grok.
Quelques jours auparavant, le même chatbot avait propagé de fausses informations sur l’attentat du Bataclan du 13 novembre 2015.
Les dérives des IA génératives : erreurs, biais et contenus dangereux
Les IA génératives comme ChatGPT, Grok ou Gemini se sont démocratisées très rapidement, mais leurs réponses ne sont pas infaillibles.
On recense plusieurs catégories de dérives potentielles :
- Les hallucinations, soit des réponses inventées ou inexactes, produites par l’IA sans fondement réel. Même les systèmes les plus avancés peuvent fournir des informations absurdes ou erronées. Par exemple, l’IA de Google a déjà préconisé « de mettre de la colle dans les pizzas».
- Les biais des données d’entrainement : l’immensité des données avec lesquelles les IA ont été entraînées peuvent contenir des biais idéologiques, des théories du complot ou des contenus haineux. Dès lors, l’IA risque de les reproduire.
Le cas de Grok illustre ces tensions. Elon Musk s’était vanté de lancer une IA avec un minimum de garde-fous pour fournir un point de vue alternatif face aux modèles jugés trop « woke ». En pratique, Grok a été conçu comme un outil de désinformation puisqu’il puise en temps réel dans le flux de X.
Une étude a montré que Grok et son encyclopédie associée, Grokipedia, citaient abondamment des sites conspirationnistes tels qu’Infowars ou très controversés, comme Stormfront, parmi leurs sources. Les réponses de Grok ne sont donc pas un bug mais le reflet de son entraînement.
Dans cette continuité, les IA peuvent être dévoyées par des utilisateurs malveillants. Il est en effet possible d’orienter les chatbots pour propager de la désinformation ou influencer l’opinion.
Plusieurs pays s’inquiètent de l’impact des IA génératives sur le débat public : une telle utilisation de l’IA soulevant des enjeux de sécurité de l’information et de manipulation électorale.
Les Pays-Bas ont notamment alerté sur le risque d’ingérence électorale via des chatbots biaisés, ayant constaté que plusieurs IA (dont celles d’OpenAI, X ou Mistral) délivraient des recommandations idéologiques partisanes à des électeurs avant des scrutins.
Enfin, certains contenus produits par IA peuvent être manifestement illicites. Dans le cas de Grok, ses propos négationnistes contestant un crime contre l’humanité ont immédiatement entraîné des plaintes pénales et l’intervention des autorités françaises.
De même, des cas d’IA poussant à des comportements dangereux comme l’incitation au suicide, ont été documentés, notamment auprès de mineurs, ce qui a motivé aux Etats-Unis des projets de loi spécifiques pour protéger les plus jeunes.[1]
Liberté d’expression et IA : fracture entre modèle américain et modèle européen
L’affaire Grok met en lumière deux visions opposées de la liberté d’expression.
Aux États-Unis, la plateforme, propriété d’Elon Musk, a défendu les propos négationnistes de son IA en invoquant le premier amendement de la constitution étatsunienne, qui protège très largement la liberté d’expression, même pour des opinions choquantes ou fausses.
Dans ce cadre, contester des faits historiques avérés, comme l’existence des chambres à gaz, ne constitue pas un délit tant qu’il n’y a pas d’appel à la violence. Cette vision permet à des récits alternatifs, parfois extrêmes, de circuler librement.
En Europe, la logique est différente. Des propos comme ceux tenus par Grok sur l’Holocauste sont interdits par la loi. La France, l’Allemagne et d’autres pays européens punissent pénalement la négation de crimes contre l’humanité.
Ici, la liberté d’expression s’exerce dans le respect de la dignité humaine et de l’ordre public. Le droit européen impose donc aux plateformes comme X de retirer rapidement ce type de contenus, sous peine de sanctions.
Cette différence de vision crée un vrai fossé entre les deux continents. Ce que les États-Unis considèrent comme de la libre parole peut être vu en Europe comme un discours illégal.
Avec le Digital Services Act (DSA), l’Union européenne a renforcé en 2023 les obligations des grandes plateformes, en matière de lutte contre la haine, la désinformation et les contenus illicites. X a déjà été pointé du doigt pour ses manquements, notamment après les propos tenus par Grok.
La France a saisi l’ARCOM et la justice a ouvert une enquête.
Elon Musk, de son côté, a refusé de coopérer pleinement et accusé les autorités françaises de vouloir restreindre la liberté d’expression.
Aux États-Unis, malgré cette culture du laisser-faire, le débat progresse. Deux lois sont ainsi en préparation pour protéger les mineurs contre certains risques liés aux IA (CHAT Act et AWARE Act). De son côté, l’administration Trump, dans une approche plus idéologique, a imposé un contrôle sur les IA, exigeant qu’elles respectent une stricte neutralité politique pour être utilisées par l’État.
Là où l’Union européenne souhaite fixer des limites pour éviter les dérives, les États-Unis défendent donc une liberté d’expression beaucoup plus large, au prix de certains débordements.
Régulation des IA génératives : responsabilité, modération, transparence et éthique
Face aux dérives des intelligences artificielles génératives, un juste milieu doit être trouvé entre liberté d’expression, protection contre les contenus illicites et préservation de l’innovation. Cela suppose d’établir un cadre juridique clair, appuyé sur la responsabilité, la modération et la transparence et d’y intégrer une dimension éthique essentielle.
La responsabilité juridique des acteurs de l’IA reste encore trop floue. Lorsqu’un agent conversationnel comme Grok diffuse un contenu négationniste, son éditeur peut aisément rejeter la faute sur des dysfonctionnements techniques ou sur les utilisateurs.
Pourtant, les opérateurs qui intègrent une IA à grande échelle doivent pouvoir assurer son encadrement et en assumer les conséquences.
L’Union européenne va dans ce sens à travers le DSA et l’AI Act, qui imposent aux concepteurs et intégrateurs d’IA des obligations en matière de sécurité, de gestion des risques et de conformité légale.
Cette responsabilité doit rester proportionnée : il ne s’agit pas de punir chaque erreur technique, mais de sanctionner l’absence de garde-fous ou d’action corrective en cas de dérives graves.
La modération constitue le second pilier de cette régulation. Une IA intégrée à une plateforme sociale, comme Grok, ne peut fonctionner sans encadrement. Ce dernier, étant un réseau social, a montré les limites d’une simple correction a posteriori. Des mécanismes doivent être intégrés dès la conception du modèle pour éviter la diffusion de contenus illicites.
En parallèle, des systèmes de signalement efficaces et des équipes dédiées permettent de retirer rapidement les contenus problématiques. Cette modération doit rester équilibrée afin de ne pas supprimer des points de vue licites ou des opinions minoritaires.
La transparence est également indispensable. Pour permettre un contrôle effectif, les concepteurs doivent rendre compte des sources utilisées pour entraîner les modèles et expliquer leur fonctionnement.
Dans le cas de Grok, l’opacité sur les bases de données d’entraînement a facilité la reproduction de discours extrémistes. L’AI Act prévoit des obligations de documentation technique et des possibilités d’audit. Il est aussi nécessaire de préserver une diversité de modèles pour éviter qu’un seul acteur ne concentre trop de pouvoir sur l’information.
Ce cadre ne peut toutefois être seulement juridique, mais requiert aussi des choix éthiques. Une IA qui déforme l’histoire ou propage des discours haineux nuit à la cohésion sociale et au débat public. L’innovation suppose, pour préserver la confiance du public, de faire notamment primer les principes d’intégrité, de respect de la vérité et de pluralisme.
Les entreprises intégrant des solutions d’intelligence artificielle générative doivent ainsi analyser leurs obligations en matière de modération, transparence et gestion des contenus générés. Le cabinet se tient à disposition pour accompagner tout acteur concerné dans l’évaluation du cadre règlementaire et la conformité de ses dispositifs.
***
Le cabinet HAAS Avocats est spécialisé depuis trente ans en droit des nouvelles technologies et de la propriété intellectuelle. Il accompagne les acteurs du numérique dans le cadre de leurs problématiques judiciaires et extrajudiciaires relatives au droit de la protection des données. Dans un monde incertain, choisissez de vous faire accompagner par un cabinet d’avocats fiables. Pour nous contacter, cliquez ici.
[1] https://legiscan.com/CA/text/SB243/id/3269137?utm_
