Ils n’ont pas piraté de serveurs. Ils n’ont pas volé de code source. Ils ont simplement posé des millions de questions. Et c’est précisément là que le droit accroche. Depuis qu’Anthropic et OpenAI ont publiquement accusé des entreprises chinoises – DeepSeek, Moonshot AI, MiniMax[1] – d’avoir aspiré en masse les réponses de leurs modèles d’intelligence artificielle pour entraîner des concurrents, une question brûlante s’impose : peut-on voler l’intelligence d’une machine ? Et si oui, avec quels outils juridiques ?
La distillation[2] : un pillage sans effraction
La technique est redoutablement simple. Des milliers de comptes sont créés sur les plateformes donnant accès aux modèles propriétaires, comme Claude (Anthropic) ou GPT (OpenAI), via leurs interfaces de programmation (API). Des millions de requêtes sont ensuite envoyées pour extraire systématiquement des réponses sur un spectre très large de sujets. Ces réponses servent alors à entraîner un modèle concurrent, dit « élève », qui apprend à reproduire les performances du modèle « professeur » sans jamais accéder à son code ni à ses paramètres internes.
Le procédé s’apparente à un transfert massif de savoir-faire : on ne copie pas la recette, mais on goûte le plat des millions de fois jusqu’à pouvoir le reproduire. Le résultat est d’autant plus préoccupant que la distillation permet aussi de contourner les garde-fous éthiques et de sécurité intégrés dans le modèle source, en sélectionnant des questions ciblées sur des sujets sensibles.
Droit d’auteur : les réponses d’une IA peuvent-elles être protégées ?
Première ligne de défense : le droit d’auteur. En droit français comme en droit de l’Union européenne, toute œuvre originale est protégée. La question est de savoir si les réponses générées par un modèle d’IA satisfont à ce critère d’originalité – ce qui reste débattu lorsque la contribution humaine se limite au prompt.
Toutefois, même lorsque l’output n’est pas qualifié d’œuvre en tant que tel, il peut incorporer des contenus préexistants protégés. Surtout, la directive européenne 2001/29/CE confère aux titulaires un droit exclusif de reproduction et de communication au public. L’exploitation massive des sorties d’un modèle pour entraîner un concurrent est susceptible de constituer une reproduction non autorisée, voire la création d’œuvres dérivées sans licence.
Point décisif : contrairement au droit américain, où la doctrine du fair use pourrait éventuellement couvrir un usage « transformateur », le droit de l’Union ne connaît pas de clause générale d’usage loyal. Les exceptions au droit d’auteur sont listées de manière exhaustive. Une distillation massive à des fins purement concurrentielles aura donc le plus grand mal à trouver une justification en droit européen.
Secret des affaires : l’arme la plus redoutable
C’est sans doute le terrain le plus prometteur pour les fournisseurs de modèles. La directive européenne 2016/943, transposée en France par la loi du 30 juillet 2018, protège toute information qui réunit trois critères : elle est secrète, elle a une valeur commerciale en raison de ce secret, et son détenteur a pris des mesures raisonnables pour la protéger.
Or, les architectures de modèles, les hyperparamètres, les recettes d’entraînement, les mécanismes de filtrage et de sécurité répondent naturellement à ces critères. Dès lors que le fournisseur peut démontrer que la distillation massive a été réalisée en violation de ses conditions d’utilisation – par la création frauduleuse de comptes, le contournement de quotas, l’extraction systématique de comportements protégés –, il pourra invoquer une obtention et une utilisation illicites de secrets d’affaires.
La qualification sera d’autant plus solide que les comportements auront un caractère systématique, organisé et dissimulé, s’apparentant à ce que l’on peut appeler un véritable « pillage algorithmique ».
Le contrat : une première barrière, souvent sous-estimée
Les conditions d’utilisation des API prévoient généralement des interdictions explicites : pas de reverse engineering du modèle, pas d’entraînement de modèles concurrents à partir des réponses, des limites strictes de volume de requêtes. Toute violation engage la responsabilité contractuelle de l’utilisateur et peut entraîner la résiliation de l’accès ainsi que des dommages-intérêts.
Mais le droit va plus loin. La Cour de justice de l’Union européenne a jugé, dans le cadre de la directive 2004/48/CE relative au respect des droits de propriété intellectuelle, que la violation d’une clause de licence portant sur des droits de propriété intellectuelle constitue une « atteinte » au sens de cette directive. En conséquence, le fournisseur du modèle peut cumuler une action contractuelle et une action en contrefaçon, malgré le principe français traditionnel de non-cumul des responsabilités.
L’AI Act : un nouveau cadre pour des pratiques nouvelles
Le règlement européen sur l’intelligence artificielle (AI Act), en cours de déploiement progressif, impose aux fournisseurs de modèles d’IA à usage général (GPAI) des obligations de documentation technique, de transparence et de gestion des risques. Les modèles présentant un « risque systémique » sont soumis à des exigences renforcées, incluant des tests contradictoires et un reporting accru.
Or, la distillation peut être utilisée précisément pour contourner ces obligations : en créant un modèle plus léger qui ne dépasse pas, en apparence, les seuils techniques déclenchant les obligations renforcées, tout en reproduisant substantiellement les capacités du modèle source. Une telle stratégie pourra être qualifiée de contournement contraire à l’esprit du règlement, exposant ses auteurs à des sanctions.
RGPD : des biais hérités, une responsabilité intacte
Le règlement général sur la protection des données (RGPD) reste pleinement applicable dès lors que des données personnelles sont traitées. Un modèle distillé utilisé pour des décisions de crédit, d’emploi ou d’assurance doit respecter l’article 22 du RGPD sur les décisions individuelles automatisées, avec toutes les garanties qui en découlent : information des personnes, possibilité de contester la décision, intervention humaine.
Problème supplémentaire : le modèle élève hérite souvent des biais du modèle source, voire les amplifie. La chaîne de distillation complique considérablement l’explicabilité et la traçabilité des décisions, ce qui entre en tension directe avec les exigences de transparence posées tant par le RGPD que par l’AI Act.
Une fracture géopolitique sous-jacente
L’affaire dépasse le cadre juridique classique. Derrière la distillation se dessine un enjeu de souveraineté technologique. Certains acteurs étatiques peuvent être tentés de capter les investissements massifs réalisés par d’autres en matière d’IA, en distillant leurs modèles sans respecter les régimes de propriété intellectuelle. Les divergences entre le fair use américain, la protection renforcée en Europe et les approches plus permissives ailleurs créent des incitations au « forum shopping » réglementaire, c’est-à-dire au choix opportuniste de la juridiction la moins protectrice.
L’Union européenne, en adoptant l’AI Act et en renforçant la protection des secrets d’affaires, a choisi une voie cohérente : offrir un cadre de confiance pour l’innovation tout en protégeant la compétitivité de ses entreprises et en évitant un nivellement par le bas des standards éthiques.
Un arsenal juridique existe : encore faut-il l’activer
Contrairement à ce que l’on pourrait croire, la distillation de modèles d’IA ne se situe pas dans un vide juridique. Le droit français et européen offre un arsenal combiné qui permet de l’appréhender sur plusieurs terrains : droit d’auteur, secret des affaires, responsabilité contractuelle, régulation sectorielle et protection des données personnelles.
La véritable difficulté n’est pas l’absence de normes, mais leur articulation et leur mise en œuvre concrète dans un contexte de compétition technologique intense. Pour les entreprises fournisseurs de modèles, la priorité est désormais claire : renforcer les clauses contractuelles de leurs API, documenter rigoureusement leurs secrets d’affaires, investir dans la détection des comportements anormaux et se préparer à des stratégies contentieuses combinant plusieurs fondements.
La distillation non autorisée n’est pas un flou juridique. C’est un contentieux en puissance – et il ne fait que commencer.
Ce qu’il faut retenir
La distillation consiste à reproduire les performances d’un modèle d’IA en exploitant massivement ses réponses, sans accéder à son code.
En droit européen, aucune clause générale de fair use ne permet de justifier cette pratique à des fins concurrentielles.
Le secret des affaires, le droit d’auteur, la responsabilité contractuelle, l’AI Act et le RGPD offrent un arsenal combinable pour agir.
La priorité pour les entreprises concernées : blinder les clauses API, documenter les secrets d’affaires et investir dans la détection.
L’enjeu dépasse le contentieux : c’est une question de souveraineté technologique et de cohérence du modèle européen.
***
Le cabinet HAAS Avocats est spécialisé depuis trente ans en droit des nouvelles technologies et en droit de l’intelligence artificielle. Il accompagne les acteurs du numérique dans le cadre de leurs problématiques judiciaires et extrajudiciaires liées au développement, au déploiement et à la conformité des systèmes d’IA, notamment au regard du RGPD et de l’AI Act. Dans un monde technologique incertain, choisissez de vous faire accompagner par un cabinet d’avocats fiables. Pour nous contacter, cliquez ici.
[1] (https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks)
[2] La distillation peut être vue comme une œuvre dérivée si elle extrait des représentations apprises d’un modèle propriétaire, nécessitant potentiellement une licence. Elle risque aussi de perpétuer l’usage de données d’entraînement protégées par le droit d’auteur, bien que la doctrine du fair use (aux États-Unis) ou d’usage transformateur (en UE) reste incertaine pour les modèles distillés. Des cas comme DeepSeek utilisant les sorties d’OpenAI illustrent les accusations de violation secondaire.
