01 56 43 68 80

6, Rue de Saint-Petersbourg, 75008 Paris

Distillation de modèles IA : l’affaire Anthropic face aux acteurs chinois

Le 23 février 2026, Anthropic, créateur du modèle d’intelligence artificielle Claude, a accusé trois laboratoires chinois, DeepSeek, Moonshot et MiniMax, d’avoir orchestré des campagnes massives d’extraction illicite de données via plus de 24 000 comptes frauduleux et 16 millions d’échanges, en violation de ses conditions générales d’utilisation.
Distillation de modèles IA l’affaire Anthropic face aux acteurs chinois

Une affaire qui charrie son lot d’ironie puisqu’Anthropic elle-même est accusée d’avoir bâti Claude en aspirant des contenus sur le web sans autorisation.

Distillation de modèle IA : une pratique courante devenue litigieuse

La distillation est une technique d’entraînement permettant à un modèle plus petit d’apprendre à partir des réponses d’un modèle plus puissant. Cette méthode, largement répandue dans l’industrie, devient juridiquement problématique dès lors qu’elle est appliquée, sans autorisation, aux systèmes d’un concurrent, en contournant ses conditions d’utilisation et restrictions géographiques.

 Extraction massive de données : comment la distillation illégale de modèles IA s’opère

La distillation de modèle consiste à interroger massivement un modèle avancé afin de collecter ses réponses et de s’en servir pour entraîner un modèle concurrent. Selon Anthropic, DeepSeek aurait ainsi généré plus de 150 000 échanges ciblant les capacités de raisonnement de Claude, Moonshot AI plus de 3,4 millions d’échanges orientés vers le raisonnement agentique et la vision par ordinateur et MiniMax jusqu’à 13 millions d’interactions axées sur le code et l’orchestration d’outils. L’accès s’effectuait via des réseaux de proxys commerciaux, capables de gérer simultanément plus de 20 000 comptes frauduleux, contournant ainsi les restrictions géographiques d’Anthropic qui interdit l’accès à Claude depuis la Chine.

Un levier d’optimisation des coûts et d’accélération du développement

Selon Anthropic, au lieu de distiller leurs propres modèles, ces laboratoires auraient utilisé Claude comme « professeur » involontaire. Cela leur permettait d’acquérir certaines capacités plus rapidement et à moindres coûts pour les développer indépendamment. Le volume et la répétition des requêtes auraient ainsi trahi une logique d’extraction systématique plutôt qu’un usage normal. L’attribution repose sur des corrélations d’adresses IP, des métadonnées de requêtes et, dans le cas de Moonshot, des profils publics de cadres dirigeants correspondant aux comptes identifiés.

Violation des CGU et qualification juridique : ce que dit Anthropic

Anthropic n’est pas seul à formuler ces accusations. OpenAI avait adressé le 12 février 2026 un mémo au Congrès américain avec des allégations similaires contre DeepSeek, et Google a signalé des attaques comparables contre Gemini. Trois laboratoires frontier américains, un même diagnostic.

Une violation contractuelle des conditions d’utilisation

La distinction qu’opère Anthropic entre distillation interne légitime et extraction non autorisée chez un concurrent est la violation contractuelle des conditions d’utilisation. Les laboratoires chinois auraient en effet créé plus de 24 000 comptes frauduleux, contournant les restrictions géographiques imposées par Anthropic, qui interdit l’accès à Claude depuis la Chine et violant les règles prohibant la distillation non autorisée. Cependant, cette qualification, si elle est juridiquement fondée, peine à convaincre ceux qui y voient surtout une manœuvre concurrentielle critiquée par Anthropic sous couvert d’un habillage d’alerte sécuritaire.

Sécurité nationale : un argument juridique ou un levier de lobbying ?

Anthropic qualifie explicitement l’affaire comme un enjeu de sécurité nationale, arguant que les modèles distillés perdent les garde-fous de sûreté intégrés aux systèmes américains. Les modèles américains intègrent des garde-fous destinés à prévenir certains usages dangereux (biologie sensible, cyberattaques, etc.). Or, une distillation illicite conserverait les capacités brutes du modèle tout en faisant sauter ces protections, ouvrant la voie à des applications militaires ou sécuritaires non contrôlées. Ce positionnement sert aussi le plaidoyer de l’entreprise en faveur des contrôles à l’exportation de puces plus stricts vers la Chine. À ce jour, aucun des trois laboratoires n’a répondu publiquement.

L’ironie de l’affaire : Anthropic accusatrice et accusée

L’affaire charrie son lot d’ironie. Anthropic elle-même pratique la distillation sur ses propres modèles, et ses données d’entraînement proviennent en grande partie du web, sans consentement explicite des auteurs. Ces mêmes entreprises continuent de défendre devant les tribunaux leur droit à entraîner leurs modèles avec des océans de contenus protégés, souvent sans autorisation ni rémunération pour les auteurs.

En conclusion

Cette affaire cristallise les tensions juridiques du secteur de l’IA générative. Si la violation des conditions d’utilisation constitue un fondement juridiquement solide, l’affaire illustre surtout un paradoxe structurel : les mêmes entreprises qui réclament protection contre l’extraction illicite de leurs modèles défendent par ailleurs leur propre droit à exploiter des contenus protégés sans autorisation. La riposte, Anthropic le reconnaît elle-même, ne pourra pas être seulement individuelle : elle devra mobiliser industriels, hébergeurs et décideurs publics dans une réponse coordonnée.

***

Le cabinet HAAS Avocats est spécialisé depuis trente ans en droit des nouvelles technologies et de la propriété intellectuelle. Il accompagne les acteurs du numérique face à leurs problématiques diverses en la matière, aussi bien en précontentieux qu’en contentieux. Dans un monde incertain, choisissez de vous faire accompagner par un cabinet d’avocats fiables. Pour nous contacter, cliquez ici