01 56 43 68 80

6, Rue de Saint-Petersbourg, 75008 Paris

IA générative : la High Court fixe les limites de la contrefaçon

Le 4 novembre 2025, la High Court of Justice de Londres a rendu une décision attendue dans le litige opposant Getty Images, acteur mondial de la photographie sous licence, à Stability AI, l’un des principaux développeurs de modèles génératifs.
Balance de justice ornée de chaînes dorées, symbole d'équité et de légalité, avec des livres de droit en arrière-plan qui reflètent l'expertise juridique et l'accompagnement professionnel.

Ce contentieux s’inscrit dans un contexte de multiplication des actions judiciaires contre les entreprises d’intelligence artificielle, accusées d’utiliser des contenus protégés pour entraîner leurs systèmes.

L’arrêt éclaire plusieurs tensions majeures : la distinction entre apprentissage algorithmique et reproduction, la difficulté de protéger des œuvres en ligne face aux technologies de scraping massif, et le rôle encore limité des cadres juridiques actuels. Cette décision, qualifiée par le juge d’ « historique et extrêmement limitée dans sa portée », constitue pourtant un jalon important pour la compréhension de la responsabilité des systèmes d’IA.

Les faits clés du litige Getty Images c. Stability AI : extraction d’images et accusations de contrefaçon

Getty reprochait à Stability AI d’avoir extrait et utilisé sans autorisation des millions d’images issues de ses bases pour entraîner le modèle Stable Diffusion. Elle invoquait trois fondements principaux :

  • la violation du droit d’auteur et des droits sur les bases de données ;
  • la contrefaçon de marques, en raison de l’apparition des filigranes « Getty » et « iStock » dans certaines images générées ;
  • un passing off, c’est-à-dire une appropriation trompeuse de sa réputation commerciale.

Stability AI contestait ces allégations en avançant que l’entraînement n’avait pas été réalisé au Royaume-Uni ; les modèles d’IA ne reproduisent pas et ne stockent pas les œuvres présentes dans les datasets ; et que la présence de filigranes résultait de cas isolés et de comportements d’utilisateurs tiers.

A noter : L’affaire en question était une liability trial, limitée à la détermination du principe de la responsabilité. Ainsi, aucune sanction financière n’a été prononcée à ce stade. La question de l’éventuelle indemnisation est renvoyée à une phase ultérieure, dite quantum trial.

Les questions juridiques majeures soulevées par la décision Getty Images c. Stability AI

La responsabilité de Stability AI écartée sur le terrain du droit d’auteur

Getty espérait faire reconnaître que Stable Diffusion constituait une copie contrefaite de ses images, au motif qu’il avait été entraîné à partir de celles-ci. La Cour rejette cependant cette thèse, estimant que :

  • le modèle n’enregistre, ne stocke ni ne reproduit les images sources ;
  • il ne constitue pas un « article » contenant une copie au sens du Copyright, Designs and Patents Act (CDPA) ;
  • les opérations d’entraînement s’étant déroulées hors du Royaume-Uni, le CDPA ne peut être appliqué.

Cette distinction entre apprentissage statistique et reproduction constitue l’un des apports les plus marquants du jugement. Elle conduit à écarter toute violation du droit d’auteur.

Les atteintes aux marques : une contrefaçon reconnue mais circonscrite

La Cour admet que certaines images générées par Stable Diffusion comportaient des filigranes « Getty Images » ou « iStock », protégés comme marques. Elle y voit des actes de contrefaçon, mais pour une portée qualifiée d’« extrêmement limitée » : En effet, ces reproductions furent peu nombreuses, et elles ne démontrent aucune atteinte à la renommée ni avantage indu pour Stability AI. Les juges soulignent en outre que ces occurrences ont été corrigées dans les versions ultérieures du modèle.

Les enjeux juridiques majeurs révélés par l’affaire Getty Images c. Stability AI

Les limites du droit d’auteur face à l’apprentissage automatique des modèles d’IA

L’affaire révèle l’inadéquation des notions classiques du droit d’auteur — copie, reproduction, extraction — face à des modèles fonctionnant par calculs statistiques. La Cour reconnaît explicitement que le modèle d’IA n’est pas un réceptacle d’œuvres mais le résultat d’un processus d’apprentissage non assimilable à une reproduction. Cette analyse est perçue comme une victoire importante pour les développeurs, le jugement imposant un seuil de preuve élevé pour établir une contrefaçon.

Les nouveaux défis de protection des œuvres pour les titulaires de droits face aux IA génératives

Getty souligne la difficulté, même pour des acteurs disposant de ressources considérables, de contrôler l’utilisation de leurs images dans les entrainements de modèles. L’entreprise appelle à des règles de transparence renforcées concernant les datasets et les processus d’entraînement.

Cette position reflète une tension plus large : la loi peine à suivre le rythme de l’innovation algorithmique.

Vers de nouvelles pratiques de protection et de traçabilité

Face à ces limites juridiques, les acteurs du secteur préconisent des solutions techniques permettant de renforcer la traçabilité des œuvres :

  • horodatage des créations via des outils blockchain ;
  • watermarks invisibles appliqués aux images ;
  • documentation des datasets et des workflows ;
  • certificats d’authenticité des modèles et des styles.

Ces outils visent à compenser les zones d’incertitude du droit positif en permettant une meilleure preuve de l’origine des contenus.

L’arrêt Getty Images c. Stability AI fixe des repères importants dans l’appréhension juridique des modèles d’IA générative. Il clarifie que l’entraînement d’un modèle, en tant que processus statistique ne reproduisant pas les œuvres sources, ne constitue pas une violation du droit d’auteur. En revanche, il rappelle que la production d’images incorporant des signes distinctifs protégés, même de manière isolée, peut engager la responsabilité en contrefaçon de marque.

Cette décision, bien que qualifiée par le tribunal lui-même de « limitée », marque une étape significative dans la construction d’un régime de responsabilité adapté à l’intelligence artificielle. Elle met en lumière à la fois la nécessité d’adapter les cadres juridiques existants et l’importance croissante des mécanismes de traçabilité et de transparence dans les pratiques des créateurs et des développeurs.

***

Le cabinet HAAS Avocats est spécialisé depuis trente ans en droit des nouvelles technologies et en droit de la propriété intellectuelle. Il accompagne les acteurs du numérique dans le cadre de leurs problématiques judiciaires et extrajudiciaires relatives au droit de la protection des données. Dans un monde incertain, choisissez de vous faire accompagner par un cabinet d’avocats fiables. Pour nous contacter, cliquez ici.

Photo d'une équipe d'avocats professionnels en développement constant, illustrant l'expertise de Haas Avocats, en gestion juridique et stratégie de protection légale, pour accompagner chaque client.