01 56 43 68 80

6, Rue de Saint-Petersbourg, 75008 Paris

Encadrement de l’IA en Corée du Sud : obligations et conformité

La Corée du Sud vient de franchir un cap important en matière de régulation de l’intelligence artificielle.
Illustration d'un professionnel en costume utilisant une tablette avec des icônes liées à la réglementation de l'IA en Corée du Sud, symbolisant la conformité juridique.

La « Loi fondamentale sur le développement de l’intelligence artificielle et l’établissement d’une base de confiance », entrée en vigueur le 22 janvier 2026, vient ainsi encadrer l’usage de l’IA tout en soutenant son développement.

Celle-ci introduit notamment la notion d’« IA à haut risque » dans le cadre de systèmes utilisés dans des secteurs sensibles tels que le recrutement, la finance, les transports ou la santé, obligeant les opérateurs à informer les utilisateurs et à protéger les données collectées.

Filigrane et conformité IA : entre protection et contraintes

En outre, la loi impose un filigrane sur les contenus générés par l’IA, dans un objectif de lutte contre les deepfakes.

Cette mesure, pourtant présentée comme une protection minimale, suscite toutefois des interrogations. Les filigranes pourraient en effet altérer la perception des contenus et réduire leur valeur marchande, en particulier pour les secteurs du jeu vidéo et des médias numériques.

Par ailleurs, la loi sud-coréenne ne s’applique qu’aux acteurs dépassant certains seuils de chiffre d’affaires ou d’utilisateurs, laissant de côté de nombreux producteurs d’IA générative étrangers.

Cette asymétrie pourrait ainsi créer ce qui est communément considéré comme un « risque de discrimination inversée », où les entreprises locales réglementées se retrouvent désavantagées face à des concurrents internationaux moins encadrés.

Régulation de l’IA en Corée du Sud : ambitions juridiques et limites économiques

La législation sud-coréenne semble ici s’inspirer du droit européen sur l’IA et notamment du Règlement AI Act[1], mais adopte une approche volontaire et simultanée, sans certification externe obligatoire.

Cette approche s’est traduite par un niveau de préparation particulièrement faible des acteurs du marché. Selon une enquête menée par Startup Alliance, seules 2 % des start-up interrogées avaient instauré un dispositif de conformité avant l’entrée en vigueur de la loi. Ce retard s’explique notamment par la prudence des entreprises, dans l’attente des décrets d’application destinés à préciser la portée et les modalités concrètes des nouvelles obligations qui leur sont imposées.

Si l’intention est la création d’un cadre à la fois sûr et responsable, le texte risque d’avoir une efficacité pratique fortement limitée face à des usages transfrontaliers et à la prolifération de contenus de faible qualité produits par des outils étrangers.

La loi sud-coréenne illustre toute la complexité d’encadrer juridiquement l’IA. En effet, celle-ci vient poser les bases d’une régulation ambitieuse, tout en soulevant des questions sur l’équité concurrentielle et la réelle capacité de contrôler des contenus numériques mondialisés. Cette initiative révèle des interrogations beaucoup plus larges : jusqu’où un État peut-il encadrer l’IA sans pour autant freiner l’innovation ? Et comment articuler protection juridique et compétitivité dans un environnement technologique globalisé ?

***

Le cabinet HAAS Avocats est spécialisé depuis trente ans en droit des nouvelles technologies et de la propriété intellectuelle. Il accompagne de nombreux acteurs dans le cadre de la gestion de leurs portefeuilles de marques et gère notamment les contentieux judiciaires et extrajudiciaires en matière de marques. Dans un monde incertain, choisissez de vous faire accompagner par un cabinet d’avocats fiable. Pour en savoir plus, contactez-nous ici

[1] Règlement (UE) 2024/1689 du parlement européen et du conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle