01 56 43 68 80

6, Rue de Saint-Petersbourg, 75008 Paris

L’actualité juridique numérique de la semaine – 15 décembre 2025

Gérard Haas et son équipe ont compilé pour vous les actualités clés afin de vous permettre de rester à jour sur les dernières tendances et évolutions des secteurs juridique et numérique !
Technologie et droit : expert en droit digital, protection des données, et innovations juridiques pour les entreprises.

👉 Consultez dès maintenant notre sélection :

Actualité 1 – La vidéosurveillance algorithmique s’invite dans les municipales et séduit les maires
Actualité 2 – Actualités du CEPD : réforme du RGPD, lignes directrices sur la création de comptes en ligne et fonctionnement du Comité
Actualité 3 – L’IA bouleverse l’évaluation des articles scientifiques
Actualité 4 – Musique et IA : 97 % des auditeurs ne voient pas la différence
Actualité 5 – La CNIL condamne Ledger sans publier la décision : un juge ordonne de la recevoir
Actualité 6 – La consolidation de la position française du droit sui generis : enfin une limite pour le scraping de données ?
Actualité 7 – Reddit attaque en justice l’interdiction des réseaux sociaux en Australie pour les moins de 16 ans
Actualité 8 – La Walt Disney Company et OpenAI concluent un accord historique pour intégrer des personnages emblématiques des différentes marques Disney à Sora.
Actualité 9 – Lutte contre les fraudes sociales et fiscales

Actualité 1 – La vidéosurveillance algorithmique s’invite dans les municipales et séduit les maires

Le Parisien montre l’importance croissante de la vidéosurveillance algorithmique dans le débat public à l’approche des élections municipales de 2026, en soulignant l’intérêt marqué des maires pour l’usage de l’intelligence artificielle dans la sécurité publique.

Contexte

À quelques mois des élections municipales en France, les débats sur la sécurité locale s’intensifient et intègrent de nouvelles technologies. L’usage de l’intelligence artificielle appliquée à des systèmes de vidéosurveillance est désormais un sujet central pour de nombreux élus, reflétant un glissement vers des outils « intelligents » pour répondre aux préoccupations d’ordre public.

  • Une forte majorité des maires (près de 95 %) se déclarent favorables à l’utilisation de l’intelligence artificielle pour renforcer la sécurité publique, selon une étude évoquée dans l’article.
  • La vidéosurveillance algorithmique, c’est-à-dire des systèmes utilisant des logiciels d’analyse automatisée des flux vidéos, est présentée comme un outil potentiellement décisif dans les politiques locales de sécurité.
  • L’article met en avant que ce sujet est désormais un thème important des élections municipales à venir, avec l’application possible de technologies d’IA pour analyser en temps réel les images de caméras de vidéoprotection.
  • Des tests de ce type de technologies ont déjà été menés dans plusieurs villes françaises, ce qui alimente le débat sur leur utilisation élargie.

Impact juridique

L’usage de la vidéosurveillance algorithmique en France est encadré de manière stricte par la réglementation, notamment parce qu’une analyse automatisée en temps réel soulève des questions de respect des libertés publiques et du droit à la vie privée. Hors des cadres très spécifiques d’expérimentations autorisées par la loi (comme pour certains grands événements), ces systèmes sont en principe interdits ou soumis à des contraintes rigoureuses déterminées par la Commission nationale de l’informatique et des libertés (CNIL) et par la jurisprudence administrative, notamment lorsqu’ils intègrent des fonctions de reconnaissance ou d’analyse approfondie des comportements.

Lien vers la source : Le Parisien

Actualité 2 – Actualités du CEPD : réforme du RGPD, lignes directrices sur la création de comptes en ligne et fonctionnement du Comité

La CNIL présente les dernières décisions du Comité européen de la protection des données (CEPD), notamment la discussion autour de la réforme du RGPD, l’adoption de lignes directrices sur la création de comptes utilisateurs en ligne et des bonnes pratiques pour le fonctionnement du Comité.

Contexte

Les 2 et 3 décembre 2025, le Comité européen de la protection des données s’est réuni pour discuter des propositions de modification du règlement général sur la protection des données (RGPD) et de la directive ePrivacy, issues de la Commission européenne. Lors de cette session plénière, le CEPD a également adopté de nouvelles lignes directrices portant sur la création de comptes en ligne et a défini des bonnes pratiques pour l’organisation de son fonctionnement.

Résumé des faits

  • Le CEPD a discuté des propositions de modification du RGPD et de la directive ePrivacy présentées par la Commission européenne les 2 et 3 décembre 2025.

  • Le Comité a adopté des lignes directrices sur la base légale permettant aux sites de commerce en ligne d’imposer ou non la création d’un compte utilisateur.

  • Selon ces lignes directrices, l’obligation de créer un compte peut être justifiée pour certaines finalités spécifiques comme un abonnement ou l’accès à des offres exclusives.

  • Le CEPD recommande, en l’absence de justification forte, de laisser la possibilité à l’utilisateur de passer à l’achat ou de naviguer sans compte ou en tant qu’invité.

  • Une consultation publique sur ces recommandations est ouverte jusqu’au 12 février 2026.

  • Le Comité a également défini une série de bonnes pratiques et de documents procéduraux à la suite de la Déclaration d’Helsinki pour améliorer son fonctionnement et la qualité de ses lignes directrices.

Impact juridique

Les décisions du CEPD influencent l’interprétation et l’application du RGPD dans l’ensemble de l’Union européenne, notamment en clarifiant la base juridique sur laquelle les opérateurs de sites web et de plateformes en ligne peuvent exiger ou non la création de comptes utilisateurs, ce qui touche directement aux principes de minimisation des données et de protection des droits des personnes concernées. Elles s’inscrivent également dans le cadre plus large de la réforme du RGPD et de l’harmonisation des règles de protection des données au sein de l’Union.

Lien vers la source : CNIL

Actualité 3 – L’IA bouleverse l’évaluation des articles scientifiques

Le Monde présente la transformation du système traditionnel d’évaluation des publications scientifiques par l’intelligence artificielle, en soulignant comment des éditeurs de revues testent et débattent de l’usage d’outils IA dans le processus de « peer review » face à ses avantages et risques.

Contexte

Le modèle traditionnel d’évaluation des articles scientifiques repose sur l’examen par des pairs experts, un processus long, parfois lent et difficile, et désormais confronté à l’intégration croissante d’outils d’intelligence artificielle générative dans la relecture et l’analyse des manuscrits soumis aux revues.

Résumé des faits

  • De nombreux éditeurs de revues scientifiques expérimentent des plateformes d’intelligence artificielle pour analyser les avantages et les limites de ces outils dans l’examen des articles soumis.

  • Le système d’évaluation par les pairs (peer review), fondé sur l’avis d’experts, est critiqué pour sa lenteur, la difficulté à mobiliser des relecteurs qualifiés et certaines insuffisances en matière de qualité et d’exactitude.

  • L’IA est désormais capable de générer des rapports d’évaluation de manière automatique, parfois plus rapide, mais soulève des questions quant à la fiabilité et la qualité de ces évaluations par rapport à celles des reviewers humains.

  • Des cas concrets montrent que des évaluateurs ont recours à l’IA pour rédiger des rapports sans le signaler, ce qui pose des problèmes de transparence et de confiance dans le processus.

  • Certains outils automatisés fournissent des retours structurés sur les manuscrits en mettant en évidence des lacunes et des erreurs, mais peuvent manquer de finesse et de compréhension contextuelle.

  • Des revues prestigieuses ont commencé à publier des articles évalués partiellement par des IA, tout en maintenant une supervision humaine pour valider les décisions finales.

Impact juridique

L’intégration de l’intelligence artificielle dans l’évaluation scientifique soulève des enjeux juridiques liés à la responsabilité éditoriale, à la transparence des processus d’examen, et au respect des standards éthiques en matière de publication académique. Les éditeurs et institutions doivent adapter leurs règles internes pour définir dans quelles conditions les outils automatisés peuvent être utilisés, garantir l’authenticité des évaluations et assurer la protection de l’intégrité scientifique, tout en respectant les droits moraux des auteurs et la transparence vis-à-vis de la communauté scientifique.

Lien vers la source : Le Monde

Actualité 4 – Musique et IA : 97 % des auditeurs ne voient pas la différence

Ipsos relève un  constat surprenant réalisé à partir d’une étude menée pour la plateforme musicale Deezer, révélant qu’une écrasante majorité des auditeurs ne parvient pas à distinguer une musique entièrement générée par intelligence artificielle d’une création humaine.

Contexte

Dans un contexte où les outils d’intelligence artificielle générative deviennent de plus en plus performants, une étude internationale menée auprès de 9 000 personnes dans huit pays a été réalisée par l’institut de sondage Ipsos pour Deezer afin d’évaluer la perception du public vis-à-vis de la musique créée par IA et de mesurer la capacité des auditeurs à discerner une création musicale artificielle d’une œuvre humaine. Ipsos

Résumé des faits

  • L’étude Deezer/Ipsos a demandé à tous les participants d’écouter trois extraits musicaux et de déterminer lesquels étaient entièrement générés par intelligence artificielle, mais 97 % des répondants ont échoué à identifier correctement ces morceaux.

  • Une grande majorité des personnes sondées (71 %) ont été surprise par leur incapacité à faire la différence entre musique humaine et musique IA, ce qui montre à quel point les créations automatisées deviennent convaincantes.

  • Plus de la moitié des participants (52 %) ont exprimé un certain malaise à l’idée de ne pas pouvoir distinguer les deux types de musique, soulignant une inquiétude quant à cette évolution.

  • Une large part des personnes interrogées (80 %) estime que la musique entièrement générée par IA devrait être clairement identifiée pour les auditeurs, ce qui reflète une demande pour plus de transparence.

  • Une majorité souhaite savoir si leur plateforme de streaming leur recommande des morceaux 100 % IA, et une part non négligeable craint que l’IA entraîne une perte de créativité et menace les revenus des artistes actuels et futurs.

  • Les répondants jugent également non éthique l’utilisation d’œuvres protégées par le droit d’auteur pour entraîner des modèles d’IA sans autorisation explicite des créateurs.

Impact juridique

L’étude met en lumière des enjeux juridiques et réglementaires importants autour de la musique générée par IA, touchant notamment au droit d’auteur, à la protection des œuvres humaines utilisées pour entraîner les modèles, et à la transparence envers les consommateurs. Une telle transparence peut nécessiter des obligations d’étiquetage ou d’information sur l’origine des créations musicales, afin de garantir la protection des droits des artistes, de prévenir l’atteinte à la propriété intellectuelle et de structurer un cadre réglementaire qui reconnaisse et encadre les œuvres générées par intelligence artificielle.

Lien vers la source : Ipsos

Actualité 5 – La CNIL condamne Ledger sans publier la décision : un juge ordonne de la recevoir

Next.ink relate un cas inédit où la CNIL a sanctionné la société Ledger pour manquements en matière de protection des données personnelles sans rendre publique sa décision, mais un juge a ordonné que cette décision soit remise aux parties au dossier.

Contexte

Ledger, entreprise française spécialisée dans les portefeuilles de crypto-monnaies, a été visée par des piratages de données clients en 2020 et 2021. Suite à ces fuites et à plusieurs plaintes, l’autorité française de protection des données (CNIL) aurait prononcé une sanction à l’encontre de la société pour insuffisances de sécurité, mais n’a pas publié sa décision comme c’est normalement le cas. Cela a conduit à une bataille judiciaire entre les plaignants, Ledger et le tribunal.

Résumé des faits

  • La CNIL aurait condamné Ledger à une amende de 750 000 € pour ne pas avoir mis en place des mesures de sécurité adéquates afin de protéger les données personnelles de ses utilisateurs, à la suite de fuites de données survenues en 2020 et 2021.

  • Contrairement à la pratique habituelle, la CNIL n’a pas publié sa décision de sanction, de sorte qu’il n’apparaît pas clairement sur la liste des sanctions publiques.

  • Dans les documents publics de la CNIL, une mention générique fait référence à une société commercialisant des portefeuilles de cryptomonnaies sanctionnée pour défaut de sécurité et durée de conservation de données, ce qui correspond à Ledger.

  • Des campagnes de phishing ont continué à cibler les clients de Ledger même des années après les fuites, avec des faux courriers et des faux sites.

  • Des clients ayant subi des préjudices ont engagé des procédures civiles contre Ledger et ont demandé l’accès au contenu de la décision de la CNIL pour connaître les détails des griefs.

  • À l’issue d’un litige judiciaire, le juge a ordonné que Ledger remette au tribunal une version confidentielle de la décision de la CNIL, ainsi qu’une version expurgée d’éléments sensibles, afin que cette pièce puisse être examinée dans le cadre du procès.

Impact juridique

Cette affaire met en lumière des questions juridiques importantes autour de la transparence des décisions de l’autorité de protection des données. En principe, les décisions de sanction de la CNIL doivent être publiées pour garantir la publicité des décisions administratives et l’information des personnes concernées, sauf exceptions motivées. Le refus initial de publier la décision pose un débat sur l’équilibre entre la transparence, la protection des intérêts commerciaux des entreprises et les droits des victimes à connaître les motifs et éléments factuels des sanctions. De plus, l’intervention du juge pour ordonner la communication de la décision – même de manière partiellement expurgée – souligne la tension entre confidentialité, procédure judiciaire civile et exigences de publicité administrative en droit de la protection des données.

Lien vers la source : Next.ink

Actualité 6 – La consolidation de la position française du droit sui generis : enfin une limite pour le scraping de données ?

Dalloz montre l’évolution récente de la jurisprudence française sur le droit sui generis des bases de données et de l’impact de cette position consolidée sur la régulation du scraping de données, en soulignant comment les juridictions précisent désormais les conditions dans lesquelles le producteur d’une base de données peut interdire l’extraction et la réutilisation automatisées du contenu.

Contexte

Le scraping — c’est-à-dire l’extraction automatisée de données accessibles en ligne — est une pratique répandue pour alimenter des services, des moteurs de recherche ou des systèmes d’IA. En droit français, la protection des bases de données passe par le droit sui generis issu de la transposition de la directive européenne sur la protection juridique des bases de données, qui vise à protéger les investissements substantiels réalisés par les producteurs de bases. Les tribunaux français, confrontés à des litiges récents, ont précisé comment ce droit s’applique face au scraping, notamment en termes de limite à l’extraction et de risque d’atteinte aux investissements.

Résumé des faits

  • Un article juridique analyse la consolidation de la position française du droit sui generis, en lien avec une décision judiciaire récente (15 octobre 2025) qui clarifie les conditions d’application de ce droit en cas de scraping de données.

  • Selon cette décision, pour prononcer l’interdiction d’extraction ou de réutilisation d’une base de données au titre du droit sui generis, le juge doit vérifier si l’exploitation litigieuse met en risque l’amortissement des investissements réalisés par le producteur de la base.

  • Cette exigence découle de l’article L. 342-1 du Code de la propriété intellectuelle français, qui transcrit en droit interne la protection sui generis des bases de données.

  • La jurisprudence française récente tend donc à limiter la portée du droit sui generis en matière de scraping dès lors que l’atteinte alléguée ne démontre pas une menace sérieuse pour l’investissement du producteur.

  • Cela s’inscrit dans un contexte juridique européen où le droit sui generis protège spécifiquement les bases résultant d’un investissement substantiel pour leur constitution, vérification ou présentation, mais où des arrêts de la jurisprudence européenne imposent une appréciation équilibrée entre protection des investissements et accès à l’information.

Impact juridique

La consolidation de la jurisprudence française sur le droit sui generis des bases de données a des conséquences juridiques importantes pour le scraping de données : elle clarifie les conditions dans lesquelles un producteur de base peut interdire l’extraction automatisée en démontrant que cette extraction entraîne véritablement un risque pour l’amortissement de son investissement. En pratique, cela signifie que le droit sui generis ne constitue plus une protection automatique et absolue contre toute extraction de données ; les juges exigent désormais une appréciation du risque effectif pour l’investissement substantiel du producteur, ce qui peut réduire la portée des actions en interdiction de scraping. Cette évolution renforce l’équilibre entre la protection des bases de données et la liberté d’accès à l’information, tout en influençant la manière dont les entreprises structurent leurs stratégies de collecte ou de défense contre le scraping dans le cadre du droit de la propriété intellectuelle.

Lien vers la source : Dalloz

Actualité 7 – Reddit attaque en justice l’interdiction des réseaux sociaux en Australie pour les moins de 16 ans

Le Monde explique la réaction judiciaire de la plateforme Reddit contre la nouvelle loi australienne qui interdit aux enfants de moins de 16 ans de détenir des comptes sur les réseaux sociaux, en mettant en évidence la contestation constitutionnelle engagée par l’entreprise.

Contexte

L’Australie a récemment adopté une loi pionnière — l’Online Safety Amendment (Social Media Minimum Age) Act — qui, à partir du 10 décembre 2025, interdit aux mineurs de moins de 16 ans de posséder des comptes sur de nombreuses plateformes sociales populaires afin de protéger les enfants des effets néfastes perçus des réseaux sociaux. Cette mesure, qui s’applique à des services tels que Facebook, Instagram, TikTok, Snapchat, YouTube et Reddit, impose aux plateformes de prendre des mesures pour empêcher l’inscription ou la conservation de comptes par de jeunes utilisateurs, sous peine de lourdes sanctions financières.

Résumé des faits

  • La plateforme de discussion en ligne Reddit a déposé une recours devant la Haute Cour d’Australie pour contester la loi qui interdit aux moins de 16 ans de détenir des comptes sur les réseaux sociaux.

  • Reddit affirme que cette loi constitue une atteinte à la liberté implicite de communication politique reconnue par la Constitution australienne, car elle empêche les jeunes de participer à des discussions publiques en ligne.

  • L’entreprise soutient aussi que la législation est mal adaptée à son service, la qualifiant davantage de forum de discussion centrée sur les sujets que de réseau social traditionnel, et qu’elle pourrait entraîner des processus intrusifs de vérification d’âge.

  • Reddit a indiqué qu’elle se conformerait temporairement à la loi tout en poursuivant le litige, en engageant le débat sur la définition même des plateformes soumises à la restriction.

  • D’autres recours ont également été déposés contre cette législation, notamment par des adolescents australiens soutenus par une association de défense des libertés, qui contestent aussi son constitutionnalité.

  • La loi en question prévoit des amendes importantes pour les plateformes qui ne prennent pas de « mesures raisonnables » afin d’empêcher que les utilisateurs australiens de moins de 16 ans détiennent des comptes, marquant une première mondiale dans la restriction d’accès aux réseaux sociaux.

Impact juridique

La contestation judiciaire entreprise par Reddit soulève d’importantes questions juridiques sur les limites de l’intervention législative dans l’accès des mineurs aux services numériques, et plus particulièrement sur l’articulation entre la protection des enfants et les libertés fondamentales, comme la liberté d’expression et la liberté de communication politique garanties par la Constitution australienne. D’un point de vue réglementaire, cette affaire pourrait définir des précédents en matière d’âge minimum légal pour l’accès aux plateformes en ligne, influencer la manière dont les gouvernements mondiaux conçoivent la régulation des réseaux sociaux et tester la validité constitutionnelle de dispositifs restrictifs de ce type.

Lien vers la source : Le Monde

Actualité 8 – La Walt Disney Company et OpenAI concluent un accord historique pour intégrer des personnages emblématiques des différentes marques Disney à Sora.

OpenAI annonce d’un partenariat stratégique avec The Walt Disney Company, qui permet à la plateforme de génération vidéo par intelligence artificielle Sora de créer des contenus à partir de personnages emblématiques des univers Disney, Marvel, Pixar et Star Wars, tout en marquant un investissement significatif de Disney dans OpenAI.

Contexte

Face à l’essor des technologies d’intelligence artificielle générative — notamment dans les domaines de l’image et de la vidéo — Disney et OpenAI ont conclu un accord de licence de grande envergure visant à encadrer l’utilisation de propriétés intellectuelles de Disney dans des productions créées par IA, une étape importante dans la relation entre grands studios de divertissement et acteurs de la tech.

Résumé des faits

  • OpenAI et The Walt Disney Company ont annoncé un accord de licence de trois ans qui permet à la plateforme de génération vidéo IA Sora de produire, à partir de prompts d’utilisateurs, des courtes vidéos mettant en scène plus de 200 personnages issus des univers Disney, Marvel, Pixar et Star Wars.

  • Cette licence comprend non seulement les personnages animés et créatures, mais aussi éléments visuels associés comme vêtements, accessoires, véhicules et environnements iconiques, bien qu’elle n’inclue pas les ressemblances de talents ou les voix des acteurs.

  • Une sélection des vidéos générées par Sora pourra être diffusée sur la plateforme Disney+, étendant ainsi l’expérience interactive entre les fans et les univers narratifs de Disney.

  • Disney s’engage également comme client majeur d’OpenAI, en intégrant les API et technologies OpenAI (y compris ChatGPT) dans ses propres produits, services et opérations internes.

  • Dans le cadre de cet accord, Disney effectue un investissement en capital d’un milliard de dollars dans OpenAI et reçoit des warrants pour l’achat d’actions supplémentaires, renforçant ainsi les liens financiers entre les deux entreprises.

  • OpenAI et Disney affirment un engagement commun envers une utilisation responsable de l’IA, incluant des mesures de sécurité et le respect des droits des créateurs et des utilisateurs lors de la génération de contenu.

Impact juridique

Cet accord a des implications importantes en matière de propriété intellectuelle et de régulation de l’intelligence artificielle. En ouvrant légalement les univers protégés de Disney à la génération de contenus par IA sous licence, il établit un cadre contractuel clair pour l’utilisation de droits d’auteur et de marques dans les modèles génératifs, tout en fixant des garde-fous quant aux représentations de voix et de ressemblances de talents (personnes vivantes). Il illustre aussi une nouvelle approche de collaboration entre détenteurs de droits et développeurs d’IA, visant à gérer les risques juridiques autour de la création de contenu généré par IA — notamment en matière de respect des droits d’auteur, de la sécurité des utilisateurs et de la transparence sur l’origine des personnages et éléments utilisés.

Lien vers la source : OpenAI

Actualité 9 – Lutte contre les fraudes sociales et fiscales

Le Sénat explique le projet de loi engagé par le Gouvernement en octobre 2025 pour renforcer les moyens de lutte contre les fraudes sociales et fiscales en France, en complétant les textes antérieurs et en améliorant le partage d’informations entre administrations et dispositifs de contrôle.

Contexte

Face à l’importance des fraudes qui portent atteinte aux recettes publiques et à la solidarité sociale, le Gouvernement dépose un projet de loi visant à moderniser et renforcer les outils de détection, de prévention et de répression de la fraude fiscale et sociale. Ce texte s’inscrit dans la continuité des réformes récentes, notamment la loi contre les fraudes aux aides publiques de juin 2025 et les plans nationaux de lutte contre la fraude.

Résumé des faits

  • Le Projet de loi n° 24 (2025-2026) relatif à la lutte contre les fraudes sociales et fiscales a été déposé au Sénat le 14 octobre 2025 et figure parmi les textes examinés en procédure accélérée.

  • Il est présenté par plusieurs membres du Gouvernement, dont le Premier ministre et les ministres des solidarités, de la santé, et de l’action et des comptes publics, qui exposent les motifs et soutiennent sa discussion devant les parlementaires.

  • Le texte vise notamment à améliorer la détection de la fraude fiscale et sociale par un meilleur partage et une exploitation plus efficace des informations entre les services de contrôle judiciaire, douaniers, fiscaux et les administrations sociales.

  • Un premier article rétablit au code de procédure pénale un dispositif permettant, sur autorisation judiciaire ou du procureur, la communication d’informations recueillies lors d’enquêtes judiciaires aux administrations chargées du contrôle des fraudes.

  • Des travaux en commissions du Sénat, notamment par la commission des finances, ont conduit à l’examen d’amendements pour renforcer les moyens de contrôle, par exemple via des dispositifs de contrôle des terminaux de paiement électronique afin de détecter des flux illicites.

  • Ce projet de loi complète des dispositifs antérieurs, en favorisant la coopération entre administrations fiscales, organismes sociaux, autorités de lutte contre le blanchiment et collectivités territoriales pour mieux repérer et réduire les circuits de fraude.

Le projet de loi réorganise et renforce le cadre juridique de la lutte contre les fraudes sociales et fiscales en France en adaptant des règles de procédure pénale, en facilitant l’échange d’informations entre administrations et en élargissant les moyens de contrôle. Sur le plan juridique, il clarifie les compétences des autorités judiciaires et administratives dans la coopération contre la fraude, modifie des obligations de communication d’informations entre services, et prévoit des renforcements de sanctions administratives et pénales applicables aux infractions de fraude fiscale et sociale. Ce texte pourrait aussi influencer des domaines connexes du droit, comme les obligations déclaratives des entreprises, le contrôle des dispositifs de paiement électronique et les règles d’assujettissement à la lutte contre le blanchiment et le financement du terrorisme.

Lien vers la source : Sénat.fr

Photo d'une équipe d'avocats professionnels en développement constant, illustrant l'expertise de Haas Avocats, en gestion juridique et stratégie de protection légale, pour accompagner chaque client.