01 56 43 68 80

6, Rue de Saint-Petersbourg, 75008 Paris

L’actualité juridique numérique de la semaine – 23 février 2026

Gérard Haas et son équipe ont compilé pour vous les actualités clés afin de vous permettre de rester à jour sur les dernières tendances et évolutions des secteurs juridique et numérique !
Technologie et droit : expert en droit digital, protection des données, et innovations juridiques pour les entreprises.

Actualité 1 – « Les chatbots ne sont pas conçus pour répondre à des questions d’ordre thérapeutiques » : l’inquiétude grandit sur les dangers de l’IA auprès des plus jeunes
Actualité 2 – Cyberattaques en France : les dernières fuites de données et entreprises touchées
Actualité 3 – Omnibus numérique : le CEPD et l’EDPS soutiennent la simplification et la compétitivité tout en soulevant des préoccupations majeures
Actualité 4 – J’ai piraté ChatGPT et l’IA de Google – et ça n’a pris que 20 minutes.

Actualité 1 – « Les chatbots ne sont pas conçus pour répondre à des questions d’ordre thérapeutiques » : l’inquiétude grandit sur les dangers de l’IA auprès des plus jeunes

Les Échos met en lumière les inquiétudes croissantes liées à l’usage intensif de l’intelligence artificielle par les jeunes générations, en soulignant que les préoccupations autrefois associées aux réseaux sociaux se déplacent désormais vers les outils d’IA.

Contexte

Dans un contexte où l’intelligence artificielle générative se répand rapidement dans la vie quotidienne, notamment chez les adolescents et jeunes adultes, les autorités publiques, scientifiques et acteurs de la société civile s’interrogent sur les conséquences de ces usages. Des études récentes montrent que les chatbots et autres outils d’IA sont de plus en plus présents dans les routines des 12-24 ans et suscitent des préoccupations similaires à celles longtemps associées aux réseaux sociaux.

Résumé des faits

  • Une étude du Crédoc révèle que 26 % des jeunes Français âgés de 12 à 17 ans utilisent quotidiennement un chatbot d’intelligence artificielle.

  • L’usage de l’IA générative explose chez les 12-24 ans, utilisé pour l’aide aux devoirs ou des interactions personnelles.

  • Ce phénomène d’utilisation accrue de l’IA par les jeunes suscite de nouvelles inquiétudes comparables à celles qui ont été soulevées pendant des années à propos des réseaux sociaux.

  • Les autorités françaises veulent mobiliser la communauté scientifique internationale pour mieux comprendre l’impact de l’IA sur la santé mentale, le développement cognitif et social des adolescents.

  • Des drames et des contenus illicites associés aux interactions avec des outils d’IA ont contribué à alerter l’opinion publique et les décideurs.

Impact juridique

L’inquiétude grandissante autour des dangers potentiels de l’intelligence artificielle auprès des jeunes rejoint des enjeux réglementaires et législatifs, notamment sur la nécessité de renforcer les cadres de protection des mineurs dans l’environnement numérique. Cela peut impliquer une évolution des lois sur la sécurité en ligne, des obligations de contrôle parental et des responsabilités des plateformes qui proposent des services d’IA afin de limiter l’accès à des mineurs ou garantir des garde-fous adaptés à leur développement. Ces questions se croisent avec des discussions plus larges sur la régulation des technologies numériques en Europe et la protection des données personnelles dans un contexte où les usages d’IA sont de plus en plus intégrés à la vie des jeunes.

Lien vers l’actualité : Les Echos

Actualité 2 – Cyberattaques en France : les dernières fuites de données et entreprises touchées

Le média 01net met en lumière l’intensification continue des cyberattaques visant des organisations françaises et les fuites massives de données personnelles qui en résultent, en dressant un état des lieux des victimes les plus récentes et de la gravité du phénomène.

Contexte

En France, les cyberattaques se multiplient depuis plusieurs mois, affectant aussi bien des entreprises privées que des organismes publics. Les intrusions aboutissent régulièrement à des violations de données sensibles, souvent revendues sur des forums criminels, ce qui alimente une spirale d’attaques de plus en plus fréquentes et étendues.

Résumé des faits

  • Les cyberattaques ont fortement augmenté en France, avec des intrusions affectant désormais un grand nombre d’organisations privées et publiques.

  • Les données personnelles des Français, comme les noms, adresses e-mail, numéros de téléphone ou coordonnées bancaires, se retrouvent souvent entre les mains de pirates informatiques et sont vendues sur des marchés noirs.

  • La France est devenue l’un des pays occidentaux les plus touchés par les violations de données selon plusieurs études de sécurité.

  • Parmi les principales victimes récentes figurent des prestataires de santé, des opérateurs télécoms (par exemple Free et SFR), des enseignes commerciales comme Boulanger ou Cultura, ainsi que des services publics tels que la Caisse d’Allocations Familiales et France Travail.

  • Une série d’incidents récents incluent un opérateur mobile piraté début 2026, une fuite touchant 1,2 million de comptes bancaires gérés par le serveur national FICOBA, une attaque contre Darty via un prestataire externe et de nouvelles exfiltrations chez un transporteur de colis.

  • Ces attaques exploitent fréquemment des identifiants compromis et touchent parfois les systèmes informatiques via des fournisseurs tiers, ce qui augmente l’impact global.

  • Les conséquences observées incluent la possibilité d’usurpations d’identité, de campagnes de phishing ultra-ciblées et d’attaques répétées en chaîne.

Impact juridique

Ces vagues de cyberattaques soulignent les obligations légales des responsables de traitement de données en vertu du Règlement général sur la protection des données (RGPD), notamment en matière de sécurité des données personnelles et de notification des violations à la CNIL. Lorsqu’une fuite est confirmée, les entreprises doivent notifier l’autorité de contrôle et les personnes concernées dans des délais stricts, sous peine de sanctions administratives. Ces incidents accroissent également la pression sur le renforcement des mécanismes de protection et de conformité, ainsi que sur l’application de sanctions plus dissuasives pour les manquements graves à la sécurité des systèmes d’information.

Lien vers l’actualité : 01Net

Actualité 3 – Omnibus numérique : le CEPD et l’EDPS soutiennent la simplification et la compétitivité tout en soulevant des préoccupations majeures

La CNIL présente l’avis conjoint rendu par le Comité européen de la protection des données (CEPD) et le Contrôleur européen de la protection des données (EDPS) concernant le projet d’« omnibus numérique » porté par la Commission européenne, en analysant ses implications pour la protection des données personnelles.

Contexte

La Commission européenne a engagé une initiative dite « omnibus numérique » visant à simplifier et harmoniser certaines obligations prévues par plusieurs textes européens du numérique. Cette démarche s’inscrit dans un contexte de volonté politique de réduction des charges administratives pesant sur les entreprises, tout en maintenant un haut niveau de protection des droits fondamentaux, notamment en matière de protection des données personnelles.

Résumé des faits

  • Le CEPD et l’EDPS ont rendu un avis conjoint sur la proposition de règlement « omnibus numérique » présentée par la Commission européenne.

  • L’objectif du projet est de rationaliser et simplifier certaines obligations issues de différents textes européens encadrant l’économie numérique.

  • Les autorités de protection des données rappellent que toute simplification ne doit pas affaiblir les garanties offertes par le cadre européen en matière de protection des données.

  • Elles soulignent l’importance de préserver la cohérence avec le RGPD et d’éviter toute insécurité juridique pour les acteurs concernés.

  • L’avis insiste sur la nécessité de maintenir un niveau élevé de protection des droits fondamentaux, en particulier le droit à la protection des données personnelles.

  • Les autorités formulent des recommandations afin d’assurer que les ajustements proposés respectent pleinement les principes de proportionnalité, de nécessité et de sécurité juridique.

Impact juridique

Cet avis conjoint rappelle que les initiatives de simplification réglementaire ne peuvent conduire à un affaiblissement du cadre européen de protection des données, structuré autour du RGPD. Il souligne le rôle central des autorités de contrôle dans la préservation d’un haut niveau de protection des droits fondamentaux face aux évolutions du droit du numérique. Les discussions autour de l’« omnibus numérique » pourraient ainsi avoir des conséquences importantes sur l’articulation entre les différents textes européens (RGPD, législations sectorielles numériques) et sur la sécurité juridique des entreprises opérant au sein du marché intérieur.

La BBC explore, à travers une enquête journalistique, la facilité avec laquelle certains systèmes d’intelligence artificielle grand public peuvent être contournés, mettant en lumière des failles de sécurité exploitables en quelques minutes.

Contexte

Les modèles d’intelligence artificielle générative, tels que les assistants conversationnels, sont désormais largement déployés auprès du grand public et des entreprises. Malgré les garde-fous intégrés pour empêcher les usages malveillants, des chercheurs en cybersécurité et spécialistes en « prompt injection » démontrent régulièrement qu’il est possible de contourner ces protections. L’article s’inscrit dans ce contexte d’inquiétude croissante concernant la robustesse et la sécurité des IA conversationnelles.

Résumé des faits

  • Un expert en cybersécurité a démontré qu’il était possible de contourner certaines protections intégrées à des IA comme ChatGPT et l’IA de Google en moins de vingt minutes.

  • L’attaque ne repose pas sur un piratage technique complexe du système, mais sur une manipulation des instructions (prompt injection) afin de tromper le modèle.

  • En reformulant les requêtes ou en utilisant des scénarios détournés, il est possible d’obtenir des réponses normalement bloquées par les mécanismes de sécurité.

  • Ces manipulations peuvent conduire l’IA à générer des contenus sensibles ou potentiellement dangereux, malgré les restrictions mises en place.

  • Les entreprises développant ces modèles reconnaissent l’existence de ces risques et affirment travailler en continu à l’amélioration des garde-fous.

  • L’article souligne que ces vulnérabilités ne relèvent pas d’une faille informatique classique, mais des limites structurelles des modèles de langage.

Impact juridique

Ces démonstrations soulèvent des enjeux importants en matière de responsabilité des fournisseurs d’IA, notamment quant à leur obligation de mettre en œuvre des mesures de sécurité proportionnées aux risques. Dans le cadre européen, le futur cadre réglementaire sur l’intelligence artificielle (AI Act) prévoit des exigences renforcées en matière de gestion des risques, de robustesse et de sécurité pour certains systèmes d’IA. De telles vulnérabilités pourraient également engager la responsabilité civile des éditeurs en cas de dommage causé par un usage facilité par un contournement prévisible des garde-fous. Enfin, ces situations interrogent la qualification juridique des « attaques par prompt » : s’agit-il d’un usage détourné relevant de la responsabilité de l’utilisateur, ou d’une défaillance de conception engageant celle du fournisseur ?

Lien vers l’actualité : BBC