Actualité 1 – « Les chatbots ne sont pas conçus pour répondre à des questions d’ordre thérapeutiques » : l’inquiétude grandit sur les dangers de l’IA auprès des plus jeunes
Actualité 2 – Cyberattaques en France : les dernières fuites de données et entreprises touchées
Actualité 3 – Omnibus numérique : le CEPD et l’EDPS soutiennent la simplification et la compétitivité tout en soulevant des préoccupations majeures
Actualité 4 – J’ai piraté ChatGPT et l’IA de Google – et ça n’a pris que 20 minutes.
Actualité 1 – « Les chatbots ne sont pas conçus pour répondre à des questions d’ordre thérapeutiques » : l’inquiétude grandit sur les dangers de l’IA auprès des plus jeunes
Les Échos met en lumière les inquiétudes croissantes liées à l’usage intensif de l’intelligence artificielle par les jeunes générations, en soulignant que les préoccupations autrefois associées aux réseaux sociaux se déplacent désormais vers les outils d’IA.
Contexte
Dans un contexte où l’intelligence artificielle générative se répand rapidement dans la vie quotidienne, notamment chez les adolescents et jeunes adultes, les autorités publiques, scientifiques et acteurs de la société civile s’interrogent sur les conséquences de ces usages. Des études récentes montrent que les chatbots et autres outils d’IA sont de plus en plus présents dans les routines des 12-24 ans et suscitent des préoccupations similaires à celles longtemps associées aux réseaux sociaux.
Résumé des faits
Une étude du Crédoc révèle que 26 % des jeunes Français âgés de 12 à 17 ans utilisent quotidiennement un chatbot d’intelligence artificielle.
L’usage de l’IA générative explose chez les 12-24 ans, utilisé pour l’aide aux devoirs ou des interactions personnelles.
Ce phénomène d’utilisation accrue de l’IA par les jeunes suscite de nouvelles inquiétudes comparables à celles qui ont été soulevées pendant des années à propos des réseaux sociaux.
Les autorités françaises veulent mobiliser la communauté scientifique internationale pour mieux comprendre l’impact de l’IA sur la santé mentale, le développement cognitif et social des adolescents.
Des drames et des contenus illicites associés aux interactions avec des outils d’IA ont contribué à alerter l’opinion publique et les décideurs.
Impact juridique
L’inquiétude grandissante autour des dangers potentiels de l’intelligence artificielle auprès des jeunes rejoint des enjeux réglementaires et législatifs, notamment sur la nécessité de renforcer les cadres de protection des mineurs dans l’environnement numérique. Cela peut impliquer une évolution des lois sur la sécurité en ligne, des obligations de contrôle parental et des responsabilités des plateformes qui proposent des services d’IA afin de limiter l’accès à des mineurs ou garantir des garde-fous adaptés à leur développement. Ces questions se croisent avec des discussions plus larges sur la régulation des technologies numériques en Europe et la protection des données personnelles dans un contexte où les usages d’IA sont de plus en plus intégrés à la vie des jeunes.
Lien vers l’actualité : Les Echos
Actualité 2 – Cyberattaques en France : les dernières fuites de données et entreprises touchées
Le média 01net met en lumière l’intensification continue des cyberattaques visant des organisations françaises et les fuites massives de données personnelles qui en résultent, en dressant un état des lieux des victimes les plus récentes et de la gravité du phénomène.
Contexte
En France, les cyberattaques se multiplient depuis plusieurs mois, affectant aussi bien des entreprises privées que des organismes publics. Les intrusions aboutissent régulièrement à des violations de données sensibles, souvent revendues sur des forums criminels, ce qui alimente une spirale d’attaques de plus en plus fréquentes et étendues.
Résumé des faits
Les cyberattaques ont fortement augmenté en France, avec des intrusions affectant désormais un grand nombre d’organisations privées et publiques.
Les données personnelles des Français, comme les noms, adresses e-mail, numéros de téléphone ou coordonnées bancaires, se retrouvent souvent entre les mains de pirates informatiques et sont vendues sur des marchés noirs.
La France est devenue l’un des pays occidentaux les plus touchés par les violations de données selon plusieurs études de sécurité.
Parmi les principales victimes récentes figurent des prestataires de santé, des opérateurs télécoms (par exemple Free et SFR), des enseignes commerciales comme Boulanger ou Cultura, ainsi que des services publics tels que la Caisse d’Allocations Familiales et France Travail.
Une série d’incidents récents incluent un opérateur mobile piraté début 2026, une fuite touchant 1,2 million de comptes bancaires gérés par le serveur national FICOBA, une attaque contre Darty via un prestataire externe et de nouvelles exfiltrations chez un transporteur de colis.
Ces attaques exploitent fréquemment des identifiants compromis et touchent parfois les systèmes informatiques via des fournisseurs tiers, ce qui augmente l’impact global.
Les conséquences observées incluent la possibilité d’usurpations d’identité, de campagnes de phishing ultra-ciblées et d’attaques répétées en chaîne.
Impact juridique
Ces vagues de cyberattaques soulignent les obligations légales des responsables de traitement de données en vertu du Règlement général sur la protection des données (RGPD), notamment en matière de sécurité des données personnelles et de notification des violations à la CNIL. Lorsqu’une fuite est confirmée, les entreprises doivent notifier l’autorité de contrôle et les personnes concernées dans des délais stricts, sous peine de sanctions administratives. Ces incidents accroissent également la pression sur le renforcement des mécanismes de protection et de conformité, ainsi que sur l’application de sanctions plus dissuasives pour les manquements graves à la sécurité des systèmes d’information.
Actualité 3 – Omnibus numérique : le CEPD et l’EDPS soutiennent la simplification et la compétitivité tout en soulevant des préoccupations majeures
La CNIL présente l’avis conjoint rendu par le Comité européen de la protection des données (CEPD) et le Contrôleur européen de la protection des données (EDPS) concernant le projet d’« omnibus numérique » porté par la Commission européenne, en analysant ses implications pour la protection des données personnelles.
Contexte
La Commission européenne a engagé une initiative dite « omnibus numérique » visant à simplifier et harmoniser certaines obligations prévues par plusieurs textes européens du numérique. Cette démarche s’inscrit dans un contexte de volonté politique de réduction des charges administratives pesant sur les entreprises, tout en maintenant un haut niveau de protection des droits fondamentaux, notamment en matière de protection des données personnelles.
Résumé des faits
Le CEPD et l’EDPS ont rendu un avis conjoint sur la proposition de règlement « omnibus numérique » présentée par la Commission européenne.
L’objectif du projet est de rationaliser et simplifier certaines obligations issues de différents textes européens encadrant l’économie numérique.
Les autorités de protection des données rappellent que toute simplification ne doit pas affaiblir les garanties offertes par le cadre européen en matière de protection des données.
Elles soulignent l’importance de préserver la cohérence avec le RGPD et d’éviter toute insécurité juridique pour les acteurs concernés.
L’avis insiste sur la nécessité de maintenir un niveau élevé de protection des droits fondamentaux, en particulier le droit à la protection des données personnelles.
Les autorités formulent des recommandations afin d’assurer que les ajustements proposés respectent pleinement les principes de proportionnalité, de nécessité et de sécurité juridique.
Impact juridique
Cet avis conjoint rappelle que les initiatives de simplification réglementaire ne peuvent conduire à un affaiblissement du cadre européen de protection des données, structuré autour du RGPD. Il souligne le rôle central des autorités de contrôle dans la préservation d’un haut niveau de protection des droits fondamentaux face aux évolutions du droit du numérique. Les discussions autour de l’« omnibus numérique » pourraient ainsi avoir des conséquences importantes sur l’articulation entre les différents textes européens (RGPD, législations sectorielles numériques) et sur la sécurité juridique des entreprises opérant au sein du marché intérieur.
Actualité 4 – J’ai piraté ChatGPT et l’IA de Google – et ça n’a pris que 20 minutes.
La BBC explore, à travers une enquête journalistique, la facilité avec laquelle certains systèmes d’intelligence artificielle grand public peuvent être contournés, mettant en lumière des failles de sécurité exploitables en quelques minutes.
Contexte
Les modèles d’intelligence artificielle générative, tels que les assistants conversationnels, sont désormais largement déployés auprès du grand public et des entreprises. Malgré les garde-fous intégrés pour empêcher les usages malveillants, des chercheurs en cybersécurité et spécialistes en « prompt injection » démontrent régulièrement qu’il est possible de contourner ces protections. L’article s’inscrit dans ce contexte d’inquiétude croissante concernant la robustesse et la sécurité des IA conversationnelles.
Résumé des faits
Un expert en cybersécurité a démontré qu’il était possible de contourner certaines protections intégrées à des IA comme ChatGPT et l’IA de Google en moins de vingt minutes.
L’attaque ne repose pas sur un piratage technique complexe du système, mais sur une manipulation des instructions (prompt injection) afin de tromper le modèle.
En reformulant les requêtes ou en utilisant des scénarios détournés, il est possible d’obtenir des réponses normalement bloquées par les mécanismes de sécurité.
Ces manipulations peuvent conduire l’IA à générer des contenus sensibles ou potentiellement dangereux, malgré les restrictions mises en place.
Les entreprises développant ces modèles reconnaissent l’existence de ces risques et affirment travailler en continu à l’amélioration des garde-fous.
L’article souligne que ces vulnérabilités ne relèvent pas d’une faille informatique classique, mais des limites structurelles des modèles de langage.
Impact juridique
Ces démonstrations soulèvent des enjeux importants en matière de responsabilité des fournisseurs d’IA, notamment quant à leur obligation de mettre en œuvre des mesures de sécurité proportionnées aux risques. Dans le cadre européen, le futur cadre réglementaire sur l’intelligence artificielle (AI Act) prévoit des exigences renforcées en matière de gestion des risques, de robustesse et de sécurité pour certains systèmes d’IA. De telles vulnérabilités pourraient également engager la responsabilité civile des éditeurs en cas de dommage causé par un usage facilité par un contournement prévisible des garde-fous. Enfin, ces situations interrogent la qualification juridique des « attaques par prompt » : s’agit-il d’un usage détourné relevant de la responsabilité de l’utilisateur, ou d’une défaillance de conception engageant celle du fournisseur ?
Lien vers l’actualité : BBC
