Ce phénomène, désormais massif, a attiré l’attention de la CNIL qui a choisi de mener une action de sensibilisation afin d’informer les citoyens sur les droits dont ils disposent et sur les précautions à adopter.
IA concernées : quelles plateformes utilisent vos données ?
De nombreux acteurs du milieu ont récemment annoncé ou confirmé l’utilisation des contenus générés par les utilisateurs (publications publiques, interactions avec des assistants IA, extraits de profils, etc.) à des fins d’entraînement ou d’amélioration de leurs systèmes. La CNIL, soucieuse d’informer les personnes concernées, a choisi de sensibiliser le public au sujet des IA suivantes :
- Google – Gemini ;
- Meta – Meta AI (Facebook, Instagram, WhatsApp);
- OpenAI – ChatGPT ;
- Microsoft – Copilot ;
- X – Grok ;
- DeepSeek ;
- Mistral – Le Chat ;
- Anthropic – Claude ;
Ces acteurs peuvent parfois collecter de larges volumes de contenus accessibles publiquement ou issus des interactions directes entre l’utilisateur et l’assistant IA (chat, requêtes, images partagées, etc.).
L’objectif est clair : renforcer la qualité de leurs modèles et développer une meilleure compréhension du langage, des réponses plus pertinentes, une réduction des hallucinations, etc.
Intérêt légitime et droit d’opposition : les enjeux pour les utilisateurs
Les plateformes se fondent principalement sur la base légale de l’intérêt légitime[1] pour justifier l’utilisation des données des utilisateurs dans le cadre de l’entraînement de leurs modèles IA.
Finalité annoncée : entraînement et amélioration des modèles d’IA
La finalité généralement invoquée consiste, en effet, à réutiliser les données traitées dans le cadre de leurs services (dispositif IA, plateforme, réseau social, etc) afin d’améliorer les performances techniques des modèles d’IA.
Cela peut inclure notamment :
- les conversations avec des assistants IA intégrés (ex. Meta AI, Copilot) ;
- les publications diffusées publiquement sur des réseaux sociaux ;
- les métadonnées associées ;
- les interactions au sein d’outils collaboratifs ou professionnels.
Effets du droit d’opposition sur l’usage de vos données IA
Lorsque l’opposition est acceptée :
- la plateforme doit empêcher que les données de l’utilisateur soient utilisées pour entraîner les modèles d’IA ;
- cette interdiction s’étend, en principe, aux traitements effectués par des tiers utilisant les données issues du service ;
- l’utilisateur doit être clairement informé des conséquences (ex. certaines fonctionnalités d’IA pourraient être limitées).
Les plateformes numériques, bien qu’obligées de permettre l’exercice du droit d’opposition au traitement des données fondé sur l’intérêt légitime, ne facilitent pas toujours cette démarche. L’accès à l’option d’opposition est fréquemment relégué dans des sous-menus complexes, sous des intitulés peu explicites, ou nécessite de multiples validations. Cette ergonomie peu intuitive, pouvant parfois confiner à des dark patterns, crée un parcours long et décourageant, en contradiction avec l’exigence de simplicité et d’accessibilité prévue par le RGPD.
Dans tous les cas, l’opposition reste bien moins simple qu’un lien de désabonnement…
Vigilance de l’utilisateur : bonnes pratiques pour protéger ses données
La vigilance de l’utilisateur constitue un élément central de la protection de ses données, en complément des mécanismes juridiques prévus par le RGPD. Qu’il s’agisse d’un usage personnel ou professionnel, chacun doit être conscient que les informations qu’il partage (de son plein gré ou non) peuvent être analysées, conservées ou même réutilisées pour entraîner des modèles d’intelligence artificielle.
De manière générale, il est donc indispensable d’éviter de communiquer des données sensibles telles que des informations de santé, des opinions politiques ou des éléments financiers au sein d’outils conversationnels intégrant de l’IA.
Pour un usage professionnel et lorsque cela est possible, il convient d’ailleurs de privilégier les versions dites « entreprise », ou celles disposant de garanties renforcées en matière de confidentialité et de renforcer la sécurité de l’entreprise avec la mise en place de sensibilisation[2] et d’une section IA dans la charte informatique.
Sur les réseaux sociaux, la prudence est tout aussi importante. Les publications rendues publiques sont particulièrement susceptibles d’être réutilisées pour l’entraînement des modèles d’IA.
Il est donc essentiel de vérifier systématiquement les paramètres de diffusion et d’ajuster, en conséquence, les réglages de confidentialité.
L’évolution des IA, tout comme celle des politiques de traitement mises en place par les grandes plateformes, invite à une attention constante. Les prochaines années verront sans doute émerger de nouveaux modèles, de nouvelles pratiques et, peut-être, de nouvelles régulations venant préciser les équilibres nécessaires entre innovation technologique et protection de la vie privée. A méditer…
***
Le cabinet HAAS Avocats est spécialisé depuis trente ans en droit des nouvelles technologies et de la propriété intellectuelle. Il accompagne les acteurs du numérique dans le cadre de leurs problématiques judiciaires et extrajudiciaires relatives au droit de la protection des données et de l’intelligence artificielle. Dans un monde incertain, choisissez de vous faire accompagner par un cabinet d’avocats fiables. Pour nous contacter, cliquez ici.
[1] Article 6 du RGPD
[2] Article 4 de l’IA Act
