Journal Spécial des Sociétés – Samedi 29 avril 2017 — numéro 34
Le cabinet Haas, spécialisé en propriété intellectuelle et nouvelles technologies, propose régulièrement des matinales thématiques. Le 23 mars dernier, Jean-Paul Crenn, de VUCA strategy, est venu expliquer le fonctionnement des algorithmes prédictifs, leurs risques et la nécessité de les encadrer.
Après l’élection de Donald Trump et le oui au Brexit des Anglais, beaucoup ont annoncé la fin des sondages et des études de marché. L’élection du nouveau président américain a certes déjoué tous les pronostics, mais les résultats du premier tour en France, eux, se rapprochent des chiffres des différents instituts. Si Ipsos, Harris Interactive et Odoxa ne sont donc pas totalement enterrés, ces deux scrutins ont quand même un point commun : l’utilisation par les deux candidats d’algorithmes prédictifs.
C’est ce qu’est venu expliquer Jean-Paul Crenn, de VUCA stratégie, lors de la matinale du cabinet Haas « algorithme prédictif : comment concilier expérience utilisateur et conformité juridique ? ». Lors de ce petit-déjeuner, qui s’est déroulé avant le vote des électeurs français, il a en effet affirmé : « Donald Trump a été élu grâce à l’usage des Big Data ». Emmanuel Macron, lui, s’est payé les services de la pépite Liegey Muller Pons (du nom de ces trois jeunes fondateurs). Elle propose un logiciel de données sociodémographiques pour Indiquer des zones prioritaires où démarcher les électeurs potentiels. Les études de marché et les sondages vont-ils être remplacés par des algorithmes prédictifs ?
Jena-Paul Crenn dresse un constat : « Les modèles d’analyses classiques semblent s’essouffler dans le contexte d’un monde volatile, complexe et ambigu enfanté par le digital ». Le problème avec les algorithmes prédictifs, c’est qu’ils utilisent des données personnelles pour tenter de prédire la personnalité des gens, et donc leur comportement. C’est le cas de celui développé par Cambridge analytica. L’entreprise a travaillé pour Ted Cruz puis Donald Trump. Le milliardaire a dépensé des millions de dollars pour convaincre l’électorat noir qui aurait pu faire basculer l’élection, mais qui était finalement sous représenté dans l’électorat de la candidate Clinton. Mais ce ne sont pas les seuls à avoir commissionné des études auprès de Cambridge analytica, Leave.EU, un parti pro-Brexit a, lui aussi, fait appel à elle. L’entreprise anglaise, dirigée par Alexander Nix, se fonde sur le modèle OCEAN, aussi appelé Big Five, qui appartient au domaine de la psychométrie et se sert de cinq traits centraux de la personnalité pour dans le contexte d’un monde volatile, complexe dresser le portrait d’individus à partir de données Facebook.
Jean-Paul Crenn explique ainsi qu’à partir de seulement quelques likes, l’algorithme peut dire qui vous êtes, et donc affiner de manière beaucoup plus précise que l’être humain l’argument qui vous convaincra.
RISQUE D’INFLUENCE INVISIBLE ET DE DISCRIMINATION
L’algorithme est un programme informatique qui exécute une succession de calculs mathématiques et dont le but est d’analyser, d’interpréter et de donner un sens aux données.
Aujourd’hui, les algorithmes servent à apprécier la réceptivité des prospects à une offre personnalisée qui aura été élaborée en fonction d’un profilage. Ce profilage se fonde sur l’infinité de traces laissées sur les réseaux, et est très utilisé dans le e-commerce. Les risques d’influence invisible ou de discrimination illicite sont nombreux, et certains textes protègent de ces algorithmes qui, parfois, échappent à leurs concepteurs.
Ainsi, Gérard Haas a, par exemple, cité le considérant 58 du règlement général sur la protection des données (RGPD) qui précise que « le principe de transparence exige que toute information adressée au public ou à la personne concernée soit concise, aisément accessible et facile à comprendre, et formulée en des termes clairs et simples (…). Ceci vaut tout particulièrement dans des situations où la multiplication des acteurs et la complexité des technologies utilisées font en sorte qu’il est difficile, pour la personne concernée, de savoir et de comprendre si des données à caractère personnel la concernant sont collectées, par qui et à quelle fin, comme dans le cas de la publicité en ligne ».
L’avocat à la cour et docteur en droit a également évoqué l’article 10 de la loi Informatique et Libertés qui dispose, sur le profilage, « qu’aucune autre décision produisant des effets juridiques à l’égard d’une personne ne peut être prise sur le seul fondement d’un traitement automatisé de données destiné à définir le profil de l’intéressé ou à évaluer certains aspects de sa personnalité ». Il existe d’autres textes et jurisprudences, mais le spécialiste en propriété intellectuelle indique que « beaucoup d’actions vont être intentées ». Il est donc nécessaire « de cartographier les risques » et de mettre en place un cadre juridique de gouvernance des algorithmes.sous représenté dans l’électorat de la candidate Clinton. Mais ce ne sont pas les seuls à avoir données.
Victor Bretonnier
VUCA strategy
VUCA, mot-valise de Volatility, UnCertaintity et Ambiguity, propose à ses clients de définir une stratégie digitale pour s’adapter à un monde de plus en plus instable et incertain. Le site précise : « Nous vous rendons agiles pour vous permettre d’atteindre vos objectifs » et « Nous vous apportons la pratique du digital, avec le recul nécessaire pour une mise en œuvre rentable ».
Le cabinet Haas
Cabinet français indépendant, Haas Avocats offre à ses clients un très large éventail de compétences en droit de la propriété intellectuelle, des nouvelles technologies, de l’information et de la communication, de l’e-commerce, de la protection des données personnelles pour guider les entreprises à toutes les étapes de leur développement.