veille sur la transition numérique et l'économie collaborative

Les algorithmes font-ils la loi ?

Les algorithmes font-ils la loi ?
Les algorithmes font-ils la loi ?

Aurélie Jean

Éditions de l’Observatoire

octobre 2021

Sciences

Algorithmes, Lois, Intelligence artificielle, Société

Sujet

Avec ce livre, Aurélie Jean essaie de répondre à une question qui devient essentielle avec les nouvelles technologies qui se développent et une vision dystopique qu’on nous présente dans les livres de science fiction, les algorithmes font-ils la loi ? Avec une réflexion sur les algorithmes, les réglementations, les risques et les préjugés, elle tente de donner une réponse à cette question avec son point de vue.

Résumé

Chapitre 1 - Une brève introduction aux algorithmes

Avant de savoir si les algorithmes font la loi, l’auteure présente et explique dans un premier temps les différents types d’algorithmes : les algorithmes explicites utilisant la logique définie par ses concepteurs et les algorithmes implicites qui utilisent des données d’apprentissage pour trouver leurs logiques. Certains algorithmes comportent les deux types, ce qui rend difficile l’explicabilité (ensemble des méthodes de calcul pour extraire une partie ou totalement un algorithme).

Chapitre 2 - Les lois au temps des algorithmes

En ce qui concerne les réglementations des algorithmes déjà existantes, il y a des différences entre les régions du monde. On peut citer la RGPD en Europe qui encadre la collecte de data et permet une protection des données s’appliquant à toutes les entreprises, ce qui peut être contraignant pour les petites entreprises pour être en règle. Aux États-Unis, la CCPA en Californie s’inspire du RGPD et s’applique aux grosses entreprises vendant des données comme les GAFAM. Elle pourrait être étendue à tout le pays.

Chapitre 3 - Explicabilité et interprétabilité des algorithmes

En effet, le fait de comprendre le fonctionnement des algorithmes et de savoir qu’ils vont se complexifier au fil des années est important pour mieux adapter les lois. De plus, les intelligences artificielles sont parfois perfectibles. On parle de biais algorithmique où l’algorithme traite différemment des situations ou des personnes entraînant une sorte de discrimination. Ce biais est dû aux données d’entraînement qui ne sont pas représentatives. Cela montre les préjugés qu’ont parfois inconsciemment les concepteurs et les utilisateurs et fait monter la crainte face à l’intelligence artificielle. Il faut donc éviter de limiter les innovations et plus contrôler les risques algorithmiques.

Chapitre 4 - Les lois pour dompter les algorithmes

L’auteure souligne qu’il est important de différencier l’algorithme de ses concepteurs. C’est un concept important car l’algorithme n’a pas de personnalité juridique. Seuls ses concepteurs sont responsables et peuvent être condamnés. Ensuite, il est important de garder une transparence sur ce que fait un algorithme, de préserver l’équité sur les décisions de l’algorithme et une éthique économique, sociale et écologique. Tout ceci est à prendre en compte pour les dirigeants afin de promulguer les lois. C’est un exercice difficile. C’est pour cela qu’il faut écouter les spécialistes. Avec une réflexion constante des concepteurs et des utilisateurs et un bon groupe de travail composé d’un corpus légal et éthique, les lois pourront être plus objectives et mieux anticiper les avancées technologiques.

Chapitre 5 - Les algorithmes dans la loi (double trouble)

La relation entre les algorithmes et la loi peut être conflictuel. L’application de l’intelligence artificielle pour la système judiciaire ou pour prédire des crimes aux Etats-Unis et en Europe pourrait faciliter les procédures. Cependant ce n’est pas un outil parfait, il peut être perfectible. Les biais algorithmes entraînant des discriminations que ce soit de genre, raciale ou autres donnent des réponses biaisées pas « justes » si on ne vérifie pas ce que donne l’algorithme. Il faut que cela reste un outil et pas juste un moyen d’automatiser la justice.

Chapitre 6 - Vers une réglementation mondiale ?

A l’avenir, selon l’auteure, il faudrait des réglementations pour un bon contrôle des algorithmes sans frein à leurs développements avec les nouvelles technologies qui vont les rendre plus performants et plus complexes. Les grandes entreprises vont plus partager leurs données pour la recherche et les acteurs en sortant de la compétitivité. Les algorithmes devront éviter de catégoriser pour éviter un cloisonnement des opinions et donc un effet bulle. Il faudrait aussi réglementer contre certaines dérives atteignant aux libertés comme la reconnaissance faciale dans certaines situations. Le plus important serait que le public dont les gouverneurs se sensibilise davantage aux algorithmes pour comprendre leur fonctionnement, les risques et avantages afin d’influer les lois.

Citation verbatim

“Si j’ai longuement exploré ce sujet dans mon précédent ouvrage, le sujet du livre présent impose de le redire : l’algorithme n’est pas coupable pour la simple et bonne raison qu’il n’est ni une personne physique ni une personne morale, et que ce sont bien des hommes et des femmes qui décident de l’usage, de l’implémentation et des effets qui en résultent, et qui sont donc les seuls responsables.” (p. 32)

“Même si le terme « algorithme » a vu sa popularité lexicographique exploser ces dernières années, en particulier dans les médias, il reste encore un inconnu pour beaucoup d’entre nous qui interagissons pourtant quotidiennement avec cette entité mathématique et numérique. Nos dirigeants politiques et nos parlementaires ne font pas exception. Il existe bien sûr des cas particuliers et des contre-exemples, mais la tendance reste celle-ci : nous sommes encore trop peu à comprendre cette science. Alors que les mots « informatique » et « données » font partie du langage courant, le mot « algorithme » demeure somme toute un terme exotique.” (p. 37)

“Dans un papier de 2016 sur l’explicabilité algorithmique, une équipe de l’université de Washington présente entre autres un algorithme d’apprentissage censé identifier les huskies sur une image. Contre la volonté des concepteurs, cet algorithme a été finalement entraîné sur les arrière-plans des photos de l’échantillon. L’algorithme ne peut alors identifier un husky que si l’arrière-plan est composé de neige. Vous imaginez aisément les erreurs d’exécution qui amènent un algorithme de reconnaissance de neige à identifier systématiquement la présence d’un husky entouré uniquement de son environnement alpestre. Quelle serait la réponse d’un calcul réalisé sur une photo d’un husky dans une campagne bretonne estivale  ? Cet exemple montre l’importance de maîtriser un minimum le processus d’apprentissage, mais aussi de valider judicieusement et méthodiquement son  algorithme pour s’assurer de son bon fonctionnement.” (p. 66)

“Il est capital de garder à l’esprit que même si les algorithmes peuvent aider à comprendre une situation afin de –  je l’espère  – contribuer à l’améliorer, ils peuvent aussi, s’ils sont mal développés, mal expliqués et/ou mal utilisés, créer de graves différences de traitement, à commencer par une stigmatisation des êtres et des choses qui se fonde sur notre histoire, forcément biaisée. Il ne faut pas prendre le risque de figer notre société, pire, de revenir en arrière, mais au contraire garantir son évolution possible en permanence.” (p. 112)

Bio auteur (s)

Aurélie Jean est née le 5 septembre 1982. Elle est une numéricienne, une scientifique spécialisée dans les algorithmes et aussi une entrepreneuse dans les algorithmes et la modélisation numérique.

Elle a étudié la mécanique et le génie civil à l’ENS Paris-Saclay puis en doctorat dans l’ingénierie en sciences des matériaux aux Mines Paris-Tech. Après sa thèse en 2009, elle poursuit dans une formation en modélisation numérique pour la médecine à l’université d’État de Pennsylvanie et au MIT. Elle a fondé sa société de conseil dans les algorithmes et la modélisation numérique In Silico Veritas à New York en 2016 et aussi une start-up DPEEZ pour l’application de l’IA pour le cancer du sein.

Elle a publié De l’autre côté de la machine en 2019 où elle explique les algorithmes et leurs évolutions et essaie de faire changer les mentalités et dépasser les incompréhensions au public. Et en 2021, elle a écrit Les algorithmes font-ils la loi ?

Commentaires personnels

Dans ce livre, Aurélie Jean avec sa vision en tant que spécialiste des algorithmes sur les réglementations des algorithmes dans les différentes régions du monde. Je trouve que l’auteure explique les différents types d’algorithmes et leurs fonctionnement de façon pédagogique avec des exemples concrets ce qui est plutôt difficile avec la complexité du sujet. C’est un point de vue différent pour montrer que certaines lois et réglementations ne sont pas justes et sont limitées face aux possibilités qu’offrent les IA. Je n’avais pas une connaissance poussée des algorithmes et ce livre m’a permis de me faire changer certaines idées que j’avais.