Votre premier ouvrage « De L’autre côté de la machine : voyage d’une scientifique au pays des algorithmes » sorti en 2019, vise à démystifier les algorithmes. On sent que c’est un essai très personnel où vous racontez la rencontre avec votre premier ordinateur et les algorithmes au début des années 2000.

Comment définiriez-vous un algorithme ?

Un algorithme est littéralement une séquence hiérarchisée d’opérations à exécuter dans le but de répondre à une question, de résoudre un problème ou de comprendre un phénomène. Ces algorithmes sont explicites quand la logique d’exécution et la séquence d’opération sont explicitement définies par les concepteurs, et ils sont implicites quand elles sont implicitement définies par les concepteurs (on parle aussi d’algorithmes d’apprentissage). On interagit au quotidien avec des algorithmes, pour se déplacer, se soigner, communiquer, travailler….

Par exemple, quand vous utilisez votre carte bancaire pour effectuer des achats, des algorithmes tournent pour détecter des risques de fraude.
Aussi, quand vous vous déplacez d’un point A à un point B, vous pouvez utiliser des outils pour calculer le chemin le plus rapide en prenant en considération l’heure de départ, la circulation en temps quasi-réel et les distances.

Une phrase revient régulièrement dans votre ouvrage, que vous inspire t'elle : « L’algorithme n’est pas une recette de cuisine » ?

Mais la recette de cuisine est un algorithme ! (rires…)

Dire que l’algorithme est une recette de cuisine, c’est prendre un exemple d’algorithme pour le définir. Ce qui porte à confusion en biaisant la perception qu’ont les gens de l’algorithme. Je préfère m’écarter de l’objet recette de cuisine quand je définis un algorithme, ainsi j’ai moins de difficulté à expliquer ensuite les notions d’algorithme d’apprentissage ou de biais algorithmique.

Dans votre ouvrage vous évoquez les biais algorithmiques, auriez-vous un exemple de ces biais ?

Les biais algorithmiques sont des erreurs dans le dimensionnement, la construction de l’algorithme qui porte ce même algorithme à traiter, lors de son exécution, les individus et les scénarios de manière injuste et incorrecte, pouvant générer ce qu’on nomme de la discrimination technologique.
Ces biais algorithmiques viennent souvent de nos propres biais cognitifs qui nous amènent à mal choisir les données d’entraînement ou de calibration de l’algorithme, à mal définir sa logique de fonctionnement ou encore à mal définir des hypothèses.

L’exemple le plus connu est certainement celui des premiers algorithmes de reconnaissance faciale qui ne reconnaissaient pas les visages à peaux noires. La raison ? Les concepteurs avaient entraîné l’algorithme sur des jeux de photos contenant des visages de personnes blanches uniquement.

Pourriez-vous nous expliquer l'importance de l'humain lors de la production d'un algorithme ?

Toutes les personnes sur la chaîne de production d’un algorithme sont responsables du bon fonctionnement de cet algorithme. De la personne qui a l’idée du problème à résoudre, à celle qui conçoit l’algorithme, celle qui le programme, celle qui le teste, celle qui le vend, et aussi celle qui l’utilise avec ses propres biais cognitifs. S’interroger sur les risques de biais, sur la représentativité des données, sur la pertinence des tests à faire passer sur cet algorithme, ou encore sur l’information fournie à l’utilisateur qui doit lui-même s’interroger sur ses usages font partie des habitudes et des bonnes pratiques que les êtres humains doivent posséder.

Pourriez-vous revenir sur vos recherches en lien avec les attentats de Boston ? 

En 2013, deux bombes explosent à 12 secondes d’intervalles à la ligne d’arrivée du marathon de Boston. De nombreuses personnes sont blessées, d’autres ont été diagnostiquées avec un traumatisme crânien dû à l’onde de pression des bombes.
Avec deux de mes collègues, nous avons calculé algorithmiquement grâce à la loi que j’avais conçue quelques mois auparavant, les risques des personnes de présenter un risque de traumatisme crânien en fonction de leur position autour de la bombe. Nous avons pour cela collaboré avec la police de Boston qui nous a donné des informations précieuses sur le contenu des engins explosifs, ce qui nous a permis d’estimer la valeur de l’énergie libérée par les deux bombes.

Nos résultats furent impressionnants. Malheureusement, nous avons décidé de ne pas publier nos résultats car nous ne voulions pas que les compagnies d’assurance les utilisent pour réclamer des pensions d’invalidité qu’elles auraient pu payer à des individus dont notre modèle aurait dit que le risque de traumatisme crânien était faible.

Un algorithme reste un modèle, une représentation du monde. Considérer les résultats de manière stricte, sans recul et sans flexibilité est dangereux. Nous avons préféré éviter le pire même si ce papier aurait été une magnifique opportunité pour nos carrières de jeunes chercheurs.

Votre second ouvrage « Les algorithmes font-ils la loi ? » sorti en 2021 vient compléter le premier en insistant cette fois-ci sur les failles de nos régulations et comment encadrer ces algorithmes.

Avez-vous un exemple concret d’une de ces failles ?

Dans mon livre, je prends comme exemple le RGPD (Règlement Général sur la Protection des Données) qui protège les données à caractère personnel collectées sur le territoire européen. Ce texte est une magnifique révolution dont l’Europe peut être fière et qui a inspiré le texte Californien.

Parmi les 99 articles, j’ai trouvé (seulement!) deux articles dans lesquels j’ai identifié ce que j’appelle dans mon livre des vides technologiques pour faire écho aux vides juridiques. En particulier celui sur le droit à l’oubli, l’effacement des données à caractère personnel à la demande de l’individu.
Le texte est très clair sur l’effacement des données et des possibles copies. Cela étant dit, et comme je l’explique en détail dans mon livre, l’effacement des données sur un ordinateur revient à effacer par défaut l’adresse mémoire (l’adresse vers la case mémoire où la donnée est stockée) mais aucunement le contenu de la case mémoire. En d’autres termes, la donnée existe toujours on ne sait juste plus (a priori) où elle se trouve dans la mémoire. Une personne adroite en informatique peut facilement retrouver la donnée.

Sans préciser la méthode d’effacement des données qui risquerait de rendre obsolète l’article de loi dans le futur (après tout, on ne connaît pas les futurs moyens de stockage - et donc d’effacement - des données), on aurait pu imaginer préciser l’effacement des données sous toutes leurs formes même inaccessibles.
Un travail d’étroite collaboration du législateur avec le scientifique et l’ingénieur est fondamental au regard des évolutions technologiques et scientifiques.

Algorithmes et justice : qu’en est-il de l’impact des algorithmes sur la loi ?

Les algorithmes sont aujourd’hui utilisés dans certains outils de la justice. Aux États-Unis il y a eu le logiciel PredPol pour Predictive Police qui a été utilisé par la police de Los Angeles pour anticiper les lieux du crime et les criminels. Cet outil a été écarté en avril 2020 à la suite de cas de discrimination algorithmique envers les populations de couleur.

Des algorithmes sont aussi utilisés dans l’évaluation du risque de récidive d’un suspect pour une libération. En Europe, certaines villes utilisent des algorithmes via les caméras de la ville pour permettre à la police d’identifier des comportements suspects.

Ces outils peuvent aider dans certaines situations et pour certaines applications, mais nous devons être prudents sur la construction de l’algorithme en question et son utilisation. Au risque de mettre en danger deux grands principes de la justice que sont la transparence (ne pas comprendre le fonctionnement d’un algorithme qui estimait une peine serait préjudiciable pour l’accusé et donc pour le système judiciaire) et l’équité (sous-entendu sans aucune discrimination).
L’humain est très important dans la pratique de la justice, j’en parle longuement dans mon livre.

Les algorithmes dans le domaine médical : selon-vous quels sont les impacts pour la médecine ?

Les algorithmes permettent de faire grandir trois grands domaines de la médecine : la médecine de précision, la médecine prédictive et la médecine personnalisée.
Je crois énormément à l’usage d’algorithmes pour mieux connaître le patient, mieux le diagnostiquer (et de plus en plus tôt), et de mieux le soigner.
Les algorithmes aident déjà à concevoir des médicaments, des vaccins, à détecter des tumeurs à un stade de plus en plus précoce, ainsi que de mieux comprendre des maladies.

Vous souhaitez en savoir plus ?

Découvrez l’interview complète d’Aurélie Jean.