Dygest vous propose des résumés selectionnés et vulgarisés par la communauté universitaire.
Voici le résumé de l'un d'entre eux.
de Aurélie Jean
La méconnaissance numérique pose problème. Pour les décideurs, comment arbitrer quand on ne sait pas précisément sur quoi ? Pour une part de la population, la fracture numérique vient souvent s’ajouter à une inégalité sociale vécue ou ressentie. Or la peur de ce que l’on ne connaît pas crée la défiance, voire la violence. Voilà pourquoi Aurélie Jean souhaite expliquer dans cet ouvrage didactique ce qu’il y a « de l’autre côté de la machine ». Savoir, c’est pouvoir éviter les pièges des informations manipulées et être libre de faire des choix éclairés.
Certains mots, comme une mode, caractérisent telle ou telle période, tellement usités qu’on les retrouve à tous les coins de page ou de conversation ; digital, numérique, codeur et algorithmes sont de ceux qui remplissent notre lexique du moment.
Malheureusement, certains termes comme « algorithme » traînent derrière eux, telle la queue d’une comète, tout un univers aussi excitant qu’effrayant et propice à bien des élucubrations : « les robots vont remplacer les hommes », « les nouvelles technologies représentent un risque pour l’humanité »… Certains pays en sont arrivés à attribuer des droits aux robots. L’Arabie saoudite a accordé la nationalité à Sophia, le robot social qui sait reconnaître les visages.
C’est tout juste si d’aucuns ne se mettent pas à croire que l’un de ces humanoïdes pourrait déclamer, à son tour : « Je pense donc je suis ! » Comment en est-on arrivé là ? Comment projeter la notion de responsabilité sur un robot qui ne peut, en aucun cas, détenir le moindre libre arbitre ? Rien ne prouve, d’ailleurs, actuellement, que l’intelligence artificielle parviendra, un jour, à devenir autonome au point que la machine soit en mesure de prendre conscience d’elle-même. De toute évidence, pour garder un raisonnement pragmatique, il faut savoir de quoi on parle. Et, concernant les algorithmes, il y a du travail. Quand on ne connaît pas un sujet, on peut fantasmer et rêver.
On peut aussi avoir peur. Consciente des risques liés à ce que l’ignorance peut générer des comportements destructeurs, Aurélie Jean a décidé de rétablir la vérité en expliquant ce que sont les algorithmes, comment ils sont conçus, ce qu’ils nous apportent au quotidien. Elle consacre une bonne partie du livre aux biais algorithmiques, c’est-à-dire aux différents procédés qui engendrent des erreurs dans les calculs algorithmiques. Il est grand temps de nous « expliquer le virtuel afin de nous aider à comprendre le réel », selon ses propres termes, et de contribuer à nous remettre collectivement les pieds sur terre.
Le mot algorithme vient du nom d’un mathématicien, géographe, astrologue et astronome persan du IXe siècle, Muhammad ibn Musa al-Khwarizmi, qui était membre de la Maison de la sagesse de Bagdad, sorte de haut-lieu culturel et scientifique regroupant probablement des bibliothèques, des observatoires et autres lieux de réunion et de travail intellectuel. Les mathématiciens utilisaient le mot algorithme pour désigner tout procédé de calcul ou de construction exprimé par une liste bien définie de tâches élémentaires.
Le plus connu des algorithmes mathématiques est celui qu’on appelle l’algorithme d’Euclide, utilisé dans la technique écrite de la division. En nous expliquant l’algorithme d’Euclide, Aurélie Jean évoque le principe de récursivité, essentiel en algorithmique : « La récursivité est le fait de pouvoir appliquer en boucle une opération sur l’opération d’origine jusqu’à satisfaire une condition spécifique » (p.38). Car la difficulté, dans un algorithme, outre la définition du processus logique qui permettra la résolution du problème, c’est d’offrir la manière la plus rapide d’y arriver. Et cela est particulièrement vrai lorsqu’on parle des algorithmes numériques qui sont une « variété » d’algorithmes exclusivement utilisables par des ordinateurs.
Par exemple, les algorithmes de deep learning qui demandent aux machines de faire leur « apprentissage profond » à partir de millions de données. L’algorithme numérique « a été conçu pour être implémenté dans un code informatique destiné à faire tourner une simulation ou un calcul sur un ou plusieurs microprocesseurs d’un ordinateur » (p.42).
C’est l’une des missions des développeurs que de trouver sans cesse les algorithmes de plus en plus rapides et utilisant le moins possible de mémoire de stockage. Ils évoluent au fur et à mesure du développement des machines, et seront amenés à se transformer en fonction de l’apparition de nouvelles logiques, comme la logique quantique, par exemple.
« Écrire un algorithme, c’est dessiner un chemin de résolution pour un problème donné, une manière d’accéder rapidement et avec justesse (ou à une erreur près) à la réponse recherchée » (p.19-20).
C’est grâce à la simulation que les algorithmes nous aident à résoudre des problèmes. En virtualisant la réalité, ils permettent de comprendre, d’expérimenter, de trouver des solutions sans être obligé de « faire ». Simuler évite de construire des prototypes et permet de multiplier les essais. Récrire un nouvel algorithme si les simulations ont produit de mauvais résultats est moins couteux et plus rapide que de fabriquer de nouveaux prototypes.
Tout cela permet d’ouvrir le champ des hypothèses bien au-delà des limites du monde réel. Par exemple, lorsqu’elle a intégré l’institut de recherche du Massachusetts, le MIT, Aurélie Jean devait étudier les différentes réactions du cerveau lors des traumatismes crâniens. Comment effectuer ce genre de recherche sinon par la simulation ? Grâce à la modélisation de la morphologie de la tête, les ordinateurs l’ont aidée à visualiser précisément les différentes pressions subies par le cerveau suivant les types d’impact. Les résultats ont permis de définir les niveaux de risque de traumatisme crânien selon le choc reçu par une personne blessée.
Les algorithmes permettent de gagner du temps ; la précision de leurs résultats les rend indispensables au bon fonctionnement de nos sociétés modernes. Car si, pendant des siècles, les activités humaines ont su se contenter, par exemple, de prévisions météorologiques issues des déductions empiriques de l’expérience et de l’observation, pour leurs besoins d’aujourd’hui, seuls les calculs issus de puissants algorithmes peuvent analyser et anticiper les courants-jets ou le trajet des dépressions et avertir des phénomènes dangereux.
C’est le paradoxe de l’algorithme : le virtuel se met au service du réel et permet de mieux l’appréhender. Avec toutefois une mise en garde : ne jamais oublier que c’est un être humain qui a programmé l’ordinateur capable d’accomplir tout cela. Il faut donc garder du recul et de l’ouverture d’esprit. Chaque scientifique raisonne à partir de ses références subjectives, ses connaissances, ses observations, ses choix conscients et inconscients. Donc chacune de ses inventions est influencée par cette « humanité » si diverse et si riche… Car c’est aussi l’arbitrage de l’humain qui peut entraîner les déformations d’interprétation qui impactent les réponses de la machine. En algorithmique, on appelle cela les biais.
Qu’est-ce qu’un biais ? C’est un élément qui a « biaisé », créé une déviation, une sorte de distorsion dans la résolution d’un algorithme. De sorte qu’on se retrouve avec une différence entre la réalité et le résultat de l’algorithme. Il existe de multiples risques de biais. Le biais explicite est celui qui est sciemment introduit dans l’algorithme.
En général, il apparaît comme la seule solution pour poursuivre une recherche. Par exemple, au cours de leurs travaux sur les réactions du cerveau lors des traumatismes crâniens, Aurélie Jean et son équipe se sont trouvés bloqués par un problème insoluble à l’époque : comment inclure les informations sur les diverses déformations des tissus du cerveau selon la provenance et le sens du choc subi ? Ils ont décidé de poser l’hypothèse d’une réaction identique du cerveau d’où que provienne sa déformation. C’est un biais explicite : il peut impacter les résultats mais il est connu. Pour les scientifiques, il est important de signaler l’introduction volontaire d’un biais au cas où la recherche serait reprise par une autre équipe.
Les biais peuvent aussi venir des données d’origine, soit parce qu’on a utilisé des mauvaises informations de base, par exemple des statistiques erronées, soit parce qu’on a mal paramétré, soit parce qu’on a opté pour des hypothèses incomplètes.
Le biais implicite, quant à lui, se produit au cours du travail de la machine quand l’algorithme fait son apprentissage, le machine learning, à partir des liens qu’il crée pour arriver à son résultat. L’auteur reprend souvent l’exemple de la machine qui apprend à reconnaître un chien. Quand elle aura engrangé des millions de vues de chiens à partir desquelles elle saura reconnaître l’animal, comment réagira-t-elle si elle tombe sur un chien avec une seule oreille, ou un chien dans une poussette ? Si elle conclut que ce n’est pas un chien, elle aura introduit un biais dans l’algorithme. Les algorithmes sont efficaces sur des calculs complexes mais ne disposent pas de l’intelligence d’un être humain pour évaluer une situation.
Il y a bien d’autres risques de biais, particulièrement ceux émanant des programmeurs eux-mêmes : chacun raisonne à sa manière, étudie un problème sous un angle qui lui est propre. Aucun homme ne détient une objectivité absolue, chacun s’appuie sur ses références culturelles, ses acquis… autant de choix, de décisions qui comportent des risques de biais.
On critique beaucoup les algorithmes en leur prêtant des pouvoirs qu’ils n’ont pas. Une attitude fantasmée à partir des œuvres de fiction qui nous proposent quantités d’histoires de super robots et d’une intelligence artificielle émancipée.
Aurélie Jean s’agace de ce que le public croit volontiers à des robots intelligents alors que personne n’a jamais eu déraisonnablement peur de sa tronçonneuse ou de sa voiture ! Cela résulte du fait que nous connaissons si bien les objets de notre quotidien que nous savons faire la part des choses entre le film et la réalité. Mais beaucoup ne connaissent pas assez le monde des algorithmes pour trier réalité et fiction. Sans oublier notre anthropomorphisme qui nous porte à prêter nos sentiments et nos émotions à un boîtier qui nous parle ou à une machine à laquelle on a donné une apparence humaine. Cela s’appelle l’effet ELIZA, du nom d’un système de conversation automatique utilisé en psychothérapie dans les années 1960. Difficile d’oublier qu’un robot qui vous sourit n’est qu’une machine programmée pour effectuer un mouvement en fonction d’une action de votre part. Aurélie Jean avoue qu’elle-même ressentait beaucoup d’empathie pour le robot Curiosity envoyé sur Mars.
Outre notre manque de connaissance de l’univers informatique, les erreurs engendrées par les biais contribuent à entretenir la défiance face à l’intelligence artificielle. Pourtant ce n’est pas la machine qui est en cause ni l’algorithme qui est faux. Le biais vient directement de l’être humain. On a reproché, par exemple, à l’algorithme de recrutement d’Amazon de discriminer les femmes. Amazon a dû arrêter de l’utiliser. Mais cela ne venait pas de l’algorithme. L’erreur des scientifiques a été de faire s’entraîner l’algorithme sur les recrutements des dix dernières années.
Or ce sont ces embauches-là qui avaient été majoritairement masculines. L’algorithme a réagi logiquement en créant un biais de sous-représentation des profils féminins. Les biais sont directement issus de nos variables comportementales, ils n’ont rien à voir avec les algorithmes. D’ailleurs, on trouve des biais indifféremment dans tous les domaines, sciences humaines, histoire, économie, dans le diagnostic médical… Ils ne sont pas l’apanage des algorithmes. Les scientifiques doivent en être conscients et garder humilité et transparence par rapport aux risques liés aux biais.
Les biais rappellent aux informaticiens qu’ils doivent savoir se remettre en cause, cultiver le doute et prendre du recul. À ce propos, pourquoi ne pas inclure plus d’enseignement de philosophie dans le parcours de formation des scientifiques ? On pourrait aussi s’inspirer du serment d’Hippocrate, en instaurant une démarche similaire pour sensibiliser les spécialistes de l’intelligence artificielle aux questions d’éthique liées aux conséquences potentielles de leurs travaux.
Cela contribuerait peut-être à améliorer l’adhésion du grand public. Car la société accuse trop souvent les entreprises de technologie, d’emblée soupçonnées des pires intentions, alors qu’elles contribuent au progrès scientifique. Le fait n’est pas nouveau : Aurélie Jean nous rappelle que l’histoire regorge d’exemples de scientifiques victimes d’avoir dévoilé leurs découvertes à une société qui n’était pas prête. Érasme, Galilée, Copernic, Lavoisier ont payé, parfois de leur vie, une violence venue de la peur et de l’obscurantisme.
Elle considère qu’il existe un réel danger dans le fait que tout le monde n’a pas accès aux mêmes connaissances : la fameuse fracture numérique ne doit pas être seulement une formule. C’est un devoir démocratique que de partager les savoirs. La violence naît de l’ignorance, quand on n’a pas les mots pour s’exprimer ou qu’on est sans cesse confronté à des sujets auxquels on ne connaît pas grand-chose. Le problème touche aussi les acteurs politiques.
Comment mener des discussions saines et équilibrées pour voter des lois justes ou des autorisations de mise en service de telle ou telle technologie quand on n’a pas une idée précise de ce dont il est question ? Nos politiques sont plus souvent issus des formations littéraires, économiques ou de sciences politiques que des filières scientifiques. Leurs lacunes sur certaines questions scientifiques peuvent être à l’origine du retard de lancement d’avancées techniques qui pourraient servir l’intérêt général.
La technologie doit aller dans le sens de la société, les scientifiques sortir de leurs laboratoires et communiquer avec le public. Ils ont une responsabilité éducative, notamment envers les jeunes générations, grandes utilisatrices de technologie, qui ne se rendent pas toujours compte de ce qu’il y a derrière les applications qu’ils téléchargent.
Le sujet principal du livre est le biais. Et c’est intéressant car on comprend à quel point la découverte des biais algorithmiques a permis à Aurélie Jean de prendre de la hauteur par rapport à son regard de scientifique. Comme elle le répète tout au long du livre, le fait d’être passée par le virtuel lui a permis de comprendre le réel. Comme si cela lui avait ouvert l’esprit sur l’humain et ses biais naturels.
Oui, c’est l’homme qui conçoit les algorithmes avec toutes ses particularités d’être humain, sa créativité comme ses erreurs de jugement. Les hommes vivent et évoluent en société, il est donc de la responsabilité de chacun de suffisamment informer les autres pour ne laisser personne derrière soi. Et face à la vitesse de développement des technologies du numérique, il lui semble urgent d’y veiller.
L’auteure s’appuie, tout au long du livre, sur d’innombrables exemples issus de son histoire personnelle. Même si cela finit parfois par paraître trop autocentré, il n’est pas nécessaire de s’arrêter à cela. Pourquoi devrait-elle s’excuser d’être brillante ou, pire, faire semblant de ne pas l’être par fausse modestie ?
Ses explications sont claires et sa volonté de partager ses connaissances, évidente. Sa rigueur et son souci de lutter contre la fracture numérique ne semblent pas relever de la condescendance mais bien de la prise de conscience d’une réalité sociale avérée : le manque de connaissance participe sans doute du sentiment d’injustice qui conduit beaucoup d’entre nous à exprimer leur mal-être dans les rues.
Ouvrage recensé– Aurélie Jean, De l’autre côté de la machine, Paris, L’Observatoire, coll. « De Facto », 2019.
Autres pistes– Frédéric Bardeau et Nicolas Danet, Lire, écrire, compter, coder, Limoges, FYP Éditions, 2014.– Michel Desmurget, La Fabrique du crétin digital, Paris, Seuil, 2019.– Kai-Fu Lee, IA. La plus grande mutation de l’histoire, Paris, Les Arènes, coll. « AR.ESSAI », 2019.– Gaspard Koenig, La Fin de l’individu. Voyage d’un philosophe au pays de l’Intelligence Artificielle, Paris, L’Observatoire, coll. « De Facto », 2019.