dygest_logo

Téléchargez l'application pour avoir accès à des centaines de résumés de livres.

google_play_download_badgeapple_store_download_badge

Bienvenue sur Dygest

Dygest vous propose des résumés selectionnés et vulgarisés par la communauté universitaire.
Voici le résumé de l'un d'entre eux.

Le mythe de la Singularité

de Jean-Gabriel Ganascia

récension rédigée parAgnès Bourahla-FarineDiplômée de l'ESJ de Lille. Journaliste scientifique (Biologiste Infos/Passeport santé).

Synopsis

Science et environnement

Scientifiques de renom et grands industriels du web annoncent à grands bruits un événement, baptisé « la Singularité technologique », qui devrait advenir prochainement. Dès lors, l’Homme serait obligé de s’hybrider aux machines, formant un cyborg. Or, même s’il n’est pas impossible, cet événement s’avère hautement improbable : il n’est qu’un mythe, selon Jean-Gabriel Ganascia, qui dénonce ici une science fondée sur la science-fiction, à laquelle les géants du web ont tout intérêt à donner crédit pour asseoir leur emprise politique sur le monde.

google_play_download_badge

1. Introduction

Le mythe de la Singularité, paru en 2017, décrit, de façon didactique, ce qu’est l’intelligence artificielle, expliquant quels étaient les buts de ses fondateurs.

Surtout, cet ouvrage présente les annonces des nombreux scientifiques et industriels qui prédisent que l’intelligence artificielle pourrait devenir hors de contrôle à l’horizon de ce qu’on appelle la Singularité, prévue selon certains autour de 2045. Exemples clairs et concrets, illustrés et issus de diverses branches de la science, et également étayés d’arguments philosophiques, concourent à démontrer au lecteur que cette Singularité demeure de l’ordre de la mythologie, de la science-fiction. Le livre s’appuie sur des démonstrations logiques qui concernent l’apprentissage machine, requérant au départ l’intervention humaine, ainsi que sur la présentation des limites de la loi de Moore : en effet, l’accroissement exponentiel des capacités de calcul des composants électroniques ne semble pas pouvoir se poursuivre indéfiniment.

Cet ouvrage interroge également les raisons qui font que l’ensemble des géants du web, notamment les patrons des GAFA (terme employé pour regrouper Google, Amazon, Facebook et Apple) sont autant impliqués dans la promulgation de cette théorie. Ils ont déjà le pouvoir économique, veulent-ils de la sorte s’assurer de leur emprise politique sur le monde ?

2. L’annonce d’un cataclysme inéluctable

Ils sont plusieurs, tous scientifiques de renom dans leur discipline, de l’astrophysicien Stephen Hawking au physicien et prix Nobel Frank Wilczek, à avoir lancé un cri d’alerte, afin de nous mettre en garde de l’imminence du danger qui s’annonce, des conséquences dramatiques de l’intelligence artificielle. Prenant acte de ses progrès extraordinaires, depuis la voiture autonome de Google jusqu’au logiciel de reconnaissance de la parole, Siri, d’Apple, quatre de ces chercheurs veulent nous prévenir : « Les facultés d’apprentissage automatique des machines alimentées par les quantités d’information colossales que l’on mentionne sous le vocable “masses de données” ou en anglais, de Big data, les rendront bientôt imprévisibles » (p. 9).

Ainsi, le comportement de ces machines ne résulterait plus d’un programme écrit par les hommes, mais de connaissances construites par elles-mêmes, « par induction automatique à partir d’informations glanées ça et là dans des bibliothèques virtuelles, dans des entrepôts de données et dans le monde, au cours de leurs pérégrinations » (pp 9-10). Stephen Hawking affirmait même, en décembre 2014, sur la BBC, que « l’intelligence artificielle pourrait conduire à l’extinction de la race humaine » (p. 10). Ce serait d’ailleurs, pour Elon Musk, grand patron de plusieurs entreprises du web, le plus important danger pour l’humanité. Une autre lettre, écrite en janvier 2015, donne également des recommandations sur de nouvelles directions de recherche, dans le but de s’assurer que des dispositifs autonomes ne puissent nous échapper.

Mais sur quoi reposent ces allégations et ces craintes ? La science-fiction ! Le cybernéticien Kevin Warwick, auteur de l’ouvrage I Cyborg, prétend ainsi que l’homme va devenir un cyborg, c’est-à-dire un cyberorganisme, mêlant technologie et biologie. Hugo de Garis imagine, quant à lui, une guerre mondiale fratricide où des êtres devenus immensément intelligents, et détenteurs d’une spiritualité réalisée grâce à l’intelligence artificielle s’opposeraient à ceux qui veulent à tout prix la suprématie de leur humanité. Le plus célèbre de tous ces apôtres de la Singularité est sans conteste Raymond Kurzweil, un ingénieur formé au prestigieux MIT et recruté en 2012 comme chef de projet chez Google.

Pour lui, l’Homme téléchargera bientôt sa conscience sur des machines, « ce qui lui procurera une forme d’immortalité ». Cette transformation, brutale mais aussi salutaire, selon lui, devrait se produire aux alentours de 2045. L’humanité serait alors condamnée, pour pouvoir survivre, à s’hybrider à la technologie, devant ainsi une transhumanité.

3. Qu’est-ce que la Singularité technologique ?

En mathématiques, une singularité décrit un événement dont le comportement devient difficile à prédire, et apparaît comme critique. C’est, par exemple, le cas de la fonction y = 1/x lorsque la valeur de x approche de 0, car il devient alors très difficile de déterminer la valeur de y. Une autre singularité est décrite, en astrophysique : les singularités gravitationnelles, qui existent par exemple au centre des trous noirs, ces régions de l’Univers où la lumière est piégée pour toujours, et d’où elle ne peut jamais ressortir : les lois de la physique y perdent alors toute validité.

Dans la même idée, la Singularité technologique désigne un événement, une rupture brutale, que certains considèrent comme inéluctable, à l’horizon duquel l’intelligence artificielle échappera au contrôle de l’Homme et prendra le dessus sur lui. Le scénario originaire provient de la science-fiction, popularisé au départ, dans ses romans, par Vernor Vinge. C’est John von Neumann qui aurait le premier usé du terme « singularité », entendu au sens mathématique, « pour décrire la transition de phase à laquelle l’évolution de la technologie pourrait éventuellement conduire du fait du rythme exponentiel de la progression des performances » (p. 19).

L’essence même de la Singularité technologique, écrite ici avec une majuscule, correspondrait de fait à l’accès à une intelligence surhumaine. L’inéluctabilité de son avènement s’appuierait notamment sur la loi de Moore, émise en 1965, dont on ne peut pourtant prouver qu’elle sera toujours valide, même si elle se vérifie depuis 1959 : selon elle, les performances et capacités des circuits électroniques doublent tous les deux ans. Divers paradoxes, d’ordre logique ou matériel notamment, semblent toutefois s’opposer à une explosion exponentielle sans fin des capacités des transistors, ou des composants électroniques. L’autre point d’appui de cette Singularité serait l’accès des machines à la grande masse de données, plus connues sous le nom, en anglais, de « Big data ».

4. Que désigne l’Intelligence artificielle ?

Historiquement, le terme d’« intelligence artificielle » a été introduit en 1955 par le mathématicien John Mc Carthy ainsi que trois autres scientifiques. Les principes de cette discipline naissante ? « Chaque aspect de l’apprentissage ou de toute autre caractéristique de l’intelligence pourrait être décrit si précisément qu’une machine pourrait être fabriquée pour la simuler. » Le but est donc bien, au départ, de comprendre l’intelligence humaine, et d’en reproduire sur des ordinateurs les diverses manifestations, du raisonnement à la mémoire et au calcul, ou encore à la perception. Ces chercheurs se proposent ainsi de décomposer l’intelligence en facultés élémentaires, avant de les mimer sur des machines.

Au cours des soixante dernières années, cette discipline a enregistré des succès inouïs et a complètement transformé le monde – ainsi l’Internet provient du couplage des réseaux de télécommunication avec une modélisation de la mémoire conçue en 1965 grâce à des techniques d’intelligence artificielle : on appelle hypertexte cet exemple de modélisation de la mémoire. À l’heure actuelle, de la dictée vocale à la biométrie, la reconnaissance des visages aux moteurs de recherche, toutes ces techniques recourent à des principes d’intelligence artificielle.

Toutefois, deux autres définitions de l’intelligence artificielle ont émergé par la suite. L’intelligence artificielle dite forte contient, ainsi, une perspective philosophique allant bien au-delà de l’entreprise pragmatique des chercheurs et des ingénieurs : elle viserait à la recomposition d’un esprit et d’une conscience à partir de fonctions cognitives élémentaires. D’autre part, les promoteurs de l’intelligence artificielle généralisée désirent refonder l’intelligence artificielle sur des bases mathématiques solides, qui équivaudraient en certitude à celles sur lesquelles s’appuie la physique.

Peu à peu, par un processus dit de pseudomorphose, cette intelligence artificielle forte, notamment, a eu tendance à remplacer la notion classique d’intelligence artificielle originelle : « là où on insistait sur la décomposition de l’intelligence en fonctions élémentaires reproductibles sur des ordinateurs, on insiste sur la recomposition d’un esprit et d’une conscience à partir de fonctions cognitives élémentaires », résume Jean-Gabriel Ganascia. Ainsi, progressivement, l’intelligence artificielle forte s’est substituée à l’intelligence artificielle dite « faible », n’en conservant que l’apparence…

5. L’apprentissage machine

Au cours des soixante années d’existence de l’intelligence artificielle (IA), d’amples efforts ont porté sur l’amélioration des techniques d’apprentissage automatique. Avant la naissance de l’IA, Alan Turing évoquait d’ailleurs déjà le rôle central que devrait prendre, pour l’intelligence des machines, l’apprentissage automatique. Il fallait, pour qu’une machine simule le comportement d’un être pensant, qu’elle multiplie ses connaissances sur le monde et la réalité sociale.

Pourtant, le transfert de ces connaissances s’avère plus que fastidieux, et cette tâche est infinie, car il est en effet difficile d’attribuer des bornes au savoir humain. Il fallait donc, selon Turing, doter les machines de capacités d’apprentissage, « c’est-à-dire à acquérir d’elles-mêmes compétences, savoir et savoir-faire à partir d’observations sur le monde extérieur, sur leur place dans ce monde et sur leur propre comportement » (p. 45).

Les performances s’avèrent aujourd’hui époustouflantes. Mentionnons ici le programme Alpha Go, de la société DeepMind, qui l’a emporté au jeu de go, en mars 2016, sur l’un des meilleurs joueurs au monde, Lee Sedol, grâce à des techniques d’apprentissage machine, d’apprentissage profond et d’apprentissage par renforcement L’apprentissage profond, ou deep learning en anglais, est une forme d’apprentissage automatique, dite machine learning, permettant à l’ordinateur d’apprendre par l’expérience sans qu’un humain lui spécifie formellement toutes les connaissances nécessaires : processus qui lui permet ainsi de comprendre le monde et les concepts qui le composent en le rapportant à une hiérarchie de briques élémentaires.

Quant à l’apprentissage par renforcement, il repose sur un jeu de récompenses positives ou négatives (sortes de punitions) consécutives à chaque action.

Ce constat sert de justification aux déclarations alarmistes de scientifiques : ils prétendent que bientôt, les ordinateurs deviendront autonomes et n’auront plus besoin de nous pour agir, et finiront par dominer le monde. Mais dans quelle mesure, couplées aux immenses masses de données, ces techniques d’apprentissage automatique permettent-elles de s’affranchir de l’Homme au point de le dépasser ?

L’apprentissage automatique des machines les dote de la possibilité de construire elle-même des connaissances, elles sont désormais capables, ainsi, de réécrire elles-mêmes leurs propres programmes. Un tel accroissement de leurs performances prend place dans beaucoup de nos activités quotidiennes. Mais, contrepartie inquiétante, les ordinateurs se reprogramment d’eux-mêmes, sans qu’aucun être humain n’ait vérifié les programmes qui les animent : leurs comportements deviennent alors de plus en plus difficiles à anticiper.

En outre, ces machines dépassent aussi nos propres capacités, en cela que personne ne disposerait des facultés suffisantes pour savoir traiter dans leur intégralité autant de données qu’elles le font. Tout cela peut justifier pleinement les inquiétudes des chercheurs, et les deux pétitions signées en 2015, portant par exemple sur les dangers que feraient courir les drones et autres systèmes d’armes automatiques.

6. Éthique et autonomie au sens philosophique

Il est ici essentiel de rappeler, donc, l’importance des projets d’éthique sur les agents autonomes. Jean-Gabriel Ganascia, impliqué dans une telle instance, le rappelle : les agents artificiels ne doivent déroger aux règles morales que nous leur fixons. Puisque les robots et agents virtuels prennent une part de plus en plus importante dans la vie quotidienne, il faut s’assurer de leur innocuité.

Toutefois, Jean-Gabriel Ganascia fait remarquer aussi que les algorithmes d’apprentissage ne relèvent finalement que de trois modalités : l’apprentissage supervisé, dans lequel un professeur instruit la machine, l’apprentissage non supervisé parce qu’il n’y a pas de professeur, et l’apprentissage par renforcement, basé sur un jeu de récompenses ou de punitions consécutives à chaque action. Les résultats époustouflants déjà décrits dans l’intelligence artificielle tiennent essentiellement de l’apprentissage supervisé et de l’apprentissage par renforcement. Dans les deux cas, un professeur est requis. La machine n’est donc pas entièrement autonome. Elle ne donne pas ses propres règles, mais suit la leçon enseignée par des hommes.

Au sens technique, l’autonomie d’un agent signifie qu’il est, seul, capable de prise de décisions au moyen de capteurs, puis de lancer l’action sans faire intervenir d’agent humain. Mais au plan philosophique, l’autonomie tient à la capacité à se donner sa propre loi, les règles et les finalités de son comportement. La question délicate porte sur ce second point, celle de l’autonomie dans son acceptation philosophique : même capables d’apprentissage, de possibilités de faire évoluer leurs propres programmes, les machines n’acquièrent jamais d’autonomie, entendue dans ce second sens. Elles restent soumises aux catégories et finalités imposées par les hommes qui ont œuvré à la phase d’apprentissage, car ce sont eux qui lui ont soumis les exemples ayant permis à la machine d’apprendre.

Donc, puisque ni l’apprentissage supervisé ni celui par renforcement ne permettent aux machines d’acquérir l’autonomie au sens philosophique, c’est donc que les craintes exprimées d’une cybersociété où l’humain serait marginalisé et où l’intelligence des machines prendrait le dessus sur celle de l’homme, s’avèrent ainsi infondées. Pour Jean-Gabriel Ganascia, c’est en effet toujours l’humain qui décide des règles, notamment éthiques, qui président à l’apprentissage des machines.

7. Conclusion

Pourquoi les géants du web, des patrons des GAFA ou GAFAM aux NATU (Netflix, Airbnb, Tesla, Uber), s’investissent et communiquent tellement sur la diffusion de la théorie de la Singularité, pour laquelle ils ont même créé, entre autres, l’université de la Singularité ? L’explication peut être simplement dans leur « hubris », le sentiment d’ivresse procuré par leur confiance excessive en eux-mêmes, au vu de la démesure de ces personnages, patrons de grandes sociétés du web ayant connu très jeunes un succès faramineux et des capitalisations boursières inouïes.

Toutefois, ils jouent en quelque sorte le rôle de « pompiers pyromanes », allumant volontairement un incendie, puis se donnant le beau rôle en essayant de l’éteindre. En outre, l’annonce de la Singularité dément l’idéal de progression indéfinie des progrès humains énoncé en son temps par Condorcet, à l’époque des Lumières. En effet, par cette césure que serait la Singularité, l’humanité se trouverait au seuil d’une nouvelle ère, une ère au-delà de l’humain.

Autre point : le sentiment qui mêle enthousiasme et fragilité, voire absence de contrôle, peut de fait étreindre chacun de ces grands acteurs de la toile, pris à titre individuel, tant l’évolution peut paraître anxiogène et impossible à maîtriser. Enfin, les grandes sociétés peuvent se faire, avec cette hypothèse de la Singularité, une publicité à peu de frais.

8. Zone critique

En définitive, les visions autour de cette intelligence artificielle divergent fortement selon les auteurs. Jacques Attali met en garde, parmi les multiples risques de crises, contre celui d’une crise technologique, « dès lors que l’homme serait dépassé par des technologies », car celles-ci pourraient alors venir à lui nuire fortement. Le philosophe Luc Ferry voit, lui, plutôt l’intelligence artificielle comme une chance pour la société, avec des « retombées colossales pour l’économie, la médecine ou la comptabilité ».

Le mathématicien et député Cédric Villani abonde en ce sens : « La mise en application concrète des machines autonomes, robots et autres algorithmes est prometteuse, à condition de faire de bons choix politiques, en termes d’éducation par exemple. » Il en revient ainsi à l’essentiel : l’éducation. « En fonction des choix que nous ferons, estime encore Cédric Villani, la combinaison homme-machine va être plus performante que la machine et plus performante que l’homme. Et, en fonction des réglementations, des habitudes, de la formation, « on pourra arriver à un état de synergie et de coexistence, ou, au contraire, un état de compétition ». Pour le député, cela passera notamment par la formation des jeunes générations aux métiers scientifiques.

Finalement, le physicien et théologien Thierry Magnin rappelle qu’une seule forme d’intelligence est aujourd’hui prodigieuse chez ces machines : l’intelligence calculatoire, bien plus performante que celle de l’homme. Mais d’autres formes d’intelligence restent loin d’être à la portée des machines : telle, l’intelligence émotionnelle. « Si l’intelligence artificielle est capable de simuler des émotions, le pas à franchir vers la capacité d’en éprouver est très important », rappelle le prêtre et scientifique. Quant à la question de la conscience, elle reste plus vive encore…

9. Pour aller plus loin

Ouvrage recensé

– Le mythe de la Singularité. Faut-il craindre l’intelligence artificielle ?, Paris, Le Seuil, collection « Science ouverte », 2017.

Du même auteur

– L’âme machine. Les enjeux de l’intelligence artificielle. Seuil, 1990.

Autres pistes

– Laurent Alexandre. La guerre des intelligences. Comment l’intelligence artificielle va révolutionner l’éducation. JC Lattès, 2017.– Ian Goodfellow, Yoshua Bengio, Aaron Courville. L’apprentissage profond. (Un ouvrage à destination des étudiants pour l’industrie ou la recherche, et des ingénieurs logiciels souhaitant intégrer l’apprentissage profond dans leurs produits), Massot éditions, 2018.– Hervé Kempf. « 2000 débats pour le siècle à venir, Hugo de Garis, chercheur en intelligence artificielle », article paru dans Le Monde, 9 novembre 1999.– Thierry Magnin. Penser l’humain au temps de l’homme augmenté. Face aux défis du transhumanisme, Paris, Albin Michel, 2017.

© 2020, Dygest