dygest_logo

Téléchargez l'application pour avoir accès à des centaines de résumés de livres.

google_play_download_badgeapple_store_download_badge

Bienvenue sur Dygest

Dygest vous propose des résumés selectionnés et vulgarisés par la communauté universitaire.
Voici le résumé de l'un d'entre eux.

L’Intelligence artificielle n’existe pas

de Luc Julia

récension rédigée parVictor FerryDocteur en Langue et lettres de l’Université Libre de Bruxelles et chercheur au Fonds National de la Recherche Scientifique de Belgique (FNRS).

Synopsis

Science et environnement

À l’heure où l’intelligence artificielle occupe une place croissante dans nos vies, nous devons mieux comprendre ce qu’elle est, ce qu’elle n’est pas et ce qu’elle peut vraiment accomplir. C’est là l’objectif de cet ouvrage.

google_play_download_badge

1. Introduction : Faut-il avoir peur de l’IA ?

L’Intelligence artificielle fait parler d’elle. Il y a trois grands types de discours à son sujet. On trouve, d’une part, les catastrophistes. L’auteur le plus représentatif est sans doute le philosophe Nick Bostrom qui, dans son ouvrage Superintelligence (2017), présente différents scénarios par lesquels l’IA peut échapper à tout contrôle et nous réduire en esclavage.

On trouve, d’autre part, les optimistes. Ces derniers pensent également que l’IA va bouleverser nos vies, mais pour nous permettre d’accéder au meilleur des mondes : un monde où tout sera plus simple, plus sûr, plus efficace. Bien moins grandiloquents, les sceptiques, enfin, nous rappellent que personne ne peut prédire l’avenir et que l’on devrait passer plus de temps à comprendre ce qu’est l’IA plutôt que de spéculer à son sujet.

C’est dans cette perspective que s’inscrit Luc Julia : « Les oiseaux de mauvais augure qui nous présentent un monde délirant où les robots prendraient le pouvoir et nous domineraient, ou ceux qui font miroiter un monde dans lequel l’intelligence artificielle résoudrait tous nos problèmes racontent tout et n’importe quoi. À cause d’eux, soit par peur, soit par dépit, nous risquons de voir les recherches et avancées en Machine Learning et en Deep Learning être stoppées en plein élan, alors que nous n’en sommes qu’aux balbutiements de ces domaines ». Mettons donc les choses au clair.

2. Le grand malentendu

Le terme intelligence artificielle, que l’on attribue à l’informaticien américain John McCarthy, s’est diffusé à partir des années 1950. Il fait écho à l’optimisme des débuts de la discipline : les chercheurs étaient alors persuadés de leur capacité à développer rapidement des machines intelligentes. Ainsi, lors de l’été 1956, John McCarthy rassembla une équipe de chercheurs au Dartmouth College (New Hampshire) autour de la conviction que « l’intelligence humaine peut être décrite de façon si précise que des machines peuvent la simuler ».

L’objectif était, en travaillant sérieusement pendant deux mois, de mettre en œuvre des moyens pour que « les machines utilisent le langage, forment des abstractions, des concepts et résolvent des problèmes qui sont jusqu’à maintenant réservés aux humains ». Depuis cette première impulsion, les méthodes d’intelligence artificielle ont, il est vrai, permis de résoudre de nombreux problèmes. Mais l’auteur est formel : jamais en ayant recours à ce qu’on pourrait qualifier d’intelligence…

Prenons le cas de la reconnaissance d’images, qui est un des domaines où l’IA a accompli les résultats les plus probants. Les chercheurs ont d’abord eu recours à la technique dite de l’apprentissage supervisé. Si l’objectif est que la machine reconnaisse une image de chat, les chercheurs doivent eux-mêmes définir les caractéristiques d’un chat (il a quatre pattes, une queue, etc.) et les inculquer à leur programme. Dans un second temps, ils montrent à leur programme une grande quantité d’images en lui signalant ses réussites et ses erreurs jusqu’à ce qu’il parvienne à reconnaître des chats avec un taux d’erreur marginal. Cette procédure fastidieuse a été révolutionnée, à la fin des années 1990, par le développement de techniques d’apprentissage automatique (machine learning).

Voici comment Andrew Y. Ng, informaticien à l’université de Stanford, décrit cette méthode : « Au lieu d’avoir une équipe de chercheurs qui tentent de trouver comment déterminer les contours, l’idée est d’introduire une tonne de données dans l’algorithme, de laisser les données parler, et que le logiciel apprenne automatiquement en utilisant ces données ». C’est en suivant cette méthode que Google a conçu en 2012 un programme capable de découvrir tout seul le concept de chat .

Mais pour ce faire, les chercheurs ont dû mobiliser 16 000 machines et faire visionner des dizaines de millions de vidéos à leur algorithme. On commence alors à cerner les limites de l’intelligence artificielle…

3. Quelle est la spécificité de l’intelligence humaine ?

Les enfants n’ont besoin que de deux images de chats pour les reconnaître à vie, dans n’importe quelles circonstances et de manière quasi infaillible. Dans certains cas, nous sommes même capables d’apprendre en un essai. Par exemple, si j’employais le verbe « daxer », vous pourriez instantanément l’utiliser et le conjuguer. Or, comme le note l’auteur : « Les machines sont incapables de contextualiser. Si, lors de la phase d’apprentissage, on n’a pas fourni de photos de chats prises de nuit, il y a peu de chance que le système reconnaisse un chat dans la nuit…On peut bien sûr multiplier les paramètres et augmenter les jeux de données, mais outre le fait qu’il sera difficile de modéliser tous les états et toutes les circonstances, des problèmes de puissance de calcul se poseront ». Ce que l’on appelle intelligence artificielle repose souvent en vérité sur la force brute : résoudre un problème en testant le plus de solutions possible grâce à la puissance de calcul.

En comparaison, les humains ont la capacité de sauter intuitivement des étapes jusqu’à la solution d’un problème. C’est précisément dans cette économie que se situe notre intelligence.Nous avons, en outre, la capacité de combiner les connaissances, d’appliquer ce que nous avons appris dans un domaine à un autre domaine. Par exemple, si j’apprends à additionner deux chiffres, je peux l’utiliser aussi bien au restaurant que sur ma feuille d’impôts.

Et ce d’autant plus que nous sommes curieux, spontanément attirés par ce qui est nouveau, surprenant ou différent. L’intelligence artificielle, de son côté, ne sort pas du domaine du connu. Comme le note l’auteur, les systèmes que nous créons « n’inventent rien, ils ne font que suivre des règles, des exemples et des codes, en utilisant les données que nous choisissons ».

Et cela mène parfois l’IA à faire des choix stupides... Ainsi, une voiture autonome Uber a écrasé un vélo parce que le système a considéré qu’au regard du code de la route et des données sur lesquelles elle avait été entraînée, la probabilité que ce soit bien un vélo à cet endroit-là et à ce moment-là était négligeable. Si nous en sommes venus à nous persuader que l’IA était capable de nous surpasser dans la plupart des domaines, c’est donc avant tout, selon l’auteur, une conséquence du manque de rigueur et du sensationnalisme avec lequel les avancées de la discipline nous sont rapportées.

4. Que peut vraiment l’IA ?

Revenons donc sur les étapes les plus marquantes de l’ascension de l’IA. En 1997, l’ordinateur Deep Blue d’IBM bat à la surprise générale le champion du monde d’échecs en titre. Mais si Deep Blue a battu Kasparov, c’est en jouant à un autre jeu que lui. Alors que Kasparov réfléchissait et comblait parfois l’incertitude par de l’intuition, Deep Blue avait recours à « une capacité de mémoire phénoménale où étaient stockées des milliers de parties d’échecs, ainsi que les différents chemins menant à la victoire en fonction des différentes configurations ». Il ne s’agit donc pas d’une démonstration d’intelligence, mais d’une prouesse technologique.

En 2016, le programme AlphaGo, développé par Google, bat le champion du monde de go, le Sud-Coréen Lee Sedol. L’émotion fut grande, car le jeu de go est plus complexe que les échecs. En particulier, il n’existe pas d’estimation précise de la totalité des coups disponibles (les chiffres varient en 10172 et 10762). Il n’est donc pas possible d’avoir recours à la force brute pour battre un adversaire humain. Il fut, en revanche, possible de rendre la machine plus experte que n’importe quel humain en lui donnant l’expérience de plus de parties que ses adversaires n’auront le temps de jouer dans plusieurs vies. Ainsi, lorsqu’Alpha Go se présenta face à Lee Sedol, c’était armé de la mémoire de 30 millions de coups extraits de 160 000 parties. Il s’agit, encore une fois, de puissance et non d’intelligence.

Plus récemment encore, les médias se sont fait l’écho d’un changement de paradigme. L’intelligence artificielle aurait maintenant le pouvoir de créer : écrire des nouvelles, composer de la musique, peindre… Ainsi, le 25 octobre 2018, la maison de vente aux enchères Christie’s annonçait qu’un tableau créé par un algorithme d’intelligence artificielle avait été adjugé pour 435 000 euros. Mais la véritable intelligence ne se situe toujours pas dans la machine, mais bien chez ses concepteurs. Comme le note l’auteur : « La véritable création, c’est d’avoir pensé à utiliser les choses qui existent déjà, pour recréer artificiellement les émotions qui se dégagent des œuvres originales. »

5. Et si l’intelligence artificielle faisait semblant d’être docile ?

C’est là une peur à l’origine de nombreux mythes et films d’épouvante : la créature prétend être sous le contrôle du concepteur, mais, une fois qu’elle a acquis suffisamment de force et d’intelligence, elle brise soudainement ses chaînes et se venge. Ce scénario a déjà été évoqué par des chercheurs et entrepreneurs à la pointe du domaine.

On se rappellera par exemple la déclaration de Bill Gates : « Au début, les machines vont effectuer de nombreuses tâches et ne seront pas très intelligentes. Ça devrait être positif, si nous gérons bien, mais dans quelques décennies, l’IA devrait être assez forte pour être une préoccupation ». Cette peur se concrétisa en 2017 avec la diffusion d’une information inquiétante dans les médias : au cours d’une expérience, deux intelligences artificielles prenant part à un jeu de négociation auraient développé un nouveau langage. Ce langage leur permettait de communiquer entre elles sans être comprises par les chercheurs.

Réalisant ce qui était en train de se passer, les chercheurs les ont désactivées …Le compte-rendu que donne Luc Julia du même événement est moins vendeur : « Les deux bots ayant été entraînés avec des objectifs et des bases de données différentes, ils se sont très vite désintéressés l’un de l’autre, car aucun d’eux ne pouvait accomplir la tâche qui leur avait été assignée. Ils essayaient certes de se parler, mais on est pratiquement sûr qu’il ne se comprenaient pas. Un robot, surtout quand une tâche spécifique lui a été assignée, ne peut pas en créer une autre et encore moins développer un langage ».

6. Conclusion : ce qui devrait vraiment nous inquiéter

Plutôt que de jouer à nous faire peur avec des scénarios qui relèvent de la science-fiction, l’auteur attire finalement notre attention sur un problème plus prosaïque et autrement plus urgent : « Je ne crois pas aux méchants robots, en revanche, j’ai peur que les méthodes courantes de Machine ou Deep Learning nous amènent à consommer beaucoup trop de ressources et se révèlent très dangereuses pour notre planète ».

Et il est vrai que les chiffres sont inquiétants. Autour de 2020, le digital (Internet et les centres de stockage de données) pèsera pour 20% dans la consommation électrique de notre planète. Et pourtant, seuls 50% de l’humanité accède aujourd’hui à Internet. Le vrai défi, c’est donc de développer des intelligences artificielles qui parviendraient à accomplir autant en consommant beaucoup moins de ressources.

En cette matière, l’efficacité du cerveau humain est très loin d’être égalée : DeepMind, la machine qui parvint à vaincre le champion de monde de go, consommait 440 000 watts par heure. Dans le même temps, le cerveau de son adversaire humain n’en consommait que 20…

7. Zone critique

L’ouvrage est intéressant et agréable à lire. Il souffre cependant d’un défaut important : l’auteur ne prend pas le temps de justifier sa définition de l’intelligence qui est pourtant loin d’être consensuelle : « Je définirais l’intelligence comme la capacité de casser les règles, d’innover, de s’intéresser à ce qui est différent, à ce que l’on ne connaît pas.

Pour moi, être intelligent, c’est avoir de la curiosité ». Vu sous cet angle, il est vrai que l’intelligence artificielle n’existe pas encore. Mais les définitions les plus répandues de l’intelligence ne se focalisent pas tant sur la curiosité que sur la capacité à apprendre, à comprendre et à mobiliser les connaissances pertinentes à la résolution d’un problème. Et si une machine est belle et bien capable de résoudre des problèmes de plus en plus complexes, on ne voit pas bien les raisons de refuser de la qualifier d’intelligente.

C’était là l’argument d’Alan Turing, dans son fameux article « Les ordinateurs et l’intelligence » (1950) : si une machine est capable de faire aussi bien qu’une entité que nous sommes prêts à qualifier d’intelligente, alors elle est intelligente. On aurait aimé que l’auteur prenne le temps de discuter cette thèse, surtout au regard du titre de son ouvrage.

8. Pour aller plus loin

Ouvrage recensé

– L’Intelligence artificielle n’existe pas, Paris, Éditions First, 2019.

Autres pistes – Nick Bostrom, Superintelligence, Paris, Dunod, 2017. – Stanislas Dehaene, Apprendre ! Les talents du cerveau, le défi des machines, Paris, Odile Jacob, 2018.– Jean-Louis Dessalles, Des Intelligences TRES artificielles, Paris, Odile Jacob, 2019.– Pedro Domingos, The Master Algorithm, Basic Books, 2015.– Cathy O’Neil, Algorithmes : la bombe à retardement, Paris, Les Arènes, 2018.

© 2020, Dygest