dygest_logo

Téléchargez l'application pour avoir accès à des centaines de résumés de livres.

google_play_download_badgeapple_store_download_badge

Bienvenue sur Dygest

Dygest vous propose des résumés selectionnés et vulgarisés par la communauté universitaire.
Voici le résumé de l'un d'entre eux.

À Quoi Rêvent Les Algorithmes ?

de Dominique Cardon

récension rédigée parCamille Girard-ChanudetDoctorante en sociologie au Centre d’Etude des Mouvements sociaux (EHESS/INSERM/CNRS).

Synopsis

Société

Faire ses courses, retrouver son chemin après s’être perdu sur une route de campagne ou même rechercher l’âme sœur, le spectre des activités que nous réalisons avec l’appui d’algorithmes semble désormais s’étendre à l’infini. Dominique Cardon plonge au cœur de ces calculateurs numériques pour identifier les logiques sociales et politiques qui les sous-tendent. En démystifiant des instruments techniques aux formes et finalités multiples, cet ouvrage contribue au développement d’un savoir critique à leur sujet, condition nécessaire de résistance à leur emprise croissante.

google_play_download_badge

1. Introduction

Les algorithmes ne sont pas l’apanage de la modernité. Définis comme des « séries d’instructions permettant d’obtenir un résultat » (p. 7), ces instruments tireraient leur nom du mathématicien perse Al-Khwârizmî, inventeur au IXe siècle de méthodes novatrices de calcul. Cependant, les évolutions techniques récentes, en particulier en termes de capacités de stockage de données numériques et de puissance des calculateurs automatiques, transforment depuis les dernières décennies du XXe siècle l’amplitude du champ d’action de ces outils.

Avec le développement et la démocratisation d’internet et, plus généralement, des outils numériques, les calculateurs occupent une place croissante dans nos existences quotidiennes. Par le biais de suggestions permanentes de musiques à écouter, d’itinéraires à suivre, de livres à acheter ou encore de contacts professionnels à ajouter, ils accompagnent et guident chacune de nos activités connectées, sans que nous en soyons toujours conscients.

La capacité à identifier, à contrôler et, le cas échéant, à résister à ces influences algorithmiques est pourtant essentielle, en particulier dans un univers numérique de plus en plus contrôlé par des plateformes hégémoniques (GAFAM). C’est pour donner aux internautes les moyens de garder la main sur leurs activités en ligne que Dominique Cardon propose cette analyse critique des algorithmes qui les sous-tendent.

L’ouvrage s’organise ainsi autour de la double question de la nature et des effets des techniques algorithmiques numériques. L’auteur fait l’effort de dépasser les réflexions générales sur enjeux soulevés par les nouvelles formes de calcul numérique, pour pénétrer la diversité des outils aujourd’hui mis en œuvre et la multiplicité de leurs implications sociales.

2. Calculer les individus et les populations

L’essor des algorithmes numériques pilotés par des plateformes privées s’inscrit dans l’histoire longue du développement de la statistique comme outil de gouvernance. Dès la formation des États, ceux-ci ont cherché à produire des données chiffrées au sujet de leurs territoires et leurs populations pour mieux les administrer, comme l’a montré notamment Alain Desrosières dans son livre La politique des grands nombres.

Dans les années 1980, la mise en œuvre de politiques étatiques néolibérales s’est faite parallèlement au développement de l’informatique et des capacités de calcul numériques. Les chiffres gagnent en importance et deviennent partout plus visibles, sous forme de notations, d’indicateurs, de classements. La quantification investit des espaces sociaux qui semblaient autrefois par nature devoir lui résister, à l’instar de l’éducation, la famille ou encore la culture Elle vise à orienter les décisions et les comportements des acteurs, promettant davantage d’efficacité et de productivité.

Dans le même temps, le monopole de l’État sur les données produites et les calculs s’appuyant sur elles s’estompe. D’autres acteurs capables d’observer les individus, de mesurer leurs comportements et d’exploiter les résultats issus de ces opérations émergent, en particulier au sein des espaces numériques. Les volumes d’informations produits en ligne sont extrêmement importants : chaque jour sur Internet, est générée la même quantité d’écrits que tous les textes produits par l’humanité depuis l’invention de l’écriture jusqu’en 2003, et cette masse de données se trouve principalement gérées par les grandes entreprises du Web.

Les algorithmes permettent donner du sens aux informations générées et déposées sur Internet, en les triant, les hiérarchisant et sélectionnant ce qui est pertinent. Ils sont principalement employés par les plateformes numériques pour organiser des contenus, construire des services personnalisés individuellement ou encore rentabiliser des espaces publicitaires. Les internautes eux-mêmes s’approprient également de façon croissante les résultats des calculateurs pour mesurer leurs activités et performances, et adapter en conséquence leurs comportements : il s’agit du mouvement du « quantified self » (p. 76).

L’omniprésence des instruments algorithmiques et l’attention que nous accordons collectivement aux chiffres qu’ils produisent sont caractéristiques de ce que Dominique Cardon nomme la « société des calculs » (p. 11).

3. La multiplicité des calculateurs et de leurs impacts

L’importance des algorithmes dans la structuration des architectures du Web tend à masquer la diversité de leurs caractéristiques et de leurs effets. L’un des apports majeurs de cet ouvrage est de proposer une typologie de ces outils en fonction des valeurs qui les sous-tendent et des enjeux qu’ils soulèvent. Quatre « familles de calcul numérique » (p. 17) se dégagent ainsi : les algorithmes placés à côté, au-dessus, dans, et au-dessous du web.

Les algorithmes placés « à côté » du web mesurent la performance des contenus en quantifiant leur audience. Il s’agit de compteurs de visites et de vues permettant de hiérarchiser les sites en fonction de leur popularité. Les outils développés dans cette perspective, tels que Google Analytics, permettent aux webmasters de suivre la fréquentation de leurs sites et d’adapter leurs services en conséquence. Ils constituent également le socle du système traditionnel d’affichage publicitaire en ligne, en contribuant à déterminer le prix d’affichage de chaque espace suivant sa popularité.

Les algorithmes placés « au-dessus » du Web classent les contenus de façon méritocratique, en cherchant à mesurer leur autorité. C’est typiquement le cas de l’algorithme Page Rank du moteur de recherche Google, qui accorde davantage d’importance aux sites fréquemment cités – en particulier par des sites eux-mêmes considérés comme importants. Contrairement au fondement démocratique des algorithmes placés à côté du Web, pour lesquels chaque vue est porteuse du même poids dans les calculs, les algorithmes placés au-dessus du Web reposent sur une base différenciatrice conduisant à focaliser l’attention vers les contenus les plus populaires.

Les algorithmes placés « à l’intérieur » du Web fonctionnent à partir de données subjectives produites par les acteurs évoluant sur internet, contrairement aux deux types précédents d’algorithmes fondant leurs calculs sur des métadonnées. Il s’agit de métriques de réputation permettant d’une part de structurer les relations entre internautes, et d’autre part de qualifier des objets soumis à des évaluations publiques. Elles sont alimentées directement par les individus, soit par le biais d’interactions sur les réseaux sociaux (likes, commentaires, nombre d’amis…), soit via des plateformes de « notes et avis » (Trip Advisor, Allociné…).

Les algorithmes placés « sous » le web, enfin, sont ceux auxquels s’intéresse particulièrement Dominique Cardon. Il s’agit du type le plus récent de calculateurs, basés sur la technique statistique du machine learning. Ces algorithmes déduisent les habitudes et préférences des individus de l’analyse de l’ensemble des traces numériques qu’ils laissent en ligne (historiques de navigation, données GPS, produits achetés…). À partir de ces informations, ils génèrent des ciblages fins et individualisés des internautes, soulevant de ce fait d’importants enjeux politiques et sociaux.

4. La prédiction et ses enjeux

Les algorithmes de machine learning reposent sur un principe d’analyse et de prédiction statistique d’événements. Les informations collectées sur chaque internaute permettent d’élaborer des recommandations spécifiques pour lui, en comparant ses choix avec ceux de l’ensemble des autres individus. Ainsi, si un nombre élevé de personnes consomme fréquemment les produits A, B et C ensemble, ce type d’algorithme considérera comme élevée la probabilité qu’un internaute ayant déjà consulté les pages des produits A et B soit intéressé par le produit C, et le lui suggérera (il s’agit typiquement du cas des recommandations d’ouvrages sur le site Amazon).

Les recommandations façonnées par ce type d’algorithmes portent une charge performative importante : il est probable qu’un individu auquel on a suggéré un produit s’y intéresse effectivement, alors que cela n’aurait pas nécessairement été le cas sinon. En faisant « constamment l’hypothèse que notre futur sera une reproduction de notre passé » (p. 70), ces outils génèrent donc un risque d’enfermement des individus dans des boucles de répétition, dont s’extraire est particulièrement difficile. Les internautes n’ont en effet pas toujours conscience que les contenus leur sont proposés en raison de leurs navigations passées, et sortir du spectre d’informations suggérées requiert de leur part un effort supplémentaire.

Ces boucles de répétition ont la particularité d’être fortement individualisées. Contrairement aux systèmes de communication de masse, les algorithmes prédictifs sont en mesure de cibler très finement leurs cibles, pour chacune desquelles une multitude de recommandations différentes peut être générée. Ces techniques contribuent donc à enfermer les individus dans des « bulles de filtres », leur proposant systématiquement des contenus similaires à ceux qu’ils ont l’habitude de consommer et les éloignant davantage de ceux avec lesquels ils ne sont pas familiarisés.

Le développement de ce type d’algorithmes à grande échelle représente pour Dominique Cardon un changement de paradigme dans l’analyse des comportements sociaux. Il ne s’agit plus de construire des modèles explicatifs des dynamiques observées, mais plutôt de rechercher dans la masse des données disponibles des corrélations dont les causes importent peu. En ce sens, ces algorithmes peuvent être qualifiés de « machines statistiques » (p. 58) visant moins à comprendre qu’à orienter les individus vers les résultats les plus probables.

5. Les algorithmes, des assistants un peu trop présents ?

Les algorithmes prédictifs sont aujourd’hui partout dans l’univers numérique. La majorité des services utilisés quotidiennement par les internautes reposent sur un apprentissage automatisé de leurs habitudes et préférences individuelles, conduisant à la production continue de suggestions et contenus personnalisés.

L’omniprésence de ces recommandations générées algorithmiquement comporte un risque de voir les décisions automatiques se substituer aux processus de choix conscients et réfléchis des individus. En limitant les champs des possibles des internautes (en déterminant ce qui leur est montré et ce qui ne l’est pas) et en dirigeant leurs actions (en sélectionnant les contenus accessibles), les algorithmes « fabriquent [le] réel, l’organisent et l’orientent ». Ils « imposent une hiérarchisation des valeurs qui en vient progressivement à dessiner les cadres cognitifs et culturels de nos sociétés » (p. 14).

Ainsi, pour Dominique Cardon, une dynamique de co-construction se met en place entre algorithmes et individus : si les outils numériques sont fabriqués et alimentés par des humains, ils influencent également fortement en retour les pratiques et les préférences de ces derniers. L’auteur appelle en conséquence à une reprise de contrôle des individus sur les processus algorithmiques sous-tendant leurs activités numériques.

Pour ce faire, il s’agit d’une part de promouvoir le développement d’une « culture statique » (p. 13) démocratisée, pour donner à chacun les moyens d’identifier, de comprendre et de critiquer la façon dont les calculateurs structurent les espaces numériques. Les enjeux de formation citoyenne sont cruciaux pour que les algorithmes ne demeurent pas toujours des « boîtes noires » inaccessibles, et cet ouvrage se veut l’une des premières briques à cette démarche pédagogique.

D’autre part, Dominique Cardon appelle à prêter davantage attention aux espaces d’agentivité (agency) des individus dans ces contextes fortement soumis aux influences algorithmiques. Il est essentiel d’agir en faveur de la capacité des internautes à « passer en manuel » (p. 102), c'est-à-dire à choisir les moments où ils souhaitent sortir du confort du guidage automatique pour reprendre le contrôle sur leurs décisions et actions.

6. Conclusion

En ouvrant la boîte noire de nos espaces numériques, Dominique Cardon met en évidence la diversité des architectures techniques qui les sous-tendent, des présupposés politiques et moraux qui ont présidé à leur construction, et des effets sociaux qu’ils exercent sur les individus qui s’y trouvent confrontés.

Ce faisant, cet ouvrage fait apparaître en filigrane l’importance des choix moraux et politiques qui contribuent à donner forme aux algorithmes. Il met également l’accent sur la nécessité pour les internautes de se former au fonctionnement de ces outils. C’est en effet la meilleure solution pour se donner la possibilité de garder le contrôle de leurs actions en décidant de la façon dont ils souhaitent se laisser guider ou non par les recommandations automatiques qui leur sont présentées.

7. Zone critique

L’apport d’À quoi rêvent les algorithmes a été fondamental sur deux plans. Il a, d’une part, contribué à la démocratisation d’une réflexion politique et sociale sur les enjeux soulevés par la diffusion massive de ce type d’outils. D’autre part, il a participé à l’amorce d’un tournant pour la sociologie française s’intéressant aux architectures numériques de calcul contemporaines.

Si les réflexions critiques entourant les algorithmes s’étaient jusqu’alors tenues principalement à un niveau macroscopique, décrivant de façon générale les effets supposés de ce type d’outils, Dominique Cardon a opéré avec cet ouvrage un changement d’échelle majeur. En se donnant les moyens de travailler sur la diversité concrète des formes algorithmiques, le sociologue répond à son ambition « d’ouvrir la boîte noire des calculateurs » (p. 14).

En ce sens, cet ouvrage, et en particulier la typologie des algorithmes numériques qu’il propose, a constitué un apport novateur pour la sociologie du numérique. Il a posé d’importants jalons théoriques et méthodologiques pour le développement d’un champ d’études s’intéressant depuis la fin des années 2010 à une échelle fine aux structures algorithmiques.

8. Pour aller plus loin

Ouvrage recensé – À Quoi Rêvent Les Algorithmes ? Nos Vies à l’heure Des Big Data, Paris, Le Seuil, 2015.

Du même auteur – Culture numérique, Paris, Presses de Sciences Po, 2019.

Autres pistes – Pedro Domingos, The Master Algorithm. How the Quest for the Ultimate Learning Machine Will Remake Our World, Londres, Allen Lane - Peguin Books, 2015.– Cathy O’Neil, Algorithmes : la bombe à retardement, Paris, Les Arènes, 2018.– Pasquale Franck, Black box society : the secret algorithms that control money and information, Cambridge, Harvard University Press, 2016.– Alain Desrosières, La politique des grands nombres, Paris, La Découverte, 2000.

© 2020, Dygest