dygest_logo

Téléchargez l'application pour avoir accès à des centaines de résumés de livres.

google_play_download_badgeapple_store_download_badge

Bienvenue sur Dygest

Dygest vous propose des résumés selectionnés et vulgarisés par la communauté universitaire.
Voici le résumé de l'un d'entre eux.

La politique des grands nombres

de Alain Desrosières

récension rédigée parPierre Le BrunAgrégé de Sciences Economiques et Sociales.

Synopsis

Histoire

Comment quantifier le monde ? Telle est la question qui pourrait résumer le fil directeur de cet ouvrage. L’auteur y retrace méticuleusement l’histoire de la construction des outils statistiques, des buts politiques qu’ils ont pu servir, des techniques mathématiques et des nomenclatures utilisées. S’il est important de comprendre que les statistiques reposent sur des conventions historiquement contingentes, il faudrait également reconnaître que les catégories qu’elles ont progressivement dessinées (les chômeurs, le taux de fécondité, etc.) sont aujourd’hui fortement ancrées dans le débat public et qu’elles sont à ce titre devenues des réalités.

google_play_download_badge

1. Introduction

La politique des grands nombres constitue un ouvrage touffu et très documenté retraçant l’histoire de la discipline statistique de ses prémices au XVIIe siècle jusqu’aux années 1990. L’auteur part d’un problème simple, quoiqu’insoluble : comment peut-on faire entrer le monde dans des catégories quantifiables afin de mesurer les relations qui les unissent ? La réponse à cette énigme a suscité – et suscite encore – de nombreux débats.

Pour les tenants d’une perspective réaliste, l’objectif des statistiques est de proposer la moins mauvaise mesure d’un phénomène supposé réel, c’est-à-dire existant en dehors des conventions qui en permettent l’appréhension. La tradition nominaliste considère au contraire cette opération comme une pure construction, possiblement orientée, visant à donner une représentation organisée du monde et qui produit elle-même les objets qu’elle mesure.

Par exemple, c’est la création de la catégorie de chômeurs qui permet de parler du chômage, et non l’existence préalable du chômage qui aurait motivé les statisticiens à le mesurer de la meilleure façon possible. Se situant entre ces deux perspectives, Desrosières considère que pour conventionnelles et politiques qu’elles soient, les catégories statistiques ont été progressivement durcies par des décennies de débat public, au point de pouvoir être aujourd’hui considérées comme des objets réels.

À l’appui de cette conclusion, l’auteur observe l’évolution des lignes, des enjeux et des objets des querelles statistiques. Attentif au contenu des principales contributions et aux débats purement académiques, il se montre également soucieux de replacer ces éléments dans le contexte social et politique qui les a en partie déterminés.

2. Quatre grandes traditions nationales

Desrosières identifie quatre principaux modèles statistiques nationaux. Le premier historiquement, qui a donné son nom à la statistique, est celui de la Prusse puis de l’Allemagne. Forgée au XVIIe siècle, elle a alors une fonction essentiellement descriptive et pédagogique. Son rôle est d’offrir au prince, et aux organisateurs en général, une connaissance claire du territoire dont ils ont la charge. Si les tableaux de chiffres qu’évoque aujourd’hui le mot de statistique en sont généralement absents, ces premiers travaux reposent néanmoins sur une structuration nette de l’argumentation en grandes catégories (le territoire, la démographie, le droit, etc.) qui annonce les futures nomenclatures.

L’« arithmétique politique anglaise » (p.34), qui naît également dans la seconde moitié du XVIIe siècle, se révèle plus universitaire qu’étatique, et moins orientée vers un souci de connaissance du territoire que vers la résolution des problèmes sociaux concrets. Elle se caractérise par la prééminence de la figure de l’expert (par opposition au fonctionnaire d’État allemand). Les travaux anglais sont souvent motivés par des projets politiques : les progrès importants du tournant du XXe siècle avaient comme première ambition de favoriser des politiques eugénistes.

Le modèle français mêlerait d’une part une tradition administrative centralisée et d’autre part la prégnance d’un certain rationalisme, union qu’illustre la figure typiquement française des ingénieurs administrateurs. La Révolution française a prolongé les tendances centralisatrices de l’Ancien régime. Elle est à l’origine de la mise en place des premiers recensements, qui visent une connaissance précise et exhaustive de la population française. Les techniques mathématiques l’emportent progressivement sur les tendances plus descriptives d’inspiration allemande. Aux XIXe et XXe siècles, la mise en place des grandes écoles et de l’INSEE renforce cette tendance.

Aux États-Unis, l’essor des techniques de statistique est tardif. La professionnalisation de la statistique publique y progresse de façon irrégulière au gré des « polémiques soulevées pour les problèmes cruciaux de la société […] : l’esclavage, la pauvreté, l’immigration, le chômage, l’intégration raciale » (p. 235). La construction des conventions statistiques (par exemple la définition de ce qu’est un immigré) est un thème politique discuté par les parlementaires. Cette influence de la sphère politique permet également d’expliquer pourquoi c’est aux États-Unis que sont nés les sondages pendant les années 1930.

3. Deux façons de mesurer la société

Au fil de l’histoire et des traditions nationales, deux grandes façons de faire des statistiques ont émergé. Elles se sont traduites par des modes de calcul distincts porteurs de conceptions différentes de la société. La première est incarnée au mieux par l’astronome belge Adolphe Quetelet (1796-1874).

Sa réflexion part d’un paradoxe : bien qu’il s’agisse de toute évidence de phénomènes individuels contingents, les taux de naissances, de décès, de mariages ou d’homicides sont remarquablement stables au cours du temps. Il remarque également, en s’appuyant sur les travaux des mathématiciens De Moivre et Gauss, que les distributions de certains traits humains tels que la taille sont centrées autour d’une valeur moyenne et peuvent se représenter par une courbe en cloche.

Ces observations le mènent à dresser le profil d’un « homme moyen », dont les caractéristiques correspondraient à celles observées en moyenne dans une société donnée, et dont les individus réels ne seraient que les déclinaisons imparfaites. Les traits de ce modèle parfait sont attribués par Quetelet à la volonté divine. Cette façon holiste d’analyser les phénomènes sociaux à partir de leur moyenne a été reprise, en la laïcisant, par les pères fondateurs de la sociologie, et en particulier Émile Durkheim.

À l’opposé de l’homme moyen de Quetelet, les statisticiens anglais de la fin du XIXe siècle ont élaboré des outils de mesure et d’analyse de dispersion des caractères dans une population. Cette conception, dont les deux principaux représentants sont Francis Galton (1822-1911) et Karl Pearson (1857-1936), s’inscrit d’abord dans un projet politique eugéniste. Là où Quetelet identifie une régularité qu’il attribue à une cause divine transcendante, Galton cherche plutôt à identifier les traits physiques et moraux des individus susceptibles d’être liés aux aptitudes de leurs enfants. Le but final des statisticiens eugénistes est de modifier la répartition des traits aux effets néfastes afin, selon eux, d’améliorer l’espèce humaine. Cette démarche a donc supposé, afin d’évaluer la solidité des liens entre caractéristiques biologiques et comportements individuels, l’élaboration de modes de calcul des relations entre différentes variables.

Pearson a ainsi construit le célèbre test du ?2 (« khi-deux »), permettant d’estimer la significativité de la liaison de deux variables. Les techniques dites de régression permettent quant à elle de mesurer et de comparer les influences respectives de plusieurs variables sur une autre. Elles sont utilisées pour déterminer des causalités probables entre faits sociaux et ainsi de diriger l’action publique.

4. Comment domestiquer l’incertitude ?

Les statistiques ont partie liée aux probabilités, et donc à l’incertitude, et ce, de deux façons. Tout d’abord par rapport à la représentativité des données statistiques.

À l’exception notable des recensements, la plupart des enquêtes portent sur des échantillons de population. L’histoire des statistiques est ainsi celle d’une construction progressive de techniques permettant de connaître un tout par l’étude de ses parties. Cette élaboration ne s’est pas faite sans résistances. Le recours aux statistiques s’est heurté en France à l’opposition de sociologues adeptes des monographies et organisés autour de Frédéric Le Play (1806-1882).

Celui-ci considère alors que les statistiques permettent des analyses moins fines des différents milieux sociaux que des études qualitatives approfondies de cas exemplaires. Par la suite, la mise en place de nouvelles techniques permettant d’améliorer la représentativité des échantillons sélectionnés a permis la naissance des sondages d’opinion. Inventés aux États-Unis, ils se donnent pour missions de prédire des résultats électoraux à partir de la consultation d’un échantillon très réduit de la population. Le succès de ces premiers sondages a contribué à légitimer et diffuser l’usage de statistiques dans les débats publics.

L’incertitude inhérente aux statistiques porte également sur la possibilité d’inférer des énoncés généraux à partir de ces mesures. Desrosières oppose à de nombreuses reprises les probabilités subjectives (ou épistémiques) et objectives (ou fréquentistes).

Les premières expriment un degré de croyance dans un phénomène difficile à prouver, par exemple l’existence de Dieu, ou l’innocence d’un accusé particulier. Cette perspective insiste sur l’incomplétude de notre connaissance du fait en question et tente de formuler des règles de comportements raisonnables à adopter face à cette incertitude (c’est l’exemple du pari de Pascal : l’individu a tout intérêt à croire en Dieu, car « si vous gagnez, vous gagnez tout ; si vous perdez, vous ne perdez rien. Gagez donc qu’il est, sans hésiter » ).

Les probabilités objectives, en revanche, placent l’imprévisibilité au cœur même de la nature. En d’autres termes, ce n’est pas parce que je suis ignorant que je ne peux pas prévoir le résultat d’un jet de dé, c’est parce que celui-ci repose intrinsèquement sur le hasard. Il s’agit alors d’observer les fréquences de répétition de certains phénomènes pour parvenir à prévoir leur probabilité d’occurrence. Les tenants de la première approche (subjective) ont tendance à remettre en cause la capacité des statistiques à parfaitement modéliser un phénomène.

5. Connaître pour agir

Les statistiques sont organiquement liées à l’État et au pouvoir en général. Le mot lui-même de statistique, né en Allemagne au XVIIIe siècle, signifie alors « science de l’État ». Les statistiques ont contribué à l’unification des États allemands au cours du XIXe siècle en donnant à la nation naissante une certaine consistance et une certaine identité.

Le bureau prussien de statistique a également contribué à l’élaboration des lois sociales de Bismarck dans les années 1880. En France également, les statistiques ont servi de support aux décideurs dans le calibrage des politiques économiques. Dans le cas américain, les statistiques ont joué un rôle particulièrement important dans la construction de l’État. Le principe de recensement démographique régulier, inscrit dans la Constitution, conditionne la juste fixation du nombre de représentants associés à chaque État. Il est d’autant plus nécessaire que les États-Unis sont un pays à croissance démographique très rapide. De fait, les techniques par lesquelles sont menés les recensements sont régulièrement discutées au Congrès. Par la suite, les sondages sont devenus un enjeu de légitimité pour les représentants politiques.

L’histoire des statistiques est donc liée à celle des mutations des formes étatiques. L’émergence de l’État-providence, au cours du XXe siècle, s’est largement appuyée sur l’usage des statistiques. Les politiques redistributives supposent en effet de disposer d’une catégorisation préalable de la population qui permette d’en estimer les capacités et les besoins. Les nomenclatures proposées par les statisticiens anglais, bien que construites dans une perspective eugéniste et reposant souvent sur une naturalisation des conditions sociales, ont constitué l’ancêtre des découpages contemporains en classes sociales. Leur structure linéaire et hiérarchisée traduit la volonté de leurs concepteurs de guider les politiques publiques d’aide et d’encadrement des populations pauvres.

En France, le découpage par catégories socioprofessionnelles « porte moins la trace d’une philosophie sociale particulière, comme l’anglaise, que de diverses étapes de l’histoire de l’organisation du travail » (p. 323). Les premières réformes sociales, menées à partir du milieu du XIXe siècle, se sont appuyées sur une distinction entre salariés et non-salariés. Les conventions collectives, généralisées à la Libération, ont ensuite motivé un découpage de la population active en plusieurs collèges, associés à des droits et des modes d’élection différents. Ces collèges ont servi de base à l’INSEE pour proposer en 1954 la nomenclature des catégories socioprofessionnelles.

6. La genèse de la science économique contemporaine

La science économique moderne se situe au croisement entre les statistiques, les probabilités et l’économie mathématique, ce qui vaut à Desrosières d’y consacrer la dernière partie de son ouvrage. Il montre cependant que cette synthèse s’est longtemps heurtée à l’hostilité des économistes eux-mêmes : « non seulement ces trois outillages sont différents, mais ils ont même été longtemps pensés comme incompatibles » (p. 342).

Ainsi, les économistes mathématiciens, partisans d’une méthode hypothético-déductive, rejettent les statistiques « qu’ils soupçonnent de rassembler pêle-mêle des faits résultant d’interactions […] non contrôlables » (p. 346). Ils critiquent notamment l’usage fait de celles-ci par les économistes institutionnalistes américains, paradoxalement beaucoup plus littéraires.

En outre, les doutes qui pèsent jusqu’au début du XXe siècle sur la solidité des techniques d’échantillonnage freinent les rapprochements entre statistiques et probabilités : les premières ne sont pas considérées comme assez rigoureuses pour en tirer des règles de probabilités solides sur les comportements humains. L’approche subjective, réfutant la capacité des statistiques à servir de fondement à des modèles économiques, reste dominante jusqu’à la moitié du XXe siècle.

Le rapprochement entre statistiques, probabilité et économie mathématique se fait d’abord aux États-Unis autour d’une nouvelle discipline : l’économétrie. Celle-ci émerge progressivement au cours de l’entre-deux-guerres. La crise de 1929 puis la Seconde Guerre mondiale mènent les économistes à s’intéresser à des problèmes concrets, et par là à se familiariser avec l’usage des statistiques.

Réunis au sein de la Cowles Commission, créée en 1932, les économètres américains construisent les premiers modèles macroéconomiques probabilistes. Leur élaboration tient d’une « démarche pragmatique, sorte de bricolage théorico-empirique, éloigné aussi bien des édifices formels de l’économie pure que de la statistique descriptive » (p. 362).

Le critère de validité des modèles n’est pas tant leur réalisme (puisque leur fonction est précisément de proposer une vision simplificatrice d’une économie nationale) que leur cohérence à la fois logique et statistique. Les modèles probabilistes se présentent comme des systèmes de suppositions que l’on peut raisonnablement formuler à partir des statistiques disponibles.

7. Conclusion

L’ouvrage de Desrosières ne défend pas de thèse forte sur ce que devraient ou ne devraient pas être les statistiques. Il en propose plutôt une histoire la plus complète et nuancée possible, refusant de trancher les débats canoniques entre approches épistémique et fréquentiste, relativiste ou universaliste, ou encore réaliste et nominaliste. Cet ouvrage vise au contraire à éclairer la façon dont ces différentes conceptions des statistiques se sont historiquement articulées, confrontées, ou au contraire rapprochées pour aboutir à la situation actuelle.

C’est donc bien à une histoire de la construction statistique que se livre Desrosières, en montrant que les pratiques des statisticiens d’aujourd’hui revêtent une part de contingence. Il n’est pas tenable de considérer les statistiques comme un parfait reflet d’une supposée réalité. Desrosières ajoute cependant que cette contingence ne remet, selon lui, pas en cause les résultats statistiques eux-mêmes. Il conviendrait de voir les statistiques comme un outil construisant ses propres critères de vérifications : c’est parce que des statisticiens ont créé la catégorie des chômeurs, d’une façon qui aurait pu être différente, qu’il est aujourd’hui possible de les compter, ou au contraire de contester leur mesure.

En d’autres termes, les statistiques constituent un instrument de choix pour, selon la célèbre formule d’Émile Durkheim, « traiter les faits sociaux comme des choses » (Les règles de la méthode sociologique).

8. Zone critique

Cet ouvrage a, dès sa première publication en 1993, été reconnu comme une référence incontournable dans l’étude des statistiques. Desrosières se distingue par son parti pris méthodologique, refusant de faire une simple histoire linéaire du progrès des techniques statistiques. Sa démarche s’inscrit davantage dans la ligne des travaux d’anthropologie des sciences de Michel Callon et de Bruno Latour, écartant la question de la vérité scientifique au profit d’une étude minutieuse de la science « en train de se faire » (p.12).

Plusieurs critiques ont cependant souligné la faible prise en compte des questions politiques liées aux statistiques. Les luttes sociales qui ont imposé aux statisticiens certaines nomenclatures, ou encore l’utilisation des statistiques à des fins de contrôle des populations (comme le suggèrent les travaux de Michel Foucault) sont très peu évoquées par Desrosières. Celui-ci consacrera à ces questions son dernier ouvrage, Pouvoir et gouverner, publié en 2014 à titre posthume.

En outre, l’ancienneté de l’ouvrage ne lui permet pas d’intégrer les problématiques liées au développement de nouvelles sources de données ni aux enjeux liés à leur commercialisation.

9. Pour aller plus loin

Ouvrage recensé– La politique des grands nombres. Histoire de la raison statistique, Paris, La Découverte, 2010.

Du même auteur– Avec Laurent Thévenot, Les catégories socioprofessionnelles, Paris, La Découverte, « Repères », 2002.– Pouvoir et gouverner, Paris, La Découverte, « Sciences humaines », 2014.

Autres pistes– Émile Durkheim, Les règles de la méthode sociologique, Paris, PUF, « Quadrige Grands textes », 2007.– Michel Foucault, Naissance de la biopolitique. Cours au Collège de France (1978-1979), Paris, Seuil, « Hautes études », 2004.– Bruno Latour, La science en action. Introduction à la sociologie des sciences, Paris, La Découverte, 2005.

© 2020, Dygest