,

Economie et méthodologie (2/2)

2/ Les enjeux méthodologiques

L’économie peut se lire dans trois registres différents: analytique, normatif, prescriptif. Dans le même temps, l’économie tient aujourd’hui une telle place dans nos vies, et peut être plus encore dans les discours où nous baignons, qu’elle cumule les fonctions et mélange les rôles. Elle ne se contente plus d’être une tentative d’intelligence d’un certain nombre de phénomènes de nos sociétés; il lui faut prétendre être l’instance dictant les normes du souhaitable, et par là l’instance de prescription des médecines, souvent d’amères potions, destinées à nous aligner sur ces normes. Le présent livre ne saurait donc échapper à cela. Pour autant, ne soyons pas

Ce qui est jeu ici n’est autre que le statut de l’économie et de l’économiste. Pour l’auteur de ces lignes, la question essentielle n’est pas de savoir si l’économie sera ou non une “science dure”. L’opposition entre des sciences réputées molles et celles qui s’affirment dures est déjà suspecte. Au-delà, il y a beaucoup d’illusion, ou de prétention, à croire qu’une discipline puisse s’auto-affirmer dans un registre dont elle exclurait les autres, en tout ou partie. Le problème fondamental n’est pas le statut de l’économie comme science mais la compréhension par les économistes eux-mêmes des conditions dans lesquelles ils travaillent.

Il y a des démarches scientifiques, dont il faut définir les conditions, plus qu’il n’y a de science au sens normatif. Ceci implique une discussion sur les bases méthodologiques, terrain qu’évite soigneusement ce que l’on a appelé l’économie dominante[23].Ces stratégies d’évitement ne sont ni neutres ni fortuites. Elles ont des conséquences importantes en ce qui concerne l’aveuglement progressif des économistes sur leurs propres pratiques. Elles sont aussi fondamentales pour tout discours qui tente d’éviter une controverse en cohérence, autrement dit une vérification par l’extérieur des conditions de formulation et d’usage des énoncés par lesquels il prétend asseoir sa légitimité et sa prééminence sur toutes les autres sciences sociales.

 

Défense de la méthodologie

Bruce Caldwell a répertorié cinq arguments utilisés par les économistes standards pour dénier aux discussions méthodologiques leur importance: (a) l’économie ne s’enseigne pas à partir de la méthodologie, (b) les spécialistes en méthodologie ne sont que des arrogants qui prétendent savoir mieux que les autres, (c) les débats méthodologiques sont stériles, (d) la méthodologie est une occupation de marginaux qui n’ont rien de mieux à faire et (e) la connaissance de l’économie rend la méthodologie superflue[24].

Cet argumentaire ressemble, à s’y méprendre, à la revendication d’un blanc-seing: nous qui savons, laissez nous dire (et écrire) ce que nous voulons puisque nous sommes les seuls à savoir. On ne s’étonnera pas, dans ces conditions, que l’économie et les économistes aient si mauvaise réputation. Caldwell montre facilement que ces cinq arguments se réfutent sans problème. L’objet de la méthodologie n’est tout d’abord pas d’enseigner une discipline, quelle qu’elle soit, mais de permettre au scientifique de jeter un certain regard sur sa pratique. En ce qui concerne l’arrogance, il est d’ailleurs clair que les économistes standards ne craignent personne, eux qui sont souvent suffisants mais rarement nécessaires. Par ailleurs, il est faux de dire que les débats méthodologiques sont stériles; on peut montrer qu’il y a des progrès, au moins sous la forme de détermination de problèmes spécifiques et d’évaluation de démarches différentes. On doit ici ajouter que ceux qui critiquent la méthodologie sont souvent les premiers à en faire, ne serait-ce que pour formuler des critères de “scientificité” dont ils se servent pour retirer toute légitimité à leurs contradicteurs. Enfin, on ne peut pas ne pas être stupéfait devant l’affirmation qu’il pourrait y avoir une connaissance sans critères de la validité de cette dernière. La connaissance de l’économie implique, par définition, que l’on ait une méthodologie, au moins implicite. En fait, il est infantile de croire que l’on puisse se passer de normes et de critères d’évaluation. Mais, si de telles normes et de tels critères sont nécessaires, alors en discuter devient légitime.

Une autre attaque contre la méthodologie est alors possible. Certes des normes sont nécessaires, mais elles sont toutes également justifiées. Telle est l’essence de l’argumentation de Donald McCloskey dans son livre sur la rhétorique de l’économie[25]. McCloskey accepte l’idée générale que la méthodologie a pour objet, entre autres, l’évaluation de la solidité des argumentations en fonction de critères donnés. Mais il défend deux thèses particulières, l’une selon laquelle l’adoption d’une méthodologie, quelle qu’elle soit, ne provoque aucun avantage en termes cognitifs, et l’autre qu’il ne saurait y avoir de bon raisonnement hors celui de la majorité. La Vérité étant pour lui une notion vide de sens, seul subsiste l’objectif rhétorique de convaincre le plus grand nombre. Toute argumentation qui a acquis cette capacité devient alors la vérité du moment. Cette thèse a même été poussée dans ses ultimes retranchements par Feyerabend qui prétend qu’il n’existe aucun argument pour choisir une norme ou un critère plutôt qu’un autre[26].

Cette vision est indiscutablement extrémiste et contient un aspect instrumentaliste (qu’importe les bases de mon raisonnement si la conclusion est opératoire) démarche qui constitue justement une des bases de la méthodologie néoclassique, et dont on peut comprendre que les auteurs qui la défendent souhaitent éviter d’être confrontés à une discussion sur ce point[27]. Daniel Hausman montre que le rejet du concept d’une Vérité transcendante n’implique nullement celui de la nécessité de procédures de vérification[28]. Ces dernières reposent bien entendu sur des partis-pris, mais elles contraignent alors celui qui les formule à un effort de cohérence. Il y a, en réalité, au mieux un grand simplisme, au pire une vision dévoyée de l’activité scientifique dans les démarches qui se parent de l’image du postmodernisme et de la critique radicale. Dire que tout n’est pas testable, qu’il y a du contexte et de la représentation sociale dans toute norme d’évaluation, affirmations qui sont exactes bien entendu, n’implique nullement de dire que rien n’est testable et que tout se ramène au contexte et aux représentations sociales.

A ce stade, le comportement des auteurs se réclamant de l’hyper-critique n’est pas sans rappeler celui de l’enfant qui, déçu parce que son jouet ne fonctionne pas comme il croyait prétend qu’il ne fonctionne pas du tout.

Appliquée à l’économie, et particulièrement à la méthodologie de l’économie, la démarche dite post-moderne refuse de voir dans l’éclatement des normes et critères, dans les incohérences grandissantes au sein de certains argumentaires, un symptôme de la crise de cette discipline. Elle y voit au contraire un état normal des choses. Dès lors, seule compte l’opinion de la majorité, même si celle-ci est incohérente[29]. On peut ainsi proclamer le retour au consensus au sein des économistes, mais c’est au prix de la mutation de ce qui devrait être une démarche analytique en conformisme idéologique. Sheila Dow a ici entièrement raison d’y voir une intolérance de la tolérance[30]. Au-delà cependant, quand on mesure que l’économie n’est pas un espace de pure spéculation, mais un espace de pouvoir, qu’il s’agisse d’un pouvoir au sein des institutions universitaires et assimilées, ou d’un pouvoir dans la cité politique, on devine l’aspect profondément pervers de ces discours réfutant par avance la possibilité d’une critique minoritaire d’une orthodoxie dominante. Si, comme le prétend McCloskey, il n’est pas de méthodologie mais seulement une rhétorique, les minoritaires ont tort par essence; s’ils avaient raison, ils seraient majoritaires…Si, comme le prétendent les post-modernes, tout se vaut et tout s’équivaut, alors pointer des incohérences dans les raisonnements, chercher vérités et erreurs, sont des activités vides de sens. Les postures soi-disant hyper-critiques ne sont ainsi que des apologétiques, à peine honteuses, de l’ordre dominant.

Pierre Bourdieu, sur le terrain pourtant encore plus complexe des goûts et des préférences, a bien montré comment positivisme naïf et relativisme ne sont que les deux faces d’une même erreur.

Ce que la science doit établir, c’est cette objectivité de l’objet qui s’établit dans le rapport entre un objet défini dans les possibilités et les impossibilités qu’il offre et qui ne se livrent que dans l’univers des usages sociaux (…) et les dispositions d’un agent ou d’une classe d’agents, c’est à dire les schèmes de perception, d’appréciation et d’action qui en constitueront l’utilité objective dans un usage pratique[31].

Dans un même mouvement cette citation laisse à voir que l’objectivité n’existe pas en elle-même mais doit s’établir, mais que cet établissement, s’il est en articulation avec des perceptions et des pratiques, ne s’y réduit nullement. Le texte de Bourdieu est par ailleurs fortement critique par rapport aux économistes, à qui il est reproché de tenir pour objectif ce qui n’est que qu’inconscient de classe, ou de fétichiser des formes spécifiques en leur attribuant une essence intangible, comme dans le domaine de la théorie des préférences[32]. Ces critiques sont à la fois justifiées et injustes. Justifiées dans le sens où elles visent des textes et morceaux d’argumentation bien connus et indéniables. Injustes par leur généralisation, en attribuant à l’économie ce qui n’est que l’erreur d’un de ses courants. Si on veut chercher une justification d’ordre supérieur à cette méfiance du sociologue face à l’économiste, on peut la chercher justement dans cette pratique du second, sous sa forme de l’économiste standard ou appartenant à ce que les anglo-saxons appellent le mainstream, qui consiste à éviter le débat méthodologique sur les logiques comme les fondements des argumentations.

 

Critiques de la raison critique

La thèse de P. Bourdieu peut cependant donner naissance à une forme de réfutation de la méthodologie, où on suppose que le processus conduisant des scientifiques à adopter des paradigmes centraux est le produit (a) de la volonté de maximiser un capital symbolique socialement défini par l’institution au sein de laquelle ils opèrent et (b) des facteurs sociaux qui déterminent le contenu d’une théorie reconnue et de ses paradigmes centraux. Cette thèse a été popularisée par Bruno Latour dans sa sociologie de la vie de laboratoire[33]. Le problème de cette thèse, qui est souvent reprise par les courants hyper-critiques associés au postmodernisme, est qu’elle suppose un lien prévisible entre l’adoption d’une conjecture et des avantages, symboliques et matériels. Autrement dit, le scientifique (A), si il choisit le paradigme (X) et non (Y) entend ainsi maximiser sa réputation. Mais comment peut-il en être sur?

Une réponse paranoïaque est possible. La position dominante du paradigme (X) résulte d’un complot dominant (la “science officielle”). Ce paradigme, et les conjectures qui y sont liées, sont irréfutables au sens Poppérien car il y a suppression des résultats non-conformes, voire des chercheurs non-conformistes. D’un point de vue descriptif, une telle thèse est très rarement vraie, mais peut l’être dans certains cas. Même les paranoïaques ont des ennemis. Du point de vue méthodologique, elle est absurde, car elle suppose de considérer comme norme ce qui est clairement une situation pathologique.

On peut cependant tenter de répondre sur un autre plan en supposant que le système étudié vérifie une hypothèse ergodique. Si celle-ci est limitée, un chercheur peut raisonnablement supposer qu’il faudra une lente accumulation de données pour ébranler le paradigme (X). Il court donc un faible risque en le choisissant. Le problème cependant, comme le fait remarquer Uskali Mäki, c’est que dans ces conditions on explique uniquement la reproduction d’un courant dominant, et non son origine, et que de plus on ne peut comprendre pourquoi survivent des positions minoritaires[34]. Si tous les chercheurs sont des maximisateurs rationnels au sens de Latour, et si on est face à une ergodicité, il est irrationnel de choisir (Y) contre (X). En fait, l’hypothèse faite en amont d’une crédibilité, ou d’une réputation, “objective” et dont l’évaluation est indépendante du contexte est plus que douteuse[35].

Des sociologues des sciences comme Callon et Law, qui sont pourtant loin d’être des positivistes, ont ainsi été conduits à contester la vision purement externaliste, la dissolution du noyau dur de toute découverte scientifique dans son contexte social, qui caractérise Bruno Latour. Pour eux, il y a dans l’activité scientifique du déterminisme et du compromis:

Si des compromis sont toujours envisageables et toujours effectués, c’est en définitive parce que les déterminations qui s’exercent sur les connaissances et les artefacts sont multiples, différenciées, et en partie contradictoires[36].

Ces différentes discussions montrent l’importance de la méthodologie. Le chercheur qui y consacre un peu de son temps ne se détourne pas de sa tâche, bien au contraire. Si les économistes du courant dominant tendent à minimiser l’importance du débat méthodologique, voire à lui nier toute pertinence, ils ont quelques bonnes raisons pour cela. L’accumulation des cadavres dans le placard de ce que l’on appelle le “mainstream”, ou l’économie dominante, mérite d’ailleurs un détour auquel on consacrera quelques lignes. Si les économistes adoptent une telle attitude négative quant à la méthodologie sous prétexte de gagner du temps, ils se trompent. Ce faisant, ils prennent le risque d’une dérive permanente vers l’incohérence, comme en témoignent certains argumentaires. Ils accréditent l’idée qu’ils sont plus des justificateurs opérant à postériori que des analystes.

Conjectures complexes et testabilité

Soutenir que la méthodologie est importante, qu’elle représente un pan de l’activité scientifique auquel on ne peut renoncer sans renoncer à la démarche scientifique elle-même, nous entraîne sur un autre terrain, celui de la vérification de conjecture et de leur testabilité. Le problème est ici particulièrement délicat en économie, et l’un des raisons en est la nature de conjectures utilisées. Un énoncé classique nous en donne un exemple. Pour un grand nombre de collègues il est évident que “L’inflation est partout et toujours un phénomène monétaire “. Ce qui était conjecture autrefois est devenu un dogme car, nous dit-on, largement prouvée par maintes études économétriques. La peur de passer pour un attardé s’efforçant de réinventer la roue est souvent suffisante pour clore sur ce point la discussion. Pourtant, les choses sont bien moins évidentes qu’on ne l’affirme. Outre quelques doutes que l’on peut avoir sur les travaux économétriques eux mêmes, le passage d’une observation à une affirmation devrait faire sourciller tout esprit un peu critique.

Cet énoncé vaut en effet mieux que sa mythification ou son rejet pur et simple; il fonctionne comme les poupées russes emboîtées, et le processus de démontage de l’ensemble est hautement instructif quant aux fondements de l’économie. Soutenir l’existence d’un lien étroit et mécanique entre les variations de la masse monétaire et celles des prix revient à affirmer deux choses différentes, car en vérité on se repose sur une autre conjecture qui peut ainsi s’énoncer: les agents ont des comportements tels qu’un accroissement de moyens de paiement, toutes choses égales par ailleurs, nous conduit à la dévalorisation de ces moyens en comparaison du stock de biens et de services disponibles. Ce qu’il faut alors élucider c’est l’origine de ces comportements. Soit, donc, on affirme qu’ils sont donnés aux agents économiques. Dans ce cas l’énoncé initial n’est rien d’autre qu’une conséquence d’une hypothèse sur des caractéristiques immanentes à la nature humaine. Il existe un personnage, l’homo economicus , programmé de telle manière que, effectivement, un accroissement de l’offre de moyen de paiement entraînera une hausse des prix. Soit on affirme que ces comportements sont déterminés par le cadre institutionnel dans lequel les agents se meuvent. Alors, l’énoncé initial n’a de validité que dans le cas où ces institutions sont réellement réunies. Cette distinction est extrêmement importante pour l’interprétation des résultats des tests économétriques.

Dans le premier cas, l’établissement d’une et une seule relation entre monnaie et inflation suffit pour valider l’énoncé initial. Dans le deuxième au contraire, il faudrait établir cette relation pour la totalité des configurations institutionnelles existantes, passées et à venir, pour qu’il y ait validation. A défaut de tester chaque de ces deux hypothèses sur les comportements, l’établissement d’une relation entre monnaie et prix renvoie à une indétermination théorique. En tous les cas, cette relation ne peut certainement pas permettre de trancher entre les hypothèses de comportement.

 

Cet exemple permet de montrer un point fondamental pour la compréhension du discours économique. Il repose presque toujours sur des conjectures complexes ou emboîtées qui ne sont donc jamais directement testables. Pour pouvoir avancer, il faut désemboîter les conjectures, les déconstruire. Alors est-il possible d’en tester certaines, et on verra par la suite que c’est le cas avec les hypothèses de comportement des agents. Mais cette possibilité est elle-même limitée. La testabilité des conjectures, dans un domaine ayant trait aux activités humaines, est toujours mise en cause par la multiplicité des paramètres et la nature de ces derniers.

Quand un enseignant en économie prononce devant ses élèves ou étudiants l’expression consacrée “toutes choses étant égales par ailleurs”, il ne fait que nier, à des fins pédagogiques ou démonstratives, cette multiplicité. Il suppose en effet que l’on puisse, dans les activités humaines, modifier un paramètre sans que l’ensemble des relations en soit affecté. Autrement dit que les opérateurs humains cessent de s’interroger sur leur propre futur et de se demander ce que pourrait impliquer pour eux un tel changement. Écrivant cela, on ne récuse pas d’emblée la modélisation, qui repose bien entendu sur cette clause “toutes choses étant égales par ailleurs”. Comme outil pédagogique, elle a bien des attraits. Mais, s’il faut utiliser une comparaison, un modèle n’est jamais qu’un simulateur. Et tout pilote qui s’entraîne sur un simulateur sait que le vol réel peut lui réserver bien des surprises, aussi perfectionnée que soit la machine dans laquelle il s’entraîne. La distinction entre un formalisme mathématique assis sur une axiomatique rigoureuse, et une approche permettant de rendre opérationnels des résultats, a fait l’objet d’un certain nombre de travaux en économie[37]. Ce qui est en cause ici, c’est le passage de la pédagogie à la démonstration. Il n’est d’ailleurs pas innocent que l’on puisse glisser aussi facilement du registre de l’enseignement à celui de la discussion et de la conviction. Dans une démonstration, on prétend emporter l’adhésion de ses égaux, alors que dans un enseignement on transmet dans un cadre hiérarchique des propositions que l’on est en droit de simplifier à loisir. User des méthodes de la pédagogie là où il y a discussion, c’est implicitement nier l’égalité initiale des statuts, et donc subvertir le principe même de la discussion.

Il faut ensuite prendre en compte la nature des paramètres utilisés. Les statistiques économiques sont parfois des animaux bien étranges et bien malicieux pour celui qui n’y prend garde. un simple exemple permettra de saisir l’ampleur du problème. Imaginons un pays dont les habitants, à la période initiale, produisent deux biens. le premier sert à leur consommation alimentaire, et il est produit dans le cadre d’exploitations familiales et non commercialisé. Le second est entièrement vendu à l’étranger et sert à payer les autres dépenses. Supposons que, dans une seconde période, les habitants de ce pays, considérant les prix relatifs de ces deux bien sur le marché mondial, décident de ne plus produire que le second, et d’acheter aussi à l’étranger leur consommation alimentaire. Si on calcule le PIB de ce pays, on mesurera une forte croissance de la première à la deuxième période, sans que cela implique que la richesse réelle du pays ait augmenté dans les faits. Le paradoxe vient de ce que le PIB (ou le PNB) ne mesure que la production commercialisée. Imaginons maintenant que, au lieu de deux périodes, nous ayons deux pays différents. Le premier, celui où une large partie de la production est autoconsommée, apparaîtra dans les statistiques internationales, comme bien plus pauvre que le second. Et l’économiste, qui voudrait mesurer ce que l’ouverture sur le marché mondial apporte en richesse aux économies nationales pourra conclure, s’il n’y fait garde, que cet exemple prouve indiscutablement les bienfaits de l’ouverture.

 

Il faut donc se souvenir en permanence, quand on parle de tests économétriques, de “preuves” statistiques, que les statistiques ne sont pas la réalité, mais une traduction normalisée de la réalité. Elles ne sont pas, non plus, une pure manifestation de l’imagination du statisticien, personnage en réalité plus honnête qu’on ne le croit, et que les économistes ne veulent l’admettre.

 

Critères de scientificité

Arrivé en ce point, il serait facile d’en déduire le non-lieu scientifique de l’économie. Mais une telle proposition, dont on peut comprendre les origines quand on observe à quel point le discours économique est instrumentalisé pour dire une chose et son contraire, repose en réalité sur une illusion: serait scientifique ce qui produirait de la Vérité. Or, et au contraire de la tradition issue de Karl Popper, il est difficilement admissible de croire en une progression régulière sur la base de l’interaction entre des conjectures réfutables et des expériences pertinentes[38]. De ce point de vue, la tradition méthodologique de l’économie standard ou dominante est lourdement fautive.

Cette économie s’est donc ralliée dès 1938 aux thèses de Karl Popper[39], et a voulu chercher dans le principe de réfutation, le falsificationisme, une garantie de scientificité. La démarche de Popper est en effet attrayante au premier abord pour une économie découvrant les délices de l’économétrie et supposant qu’elle pourrait bientôt tester la totalité de ses conjectures. Ceci permettait aussi d’esquiver le débat sur le réalisme des hypothèses initiales, débat porté par les courants contestataires qu’ils soient institutionnalistes ou marxistes. Enfin, cette démarche était cohérente avec le parti-pris de rigueur axiomatique introduit par Walras à la fin du XIXème siècle [40]. La référence à Popper va rester un point obligé pour les quelques économistes de ce courant intervenant dans le domaine de la méthodologie[41]. Le modèle visé étant ici la science physique[42], avec en particulier la proposition de Paul Samuelson de prendre comme base de départ l’hypothèse ergodique[43], et l’objectif affiché celui d’obtenir pour l’économie le statut d’une science “dure”[44]. Dans le même temps, elle fonde l’instrumentalisme de Milton Friedman, qui récuse d’emblée tout débat sur le réalisme des hypothèses[45]. On passe alors, pour reprendre la formule de Bruce Caldwell à un empirisme logique qui succède au positivisme logique[46]. Cet instrumentalisme va se retrouver en dehors même du courant néoclassique; Oliver Williamson, l’un des “pères” du néo-institutionnalisme va ainsi encore prétendre en 1985 que le caractère potentiellement falsifiable d’une conjecture est plus important que son réalisme[47].

Le falsificationisme poppérien soulève cependant plus de problèmes qu’il ne peut en résoudre. Il se heurte tout d’abord à la conjecture de Duhem et Quine[48]. Pour que la testabilité soit robuste au sens de Popper, il faudrait que l’on puisse tester les conjectures seules et que les méthodes d’évaluation des résultats ne soient pas chargées en théorie. Ceci est très exactement le problème que l’on a évoqué à propos des sources de l’inflation. Ce problème, déjà important en physique, devient rédhibitoire en économie où les agrégats utilisés pour quantifier ne font que normaliser une réalité à partir de conjectures théoriques implicites[49]. Un second problème tient à la nature des prévisions par rapport au mode de testabilité. Dans la grande majorité des cas les prévisions sont qualitatives (la création monétaire est source d’inflation), alors que la vérification est quantitative[50]. Un troisième tient à la manière même dont Popper utilise la réfutation et la falsification. Pour lui la falsification doit engendrer un rapprochement des théories avec la réalité, et le progrès théorique doit se mesurer à la capacité à expliquer des faits nouveaux. Or, non seulement Popper lui-même admet que le premier critère est invalidable[51], mais de plus l’économie vérifie toujours ses conjectures sur des événements passés[52]. Dans ces conditions, on ne doit pas s’étonner d’une très large remise en cause de l’applicabilité de la méthodologie poppérienne[53].

Les limites de cette méthodologie ont entraîné un certain nombre d’économistes qui refusent d’abandonner l’empirisme logique à se pencher vers l’oeuvre de Imre Lakatos[54]. Ce dernier propose de mettre l’accent sur des programmes de recherche qui seraient définis par un noyau dur d’hypothèses, réputées infalsifiables, et une ceinture protectrice d’hypothèses, elles falsifiables et réfutables, et pouvant être remplacées. La cohérence, et la scientificité d’un tel programme de recherche découlant de la capacité du noyau dur à engendrer des prévisions et de sa cohérence interne. Lakatos appelle ainsi dégénérescence d’un programme l’introduction, au sein du noyau dur, d’hypothèses ad-hoc. Une telle démarche présente tout à la fois des différences substantielles et des ressemblances avec celle de Popper. La notion de noyau dur, l’idée que le progrès scientifique puisse venir de la corroboration de conjectures et non de leur réfutation marquent les différences. Néanmoins, l’accent mis sur la testabilité, ou la falsification, ainsi que l’idée de prévision, renvoient clairement au cadre poppérien.

Les économistes du courant standard, ou mainstream, ont rapidement vu l’intérêt d’une telle approche. Le noyau dur du programme de recherche qualifié alors de scientifique (ce qui implique que les autres ne le sont pas…) est alors caractérisé par la théorie des préférences de l’agent, l’hypothèse d’individualisme méthodologique et la maximisation sous contrainte[55]. La définition d’un tel noyau dur est cependant loin d’être facile, compte tenu des tensions internes de ce courant[56].

Néanmoins, avant même que ces économistes aient commencé à se référer explicitement à la démarche de Lakatos, d’autres travaux en avaient montré les limites. Ainsi, la part poppérienne chez Lakatos est tout aussi vulnérable que Popper lui-même au problème de Duhem-Quine, comme le montre l’impossibilité par exemple de trancher entre un programme de recherches monétariste ou keynésien sur la base des critères proposés par Lakatos[57]. Il faut aussi ajouter que, comme signalé à propos de Popper, le fait de l’économie procède par relecture successive de problèmes et d’événements et non par prévision et prédiction, rend inapplicable la méthodologie proposée par Lakatos[58]. Par ailleurs, si on applique cette méthodologie au courant dominant en économie, il est clair que ce dernier a procédé, depuis la fin des années soixante-dix, à l’introduction d’un certain nombre d’hypothèses ad-hoc dans son noyau dur, comme la prise en compte des institutions. En ce sens, on pourrait soutenir que, du point de vue de la démarche de Lakatos, le programme de recherche du courant standard ou mainstream est effectivement dégénéré.

 

Crise méthodoloique de l’économie « mainstream »

Dans ces conditions, le constat d’une crise méthodologique au sein du courant dominant semble devoir être évident. Sheila Dow montre[59], dans une récente recension, que les différents auteurs du “mainstream” s’opposent désormais entre un camp se réfugiant dans une axiomatique irréaliste, dans la tradition ouverte par Friedman en 1953, et un autre recourant à l’empirisme, mais sans garde-fous si ce n’est que techniques en matière de procédures de vérifications[60]. Dans un tel contexte, on comprend alors l’intérêt que suscitent au sein de ce courant les théories déniant toute importance à la méthodologie, qu’il s’agisse des thèses sur la pure dimension rhétorique de l’économie, défendue par McCloskey, ou des positions de type post-moderne se réfugiant dans l’hyper-critique[61].

Or, comme on l’a indiqué, ces deux approches ont pour effet immédiat de transformer l’économie en pure apologétique. Les thèses de McCloskey sur la dimension rhétorique soulèvent un problème réel. Il serait naïf de nier une dimension rhétorique au discours économique. Il n’en reste pas moins qu’en en faisant la seule dimension possible, il aboutit à cette merveilleuse thèse panglossienne que, les bonnes conjectures étant les plus convaincantes, la majorité a toujours raison car elle a été convaincue. Peut-être est-il bon, alors, de rappeler cette citation de W. Jevons, que tout chercheur en sciences sociales se devrait de connaître par coeur:

Un calme despotique est le triomphe de l’erreur; dans la République des Sciences, la sédition et même l’anarchie sont dans le long terme favorables au plus grand bonheur du plus grand nombre[62].

Il n’en reste pas moins cependant que, si la constante remise en cause des idées dominantes est nécessaire, il doit y avoir débat et non vacarme. Une situation où tout pourrait être soutenu sans conséquences, car sans procédures de vérification, ne serait pas moins despotique qu’un calme imposé par une main de fer despotique. Un débat sans procédures est un débat sans enjeu; ce n’est plus un débat. Voici donc à quel désastre pourrait aboutir la diffusion des thèses post-modernes, une dictature non moins dangereuse que celle du despote visible, au règne duquel le tyrannicide peut au moins mettre fin.

 

Refuser des procédures de vérifications au prétexte qu’elles sont imparfaites est un comportement infantile. Il faut se pencher sur les méthodes permettant de limiter les imperfections, et d’améliorer les procédures, même si l’on sait que la perfection est un objectif hors d’atteinte. Depuis des millénaires, les médecins finissent par perdre leur bataille contre la maladie; leurs malades finissent bien par mourir. Ils n’en n’ont pas pour autant décidé que la médecine était une activité sans objet puisque son triomphe ultime, l’immortalité, était hors de portée. C’est le fond de la condition humaine que de mener des batailles qui sont le plus souvent perdues, ou qui au mieux n’engendrent que des succès temporaires et limités. Ce n’est pas pour autant qu’il faut cesser de se battre.

1 réponse
  1. Grimej
    Grimej dit :

    Bonjour,

    Juste une remarque, à la fin du premier paragraphe il me semble qu’il manque la fin de la phrase :
    « Pour autant, ne soyons pas » …

    Bon courage. Et encore merci pour votre travail et vos publications.

Laisser un commentaire

Participez-vous à la discussion?
N'hésitez pas à contribuer!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *