Le livre de Philippe Herlin (Finance : le nouveau paradigme. Comprendre la finance et l’économie avec Mandelbrot, Taleb…, Eyrolles, 2010) fait suite à une série d’ouvrages ne voulant rien moins que remettre en cause le « paradigme » de la finance classique. Font partie de ce courant hétérodoxe les livres de Taleb (Le cygne noir : la puissance de l’imprévisible, Les Belles Lettres, 2007, 2010) ; de Walter et de Pracontal (Le virus B : crise financière et mathématique, Seuil, 2009), ou bien sûr de George Soros (La vérité sur la crise financière, Dunod, 2010). Le livre de Herlin, sélectionné pour le Prix Turgot, est probablement un des meilleurs du genre, notamment par sa clarté pédagogique.

 

Le Blog lui a déjà consacré une revue critique : voir le billet du 1er juin 2010 de Jean-Florent Rérolle : « Un nouveau paradigme financier pour mieux comprendre le fonctionnement des marchés », de même qu’il a publié avec l’autorisation de l’auteur le très drôle prologue du livre, comparant les marchés financiers au jeu du Monopoly et un commentaire sur ce prologue. Pour autant, doit-on suivre Herlin dans sa remise en cause « fondamentale » ?

 

Son livre dit trois choses, la première immanquablement juste, la seconde qui mérite discussion, la troisième plus problématique :

  1. Les rendements des actifs financiers sont loin de suivre les comportements qu’on leur prête dans la plupart des modélisations financières, à savoir le gentil comportement de la courbe en cloche, dite loi de Gauss ou loi normale. Les événements aberrants au regard de cette loi sont légion. La distribution statistique des rendements connaît des « queues épaisses », c’est-à-dire une probabilité d’événements extrêmes bien plus importante que le disent les modèles qui reposent sur la loi normale.
  2. Comme les modèles et grands résultats classiques de la finance (CAPM, Black et Scholes, Modigliani-Miller en particulier) reposent sur cette loi normale, « c’est [donc] tout l’édifice du modèle classique de la finance qui s’écroule » (P. 61). En particulier, les modèles d’évaluation de l’entreprise, la notion de coût du capital, etc. sous-estiment gravement le risque d’entreprise. La régulation financière (Bâle 2, etc.) qui repose sur ces résultats sous-estime tout autant le risque du secteur financier. La règle d’étalonnage sur le marché, reprise par la comptabilité d’entreprise, est source de forte instabilité. Autant de facteurs qui ont conduit à la crise financière.
  3. Prendre en compte l’instabilité financière et la fréquence des événements rares suppose de faire table rase de la finance classique et partir dans les voies ouvertes par Mandelbrot ou Taleb, à savoir la finance fractale.

 
1- Sur l’instabilité des relations financières

 

C’est un point documenté depuis longtemps par les économistes, y compris les plus fiers tenants de la finance classique. Oui, les événements rares sont plus fréquents que l’indique la très commode loi normale. De plus, les relations économiques et financières sont de façon inhérente très instables, défiant toute modélisation structurelle qui ne prendrait pas en compte la façon dont se forment les anticipations (autant dire un chantier immense).

 

Robert Lucas faisait dès 1976 sa célèbre critique1 indiquant que les modèles économétriques qui établissaient des relations structurelles entre variables (par exemple entre la consommation et le revenu des ménages) dépendaient fortement de l’environnement de politique économique. Toute modélisation qui l’oublierait serait immanquablement instable. Pour prendre un exemple imagé, les responsables de Fort Knox observeraient à raison que jamais le fort n’a été attaqué par les voleurs. Mais il serait erroné de leur part d’en inférer qu’ils n’ont pas besoin d’un système de sécurité aussi perfectionné et coûteux. Parce que le comportement des candidats au braquage repose sur leur anticipation d’un fort imprenable, une anticipation qui pourrait bien changer si le budget de sécurité diminuait.

 

Ce qui vaut pour les variables économiques « inertes » comme la consommation ou le revenu des ménages vaut davantage encore pour les variables financières. Goodhart (1975) a produit ainsi sa fameuse loi qui dit que lorsque les autorités monétaires fixent une règle de politique monétaire (disant par exemple que la croissance de la masse monétaire au sens M2 ne doit pas dépasser 5 %), l’indicateur lui-même se dérègle complètement. En effet, les agents économiques, voyant le serrage du crédit à l’approche des 5 %, financent leurs besoins de liquidité par d’autres canaux monétaires. Daniellson (2009) montre l’inanité d’une mesure objective du risque, dès lors que le risque est endogène et sujet à des phénomènes d’interférence, de « réflexivité » comme le dit habilement Soros, phénomènes que les physiciens ont découverts il y a environ un siècle dans leur compréhension de l’infiniment petit.

 

La corrélation entre variables financières est elle-même hautement instable. Par exemple, les cours des actions de deux sociétés sont corrélés positivement quand le secteur est en forte croissance ; mais deviennent corrélés négativement quand le secteur est à maturité et que la croissance de l’une s’opère via des parts de marché perdues par l’autre. C’est aussi ce qui fait qu’il n’y a aucune loi ou « martingale » qui soit durablement stable sur les marchés financiers. Si on établit par exemple que les cours boursiers ont tendance à chuter tous les 11 septembre, les gens auront tendance à vendre dès le 10 septembre, puis dès le 9 si à nouveau la vente le 10 se généralise, etc. La martingale s’use (quasi-instantanément) dès qu’on s’en sert (à large échelle). C’est d’ailleurs, devraient noter ironiquement les tenants de l’irrationalité des marchés financiers, sur cet argument précis que repose la thèse de l’efficience des marchés.

 
2- La finance classique ne repose pas sur la loi normale

 

La loi normale est utilisée parce qu’elle est très heuristique et facile d’emploi. Mais beaucoup de résultats de la finance sont moins exigeants. Ils reposent sur des lois de probabilité à variance finie, dont certaines tolèrent des « queues » plus épaisses que la loi normale. Il faut voir qu’il est difficile de concevoir des phénomènes où la variance est infinie. Les exemples donnés dans le livre de Herlin ne sont pas les bons. La distribution des revenus ne suit à l’évidence pas une jolie loi normale (ou lognormale pour être plus précis), alors que la distribution de la taille en centimètres des individus en suit une. C’est vrai, mais pour autant l’homme le plus riche de la terre a un revenu qui n’est pas infini : on peut donc calculer une variance, même si celle-ci est un indicateur très imparfait et donc très insuffisant de dispersion.

 

Le CAPM est sans doute un modèle structurel imparfait et donc instable en lui-même, mais indépendamment du fait que dans certaines de ses présentations on suppose la normalité des rendements financiers. C’est un fait détecté depuis longtemps par Fama et French, pourtant les deux gourous de la thèse des marchés efficients. Le modèle dit en effet qu’il faut distinguer pour tout actif financier un risque spécifique (ou idiosyncratique), appartenant en propre à l’entreprise ou à l’actif financier, et un risque exogène ou systématique, qui traverse tout actif financier parce que relié aux fondamentaux de l’économie. Le premier est diversifiable sur des marchés financiers liquides ; la loi des grands nombres s’applique (i.e. des lois à variance finie) et ce risque est avalé par la mutualisation. Il n’a pas, par conséquent, à être rémunéré. Le risque systématique, lui, est par essence non diversifiable ; c’est donc le seul, dit la théorie, qui doit faire l’objet d’une prime de risque. Mais on retombe là sur notre histoire de Fort Knox. Si les actionnaires commencent à se moquer de la qualité de gestion spécifique de l’entreprise dont ils achètent l’action au prétexte que de toute façon ce risque est diversifiable, c’est la qualité d’ensemble des entreprises qui se dégrade, et le risque devient non diversifiable et systématique. La frontière entre risque spécifique et risque systématique est hautement mouvante et soumise à l’aléa moral qui affecte les comportements des agents. De mon point de vue, c’est une cause importante de l’impossibilité à ce jour d’étayer empiriquement le modèle, ce qui, il faut l’admettre, oblige à prendre avec des pincettes toute mesure précise du coût du capital.

 

Modigliani-Miller ou Black-Scholes sont avant tout des résultats d’ « arbitrage », autrement dit de « prix unique », ne reposant pas sur une spécification normale de la distribution des rendements (mais bien sûr sur, l’existence de marchés pleinement informés, liquides, aux distributions de probabilité stables).

 

A mon sens, les grands résultats de la finance classique sont davantage invalidés par l’existence de frottements sur les marchés financiers et d’une répartition très imparfaite de l’information qu’en raison d’une mauvaise qualité de l’approximation que fait la loi normale.
Et comme nous allons le voir, ces modèles sont parfaitement capables de rester en cohérence avec des marchés financiers hautement instables.

 

 

3- La finance classique suffit très largement à expliquer l’instabilité financière

 

En effet, la bonne finance classique, faite de stabilité, peut expliquer parfaitement certaines instabilités radicales. Si vous imprimez un mouvement oscillatoire régulier à votre canoë sur le lac, vous prendrez l’eau à un moment donné et vous coulerez. Une « catastrophe » se sera produite sans pour autant qu’un choc exogène fort ait été donné à la barque. Danielsson et Shin (2002) l’ont montré aussi avec leur exemple célèbre du Millennium Bridge.

 

Attardons-nous sur l’exemple suivant : supposons que l’actif d’une entreprise a un rendement financier qui suit une loi normale gentillette et à faible volatilité, mais que cette entreprise est endettée jusqu’à la glotte. Il adviendra très probablement un jour ou l’autre une « faillite », c’est-à-dire un événement chaotique où la valeur de l’actif passera en dessous de la valeur nominale de la dette, avec les coûts de faillite afférents et une chute à zéro de la valeur de l’action.

 

Quelle est alors la bonne stratégie pour le praticien de la finance ? Faut-il tenter de modéliser le rendement de l’action « en brut » ? On rejettera alors la loi normale parce qu’il est vrai que cette possibilité de faillite va mettre le cours de l’action à zéro, c’est-à-dire fait passer le rendement à -100 %, un nombre complètement aberrant au regard de la loi normale. Ou bien faut-il un modèle plus explicatif qui comprenne que le rendement de l’action dépend aussi du levier de dette ? Il est légitime alors de prêter un comportement stable à l’activité de l’entreprise, d’en approximer par exemple le rendement par une loi normale2, et d’observer que l’instabilité vient d’ailleurs, de l’excès de dette.

 

On peut faire alors le reproche suivant aux nouveaux tenants de la finance « a-normale » : à traiter les anomalies en plaquant a priori des lois de probabilité totalement instables, on se prive d’une démarche explicative. C’est pourtant cette attitude qui est la plus utile du point de vue de la prescription politique et réglementaire. Elle pousse à réguler le système pour éviter les points d’instabilité, plutôt qu’à le rejeter en bloc au prétexte d’une instabilité l’assimilant à un jeu de casino. Et au fond, il me semble qu’on est beaucoup plus sévère dans la critique des marchés financiers non régulés quand on montre que leur instabilité vient de comportements tout à fait normaux et stables que quand on leur prête une instabilité transcendantale et irréductible.

 

La crise financière illustre parfaitement cette situation : le crédit amène le crédit ; les banques prêtent de plus en plus et se financent de plus en plus facilement ; les régulateurs s’illusionnent sur la nature de l’endettement bancaire et envoient des signaux erronés au système. Arrive alors un « moment de Minsky » qui transforme l’éclatement d’une simple bulle sur le marché hypothécaire dans des régions du sud des Etats-Unis (les subprimes), plutôt anecdotique au regard de certains chocs passés (qu’on pense à la crise des Savings and Loans ou à la crise de la dette latino-américaine), en une catastrophe financière planétaire.

 

La réponse des régulateurs ne doit d’ailleurs pas forcément consister à flanquer à la poubelle la loi normale quand ils essayent de modéliser le niveau de capital requis par les banques, ou pire encore de renoncer à tout modèle. Si un choc de 5 écarts-types mesuré (très imparfaitement) avec le thermomètre de la loi normale est jugé ne pas suffire, eh bien, prenons avec un doigt mouillé 10 écarts-types tout en gardant la loi à partir de laquelle on les mesure. Le résultat en est Bâle 3, qui va en gros, loi normale ou pas, quintupler l’exigence en fonds propres des banques par rapport à Bâle 2. On peut discuter du degré de sévérité de cette nouvelle règle et de son impact pour l’économie, mais il n’est pas besoin d’abandonner l’imparfaite boussole de la loi normale pour la mettre en place.

 

C’est donc la critique que je ferais au livre de Herlin, tout en saluant sa qualité pédagogique et la vertu d’un tel poil à gratter : à expliquer trop de choses par la seule infamie de la loi normale, on n’en explique plus guère. D’autant que les pistes indiquées pour bâtir une finance « a-normale » ou en quelque sorte « non-euclidienne » laissent perplexes.

1. Lucas, Robert (1976), « Econometric Policy Evaluation: A Critique », in Brunner, K.; Meltzer, A., The Phillips Curve and Labor Markets, Carnegie-Rochester Conference Series on Public Policy, 1, New York: American Elsevier, pp. 19–46, ISBN 0444110070.

2. L’argument est récursif. Il convient peut-être de modéliser plus en détail le comportement de l’actif de l’entreprise, qui peut être soumis lui aussi à des chocs non normaux.

 

A lire sur le même sujet :
« Un nouveau paradigme financier pour mieux comprendre le fonctionnement des marchés »
Philippe Herlin et le jeu de monopoly
Les marchés financiers sont-ils un jeu de Monopoly ?