Lecture de

« Le modèle de marche au hasard en finance », Christian Walter, Economica, 2013

 

Le tsunami menace régulièrement la côte. Vous construisez la digue qui doit résister au moins à la vague la plus haute qu’on ait jamais connu. C’est-à-dire, vous indiquent vos modèles, capable de résister à la vague la plus haute connue depuis 1.000 ans. Il ne s’agit pas d’une observation

empirique, puisque personne n’a pu observer les choses depuis 1.000 ans ; il s’agit d’une déduction de modèle, faite en ajustant les vagues mesurées depuis une période plus courte, disons 50 ans, et extrapolée sur des chocs plus importants et sur une plus longue période.

Mais voilà, votre modèle de calcul se trompait. La vague millénaire advient en fait en moyenne tous les 30 ans. Vous aviez une fausse impression de protection. Elle vous conduisait d’ailleur
s à économiser sur la hauteur de la digue, dans un souci de profit maximum. Manque de chance, tous les 30 ans et non tous les 1.000 ans, cela veut dire que la vague a frappé hier, a détruit la digue trop courte et a tout balayé.

C’est un peu ce qui est arrivé à l’occasion de la crise financière ouverte en 2007, une crise qui a été essentiellement une crise bancaire, de banques trop endettées, mais aussi de banques qui vivaient sous une illusion de protection et qui ont été incitées à prendre des risques bien au-delà de la capacité de résistance de leurs bilans. (Pour être justes, la première des protections, au-delà de leurs calculs d’actuaires sur les fonds propres, c’était de bénéficier de la protection des États.)

Le modèle en cause était gaussien, c’est-à-dire qu’il sous-estimait fortement la probabilité d’occurrence de chocs extrêmes. Dit techniquement, la distribution de la probabilité montrait une courbure trop effilée, avec des extrémités (mesurant la probabilité d’un choc extrême) trop étroites. Une distribution leptokurtique, nous dit l’ouvrage de Christian Walter.

Ce livre est remarquable. Il s’adresse sans aucun doute à un public étroit, de professionnels de la finance et de ses méthodes quantitatives. Mais pour eux, ce livre est désormais un livre de référence. Sans nier le coût d’entrée, il est indispensable à tous ceux qui cherchent à prendre du recul sur leur discipline, la finance quantitative.

Il suit trois chemins qui s’entrelacent. Le premier chemin est technique : il s’agit de décrire avec précision et rigueur ce que sont les modèles d’évaluation du risque en finance, modèles dont le rôle est à la fois d’évaluer les actifs financiers et les contraintes de solvabilité pour éviter la faillite des institutions en charge de négocier ce risque. Le travail ici est impressionnant : les distinctions sont clairement faites entre les différentes hypothèses à la base de ces différents modèles : indépendance, stabilité, normalité, etc. Le second chemin est historique : il s’agit de retracer la genèse de ces modèles, les buts poursuivis, les étapes marquantes de la progression scientifique. Il est saisissant de voir, avec l’avantage d’un langage commun et moderne, se construire l’édifice intellectuel (remontant au milieu du XIXème siècle) conduisant aux formalismes actuels. J’ai apprécié particulièrement les développements historiques sur la notion d’erreur en finance ; ainsi que l’exposé, déjà bien connue dans la littérature mais ici considérablement enrichi, du CAPM ; de même que la discussion sur la notion de marché efficient ou plutôt, nous dit Walter très à propos, de marché efficace. Les développements sur le rôle et les limites de l’analyse technique, celle qui cherche des profils stables par observations des séries boursières passées, sont également passionnants.

Le troisième chemin est d’ordre épistémologique, à savoir comment cette science se construit, et à quels errements elle peut conduire si elle est mal interprétée. Les développements sur la façon dont le modèle gaussien s’est imposé comme convention parmi les chercheurs et quantitativistes de la finance est significatif.

Faisant ce choix d’une approche à la fois historique et méthodologique, le livre ne peut pas adopter une autre dimension, celle de suivre un fil pédagogique. Ce n’est pas et ne veut pas être un manuel. Du coup, l’entrée dans le 1er chapitre est aussi difficile que la lecture des chapitres suivants. Il y a progression historique, mais avec une mobilisation des concepts techniques les plus récents, ce qui à nouveau est à la fois un avantage et un inconvénient. Étant de culture statistique un peu ancienne, je dois avouer que je n’ai pas pu apprécier pleinement tous les développements et que j’ai même « câlé » au chapitre 8, le dernier, pourtant le plus tourné vers l’avenir puisque montrant les pistes possibles pour enrichir le modèle de marche au hasard et en venir à une appréciation plus correcte du risque. Les processus de Lévy semblent faire partie de ce futur.

S’il faut une critique, le livre souffre peut-être aussi d’être à l’occasion un assemblage de travaux déjà écrits et publiés. Le lecteur en retire l’impression de raboutages, ce qui oblige à certaines répétitions. A signaler la qualité éditoriale du travail fait par Economica, l’éditeur.

Il faut être d’une culture très large, touchant quantité de domaines des sciences humaines (sans compter la maîtrise des techniques statistiques) pour écrire un tel ouvrage. Christian Walter avait déjà fait sur la question de la convention gaussienne (ou virus brownien) un excellent ouvrage de vulgarisation, co-écrit avec le journaliste Michel de Pracontal, et qui avait été récompensé par le Prix Turgot. On en a à présent la réplique en majeur, avec cette somme couvrant à la fois l’histoire et la technique. Il n’est pas étonnant que ce livre soit à nouveau nominé par le Prix Turgot 2014. Verdict rendu d’ici avril.

 

Auteur : Christian Walter
Éditions : Economica
broché, 436 pages (24 x 15,4 x 2,6 cm)
Prix : 39,00 €
ISBN/EAN : 978-2717860702 /2717860703