FABRIQUE DES IDÉES : Dans le modèle financier capitaliste qui s’est écroulé avec la crise, la gestion du risque est ce qui apporte les gains, et provoque le crash. Michel Armatte revient ici sur les modèles statistiques associés à cette gestion du risque qui ont pu entretenir l’idée d’une “fausse sécurité” et entraîner le système dans le gouffre. 15 février 2009.

Notre point de vue sur la Crise n’est pas celui d’un spécialiste de la finance parfaitement au fait de tous ses produits, de tous ses mécanismes, et de tous ses enjeux théoriques et pratiques. Juste celui d’un citoyen un peu dindon de la farce, et furieux comme bien d’autres du gâchis social qu’a produit non seulement la crise récente, mais le système financier dans son ensemble depuis pas mal d’années. Juste celui d’un statisticien-économiste qui a quelques compétences pour décortiquer certaines technologies probabilistes en actes dans le monde de la finance. Juste celui d’un historien des sciences attaché à comprendre ce que produisent les sciences et comment elles produisent des expertises et des objets qui reformatent notre monde.

Partons d’un constat paradoxal qui apparaît à la relecture de la presse des deux deniers mois : la crise actuelle est vécue de manière tout à fait paradoxale. Cette crise est le juste aboutissement d’un capitalisme qui a porté au plus haut les possibilités du marché, et à ce titre, elle était, aux yeux des experts économistes et financiers, parfaitement prévisible et attendue. Mais elle est cependant vécue par presque tous comme une surprise majeure, une amère ou divine surprise selon les cas, mais en tout cas un impensé complet jusqu’à aujourd’hui de la puissance des forces de destruction d’un marché. Comme devant tous les faits exceptionnels – tempêtes ou tsunami, crise de la vache folle et des farines animales ou grippe aviaire – nous sommes d’abord fascinés par l’ampleur des événements, puis interpellés par le fait que leur invraisemblance et improbabilité d’avant la crise se muent en une réalité tangible.

Voyez la ferveur avec laquelle tous les gens qui n’étaient pas spécialement intéressés par la finance se jettent sur leur journal pour dévorer le récit des dernières turpitudes d’institutions ou de professionnels dont ils ne soupçonnaient pas même l’existence il y a peu. La crise passionne. Parce qu’elle fonctionne comme un véritable analyseur de notre société, une société dans laquelle on n’était pas vraiment bien sans savoir au juste pourquoi. Au bout de 2 mois on commence à le savoir. Le libéralisme sans entrave était un objet de fascination ou d’indignation bien avant la crise, mais sur un mode idéologique. Les critiques du projet de traité européen ont davantage porté sur le vocabulaire, le catéchisme, que sur les mécanismes obscurs du commerce international ou de la finance. Et voilà qu’on a tout à coup l’impression de comprendre cet univers. Peut être parce que la fascination-répulsion pour l’effondrement du système a envahi nos écrans et nos journaux. La gauche parlait d’un ratio des revenus du travail et du capital qui se détériorait lentement mais inexorablement, et voilà que, sous nos yeux, complaisamment exposés en première page des journaux, des centaines de milliards s’envolent soit en perte pure soit de la poche des uns à celle des autres. La surprise est grande pour ceux-là qui se croyaient condamnés à vie au catéchisme du libéralisme. Mais elle est grande aussi pour ceux qui respiraient dans ce mainstream comme des poissons dans l’eau. Voilà qu’ils ont des peurs et des doutes. Ils demandent des interventions de l’Etat, des Autorités, ils réclament de la régulation, de la moralisation. Analyser cette situation paradoxale, c’est rendre compte des comportements de tous les acteurs face au risque, de la façon dont ces risques ont fait système, et dont ce système, non pas par hasard mais par construction, avait de grandes chances de collapser.

Les faits stylisés

Revenons rapidement aux faits stylisés – simplifiés et à peu près consensuels – de la crise dite financière et à leur explication usuelle par les spécialistes. Tout le monde sait aujourd’hui que cette crise est née aux Etats-Unis d’une bulle immobilière autour des subprimes |1|, ces prêts de second choix non conventionnels (taux variables, remboursements différés) proposés à des ménages pauvres et déjà endettés (les ninja = no income, no job, no asset) qui ont représenté jusqu’à 40% des nouveaux crédits hypothécaires en 2006. Tout a bien fonctionné tant que le marché de l’immobilier américain à la hausse (10% par an) permettait de jongler entre risques pris et profits engrangés. Dès la fin 2006, la surproduction de logements entraîne un effondrement des prix et les emprunteurs subprimes, ont été trop nombreux à ne plus pouvoir ni payer leurs traites, ni revendre leur bien qui avait perdu beaucoup de sa valeur. D’où la chute des titres adossés à ces prêts. La bulle éclate : HSBC déclare des pertes de 10,8 milliards en février 2007. La banque d’affaire Bear Stearns plonge et est rachetée par JP Morgan en mars 2007 (à 10$ l’action contre 130$ quelques mois plus tôt). Les banques de dépôt doivent réincorporer les sociétés (véhicules SIV) qu’elles avaient créées hors bilan, et augmenter leurs capitaux propres. Mais elles manquent de liquidités. La perte de confiance se généralise et le marché interbancaire se bloque.

Le 5 juin, Ben Bernanke, président de la Fed déclare encore que les fondamentaux sont bons et qu’« il est peu vraisemblable que les difficultés du marché des subprimes se propagent au reste de l’économie ou au système financier ». Mais les baisses de notes des agences de notation se succèdent, déclenchent des protections et l’arrêt de la titrisation. Les banques centrales interviennent les 9 et 10 août 2007 (95 milliards d’euros et 24 milliards de dollars). La Fed baisse son taux directeur de 5,25% à 4,25% entre août et octobre (et continuera jusqu’à 1,5% en octobre 2008) mais elle ne peut empêcher les pertes colossales des banques d’être dévoilées…en même temps que les parachutes dorés des dirigeants remerciés. (record : 161 millions de dollars pour le patron de Merril Lynch). Bernanke révise l’estimation des pertes de 50 milliards de dollars en juillet 2007 à 400 milliards en janvier 2008, tandis que le FMI avance le chiffre de 1000 milliards en avril 2008. La banque Northern Rock, spécialisée dans le crédit hypothécaire, se retrouve au bord de l’insolvabilité, et est sauvée de justesse en sept 2007 par nationalisation. La faillite des deux institutions piliers de la titrisation – Fannie Mae et Freddie Mac – en juillet 2008, mises en tutelle en septembre par le gouvernement, sonne comme une alarme. Lehman Brothers, qui ne disposait que d’un milliards de fonds propres pour couvrir des positions 30 fois plus grandes en dérivés de crédit, se déclare en faillite à la mi septembre et le Secrétaire du Trésor Américain Henry Paulson décide de ne rien faire – « le marché doit s’occuper du marché » – sans s’occuper des conséquences déstabilisatrices sur tout le système financier. Cette faillite marque le début d’un krach qui va se généraliser au niveau mondial. L’effet domino s’enclenche : l’assureur AIG est nationalisé à 80% dès le 16 septembre ; Goldman Sachs et Morgan Stanley, cherchant la protection de la Fed, sont forcées de quitter le statut trop risqué de banque d’investissement ; Washington Mutual – 188 milliards de dépôts – est rachetée par J.P. Morgan Chase pour 1,9 milliards le 27 septembre. Fin septembre, le Plan Paulson, attaqué sur sa gauche et sur sa droite et victime d’enjeux électoraux, est rejeté par le Sénat, mais finalement adopté par le Congrès 3 jours plus tard (coût 700 milliards de dollars) et la crise déferle sur les banques européennes, Fortis et Dexia pour commencer. A son tour l’Europe adopte au G15 du 12 octobre un plan d’aide massif au système financier (300 milliards d’euros). L’ensemble des plans de sauvetage atteint 1700 milliards d’euros, et le FMI accorde en urgence des prêts à l’Islande, l’Ukraine, la Hongrie…mais les bourses un moment rassurées plongent de nouveau.

Crise financière ou crise économique ?

Ce récit semble isoler la sphère financière de la conjoncture économique plus générale. Or les auteurs du rapport du CAE déjà cité expliquent la crise des subprimes par la conjonction de trois phénomènes : « des déséquilibres macroéconomiques, des dysfonctionnement microéconomiques, eux-mêmes doublés de pratiques financières à haut risque ». La conjoncture économique des années 2000 est caractérisée par un excès de liquidité (qui va se retourner en 2007), dû principalement à la progression rapide des réserves de change des pays émergents, mais qui n’a pas d’incidence sur les prix grâce à la politique de lutte anti-inflationniste des banques centrales. La situation très particulière de l’économie américaine, tout autant que l’innovation financière explique que la crise ait pris sa source dans ce pays. Depuis Brettons Wood et plus encore depuis l’ère Reagan, l’économie américaine est financée par le reste du monde. Le déficit public américain est à 2,9% du PIB et sa dette représente 9645 milliards de dollars en août 2008 (68% du PIB). La moitié des emprunts d’Etat sont à l’étranger. Les pays émergents d’Asie et du Golfe paient la dette en contrepartie du fait que les américains peuvent encore consommer ce qu’ils exportent massivement. Les réserves de change mondiaux – 7000 Milliards de dollars en juin 2008 – sont essentiellement constituées de bons du Trésor américain. Et le déficit ne va pas manquer de s’accroître avec le sauvetage des banques par l’Etat (Plans Paulson et suivants). Mais le dollar, monnaie de référence pour les matières premières soutenue par la Chine et les pays du Golf, résiste toujours bien. La banqueroute de l’Etat américain n’est pas pour demain. Les Etats-Unis, ce n’est pas l’Islande.

Le cadre général de l’endettement de l’économie américaine se lit aussi à l’échelle microéconomique. La quête de rendements toujours plus élevés et le crédit abondant et bon marché favorisé par la baisse des taux conduisent les investisseurs à chercher des actifs plus risqués. Par ailleurs l’endettement des ménages s’accroît du fait de la hausse des prix des actifs (bourse et immobilier) qui agit à la fois sur les crédits hypothécaires et sur la consommation : aux Etats-Unis et en Grande Bretagne, les ménages peuvent renégocier leur prêt hypothécaire mais dès lors que le bien prend de la valeur, ils peuvent aussi accroître leur endettement (mortgage equity withdraw) et utiliser cette marge supplémentaire pour financer des dépenses de consommation. Les banques ont donc profité de cette conjoncture pour proposer des crédits à des populations de plus en plus pauvres et endettées, les fameux seconds choix ou subprimes qui ont été multipliés par 7 entre 2001 et 2006. La capacité de remboursement de ces emprunteurs s’est fortement dégradée entraînant l’augmentation du taux de défaut, les expulsions, et la vente aux enchères des biens. Ces prêts de mauvaise qualité ont alors contaminé les prêts prime et les produits financiers complexes issus de la titrisation (cf. infra).

Pour la gauche néo-keynésienne, cette crise ne résulte pas seulement de déséquilibres macroéconomiques sur le marché des changes et sur l’endettement américain, elle est le résultat d’une dérégulation complète des marchés, et d’un emballement conséquent de la spéculation qui se termine par une sorte d’« infarctus libéral » |2|qui met fin à l’idéologie néolibérale dominante depuis Reagan et Thatcher, et autorise à repenser de nouveau à une régulation étatique, et à des politiques keynésiennes.

Pour l’Ecole de la régulation cette crise marque l’aboutissement d’un capitalisme financier qui a rompu avec le compromis fordiste. M. Aglietta, Robert Boyer et d’autres ont développé cette problématique : « Les dérives actuelles sont le produit d’un mode d’accumulation, le néolibéralisme américain, qui prétend développer une économie capitaliste en comprimant toujours plus les salaires et en conduisant une fraction toujours plus grande de la population de la paupérisation relative à la paupérisation absolue (…) Dans ces conditions, seul l’endettement des ménages américains – qui représente aujourd’hui 93% du PIB – a permis aux classes moyennes de maintenir leur niveau de vie » écrit Jacques Sapir |3||. Ajoutons à cela l’appréciation des actifs mobiliers et immobiliers (+52% entre 2003 et 2006) et une fiscalité favorable aux revenus non salariaux, et nous avons une crise de l’épargne plus forte aux Etats-Unis qu’en Europe et qu’en Asie.

La crise financière a donc une origine de long terme évidente dans le modèle de capitalisme financier introduit par la révolution néolibérale : déréglementation, mondialisation, pression sur les revenus. Certains des régulationistes peuvent donc soutenir que même sans l’épisode des subprimes la crise économique était prévisible, et que cette crise dite financière n’est pas seulement susceptible de dégénérer en crise économique : elle est de nature économique depuis le début.

Innovation et risque financier

Les analyses qui précèdent montrent suffisamment la cohérence macroéconomique et microéconomique du régime qui a précédé la crise des subprimes : les ménages américains ont été pris dans un effet de ciseaux entre la course en avant de leur endettement, supportable tant que leur bien immobilier se valorisait au même rythme, et la baisse subite des prix de l’immobilier après l’été 2007 (-25% en deux ans).

Il n’en reste pas moins que la crise aurait pu rester circonscrite à l’Amérique. Et c’est bien le système financier, enkysté dans cet environnement économique, qui a permis la mondialisation de la crise. Le récit des faits en donne une idée, mais il faut y ajouter une description plus précise des mécanismes purement financiers qui ont fournis les vecteurs de cette extension. La gouvernance des entreprises n’est plus assurée depuis longtemps par les 200 familles fustigées par le Front populaire, et on a quitté l’ère suivante des managers décrite par Galbraith dans le Nouvel Etat industriel. Depuis le début des années quatre-vingt « les trompettes de la corporate governance ont sonné le grand retour de l’actionnaire » exerçant son contrôle sur le dirigeant qui n’est plus que son mandataire, nous dit Laurent Batsch |4|. Un retour qui s’appuie sur les nouvelles théories de l’entreprise (la théorie de l’agence en particulier), et sur la mise en avant des droits de propriété (on sait par ailleurs le rôle qu’ils ont joué aussi dans l’économie de la connaissance). Le capitalisme financier est alors dominé par de nouveaux acteurs : les investisseurs, qui se regroupent (les ménages ne représentent plus en 1996 que 50% des actions cotées contre 91% en 1950) ou se font représenter par divers fonds d’investissements : OPCVM (organismes de placement collectif de valeurs mobilières), investisseurs institutionnels (les « zinzins »), assurances, fonds de pension. Finalement les actionnaires financent et contrôlent trois catégories d’agents : les dirigeants, les contrôleurs et les gestionnaires de fonds. Dès lors, les actifs financiers ont représenté une part de la richesse de plus en plus grande (plus de 2 fois le PIB au Royaume Uni et aux Etats-Unis) et la rentabilité des placements est devenu le maître mot de la croissance.

Avec le déclin de la plupart des grands projets industriels, et cette explosion de la financiarisation, nous sommes passés à une économie de rente. Le modèle rhénan, faisant une place plus importante à l’Etat et aux banques, a fini par s’aligner sur le modèle anglo-saxon fondé sur la richesse actionnariale. La carotte des stocks-options et le bâton des contrôles comptables, par le biais des bilans, comptes de résultat, et tableaux de financement, a régi le rapport d’agence entre actionnaires et dirigeants. L’objectif est devenu d’associer gestion parcimonieuse des capitaux, rentabilité maximale des placements (15% de retour sur fonds propres, dans une économie qui croît à 3%) et minimisation des risques. Du point de vue de l’actionnaire, et de la théorie de Williamson, le groupe est simplement « le lieu d’allocation de capitaux alternatifs aux marchés financiers ». Les marchés internes ont alors été supplantés par les marchés externes de capitaux. C’est dans cette concurrence qu’intervient l’innovation financière formidable des dernières décennies, et la montée en force des gérants de fonds qui ont concentré entre leurs mains beaucoup de capitaux.

Comme le remarque bien Robert Boyer, cette crise trouve sa source comme toute les précédentes dans une innovation scientifique ou technique, voire organisationnelle et institutionnelle, développée par quelques agents privés, et qui s’avère avoir des effets de long terme – des externalités négatives disent les économistes – tout à fait contreproductives et pour finir, néfastes pour le système global. Ce fut le cas de la bulle Internet en 2000. Ce fut le cas auparavant du krach boursier de 1987 puis de l’effondrement du fonds LTCM en 1998 déclenchés par le développement des nouveaux produits dérivés et leur gestion automatique via les formules de Black and Scholes et Merton. Parmi ces produits dérivés, on trouve en particulier les contrats à terme qui sont des engagements d’échange d’un bien sous-jacent à des conditions futures fixées à l’avance, et les contrats d’options pour lesquels l’échange futur peut porter aussi bien sur des taux d’intérêts, des actions, des devises, des matières premières, et n’est plus une obligation mais un droit de l’acheteur auquel le vendeur ne peut se soustraire. Les marchés financiers se sont enrichis de bien d’autres nouveaux instruments tout au long des années 1990 et 2000.

Il est important de noter que ces innovations sont à la fois des idées, des théories, des modèles, des mécanismes, et des institutions qui les incarnent – bref qu’il convient de les traiter comme de véritables filières scientifiques et industrielles. L’objet de ces filières est une matière un peu particulière : ce n’est ni du charbon, ni de l’acier, ni une ressource naturelle, mais un élément informel central de nos sociétés : le risque. Le but des dérivés étant en général pour un agent de se couvrir par rapport à un risque – risque de taux pour les crédits, risque de change monétaire, risque de cours de matières premières – en achetant une certaine sécurité ou assurance à un autre acteur qui endosse les risques à un tarif d’autant plus élevé que ces risques sont jugés importants par le marché ou par les modèles d’évaluation.

Le principal des mécanismes en jeu dans la crise qui nous occupe est celui de la titrisation du risque de prêt. C’est une opération qui transforme des créances bancaires les plus diverses (y compris les fameux subprimes) en titres (actifs financiers de qualité variable) revendus à un organisme financier spécifique (SIV = Special Investment Vehicules, ou Government Sponsored Enterprise du type Fannie Mae et Freddie Mac), lequel les emballe dans du bon pain, et revend ces gros sandwich indigestes grossièrement enveloppés (dit produit structuré) – comme le CDO (Obligations adossées à des actifs), voire le CDO de CDO – à des investisseurs cherchant des placements lucratifs (banques, assureurs, places off-shores, fonds de pension, hedge funds, fonds souverains) avec des risques calculés par de drôles de modèles. C’est une technique de transfert de risques, que l’on se refile comme des patates chaudes, et qui est censée réduire la vulnérabilité du système mais qui l’a en fait considérablement ébranlé.

Cette technique permet en effet aux banques de se débarrasser de leurs risques de prêt (et en particulier des risques inconsidérés qu’elle prend avec les subprimes) mais aussi de contourner les règles prudentielles de la BRI (Bâle1 et Bâle2) qui exigent un certain ratio aux fonds propres et une certaine qualité des prêts. La possibilité offerte aux banques commerciales de créer leur propre usine à sandwich, hors bilan et hors contrôle, les rapproche de fait des banques d’investissement |5| et leur permet d’entrer dans ce même jeu très risqué. L’abandon des règles du Banking Act de 1933 qui séparaient ces deux types de banques, et le laxisme des agences de notation, invitées à bénir ces sandwich, mais payées par les banques émettrices et donc intéressées au business, ont fortement affaibli les règles de sécurité que ces dispositifs de contrôle avaient instituée
s. Dès lors la course à la rentabilité et le rejet de la patate chaude du risque ont fait le reste. Poussées par la recherche de profits plus grands et sans risques, les banques ont fait circuler ces produits structurés mélangeant des prêts différemment notés – tranche senior notée AAA, …comme les andouillettes pour rester dans la métaphore culinaire ; tranche mezzanine plus exposée et notée BBB ; tranche equity très exposée – qui arrivés en bout de chaîne se présentaient à l’investisseur sous un emballage qui ne lui permettait absolument pas d’en évaluer les risques. Bien sûr les banques et intermédiaires qui ont monté de telles opérations de titrisation offraient des garanties : des garanties de liquidité sur leurs fonds propre, mais aussi garanties qu’apportaient des assurances monoline |6|. On est arrivé ainsi à des produits dont la traçabilité, donc la valeur, était quasi impossible à établir, comme dans le affaires du sang contaminé et des vaches folles nourries avec des farines animales d’origine incontrôlable.

Au centre de cette ingénierie financière, la gestion des risques est donc la grande affaire. Que l’on considère les placements de fonds privés et institutionnels comme spéculatifs ou seulement nécessaires, leur engagement dans les circuits financiers que nous venons de décrire pose le double problème de l’évaluation de leur rentabilité et de leur risque. C’est ici qu’interviennent et la théorie financière et son incorporation dans des modèles de formation des prix, d’arbitrage, et de gestion.

Le hasard n’est plus ce qu’il était

Très tôt fut reconnu que la Bourse était une sorte de loterie, au sens où, le hasard y était maître sauf à profiter de quelques informations non partagées, bref d’être un initié. On trouve dès la seconde moitié du 19e siècle des traités (comme celui de Jules Règnault en 1860) qui partent de ce principe et choisissent le modèle de la théorie des erreurs en astronomie pour en rendre compte : les cours fluctuent autour d’une valeur moyenne qui peut être considérée comme « normale » et cette fluctuation suit elle-même une loi de Laplace Gauss en cloche dite « loi normale ». Par ailleurs, la suite des valeurs forme une marche au hasard telle que l’écart entre les cours aux temps 0 et t est « en raison directe de la racine carrée des temps (t) ». Les deux visions statiques et dynamiques sont là.

La thèse de Bachelier en 1900 sur la théorie de la spéculation, que les financiers ont redécouverte dans les années soixante, établit que sous cette double hypothèse de distribution gaussienne et de mouvement brownien, conçu comme limite d’une marche aléatoire, ou encore comme processus continu à accroissements homogènes indépendants – alors l’espérance du spéculateur est nulle : le cours le plus probable est le cours vrai actuel. Il contient toute l’information connue utile à une prévision. Les seules causes de variations nouvelles sont aléatoires. Tout ce que l’on peut faire c’est d’estimer la volatilité, le risque de variation instantanée |7|.

La première conséquence de cette théorie mathématique de la spéculation est donc qu’il est impossible de faire mieux que le marché pour les analystes et conseillers, qu’ils soient des « fondamentalistes » persuadés que la Bourse réagit à des événements relatifs à l’entreprise ou son environnement économique, ou des « techniciens » et « chartistes » qui recherchent les invariants dans les seuls mouvements boursiers du passé. Seconde conséquence, une série de tests empiriques de cette hypothèse de marche au hasard (et d’indépendance des accroissements successifs) alimente les publications dès les années trente avec Cowles et Working et se prolonge dans les années cinquante ; ces tests semblent valider l’idée de mouvement brownien gaussien, d’autant mieux que l’on s’intéresse non pas au cours lui-même mais à son logarithme, c’est-à-dire sa rentabilité Rt = ln(St)-ln(S0). Un paradigme est né. Il se traduit aussi par des institutions – le calcul et la publication d’indices tels le Dow Jones ou le CAC40 – et des pratiques de gestion fortement liées à ces indices.

Dans la tradition de la théorie des moyennes de Quetelet, l’indice de marché apparaît, comme une façon de compenser et d’annuler les causes accidentelles de variation (les risques spécifiques) et d’isoler les causes communes de variation. Mais après l’élaboration par Markovitz (1952) Tobin (1958) et Scharpe (1963) de la théorie des portefeuilles optimaux – ceux qui minimisent le risque (volatilité) pour un rendement moyen donné –, la comparaison systématique des performances des portefeuilles avec les indices de marchés devient un principe de gestion. C’est la gestion passive, dite encore gestion indicielle, qui consiste à établir – désormais de façon automatique – un portefeuille optimal qui soit une réplication de l’indice de marché, puisque à long terme les performances des gérants ne peuvent être meilleures que lui. Cette gestion indicée est intégrée dans la législation (ERISA).

Cependant, la théorie des erreurs et des moyennes sur laquelle s’appuie cette gestion suppose une indépendance des observations. Or en finance, la covariance des rentabilités des différents titres est loin d’être nulle compte tenu de l’interdépendance des activités économiques. Les études empiriques de Fama (1965) ne valident pas l’indépendance des accroissements des cours qui caractérise le mouvement brownien mais ne désavouent pas totalement ce modèle qui reste une bonne approximation. Et la notion de marché efficient (capacité des marchés de transmettre par les prix toute l’information disponible) consolide théoriquement ce modèle.

La contestation de ce modèle est portée par les travaux du mathématicien français Mandelbrot, plus connu par ses fractales, bien que celles-ci soient aussi un produit dérivé de ses travaux en finance |8|. Dès 1962 il a suggéré :

1°) que la distribution des rendements d’actifs n’était pas gaussiennes : en théorie ces rendements ne résultent pas de l’addition de chocs aléatoires homogènes et indépendants, mais de choc hétérogènes, très hiérarchisés et interdépendants. En analysant de plus près les statistiques boursières, elles présentent des queues de distributions plus épaisses que la loi normale (phénomène leptokurtique), laissant à penser que les événements extrêmes sont beaucoup plus probables que dans le modèle gaussien

2°) Il a proposé de modéliser ces queues de distribution par une loi que Pareto |9|avait utilisée en 1895 pour ajuster des distributions de revenus.

3°) Il a proposé de considérer plus généralement un autre ensemble de distributions dites de Pareto-Levy, qui dépendent d’un paramètre alpha et qui sont stables pour l’addition mais qui n’ont de moments qu’à un ordre inférieur à alpha. Comme les valeurs empiriques trouvées sur les marchés boursiers sont de l’ordre de 1,5 à 1,8 il n’y a donc point de variance et la notion de volatilité tout comme celle de portefeuille optimal en espérance-variance sont sans objet. Du point de vue dynamique, un processus de Pareto-Lévy n’exige pas que les variations soient indépendantes et identiquement distribuées. On peut donc relâcher l’hypothèse de stationnarité des processus. La continuité du processus des prix est également remise en cause.

4°) Un tel processus possède une propriété de similarité aux différentes échelles : il a la même allure pour des observations prises toutes les minutes ou tous les jours ou tous les mois. La relation « scalante » R(nt) = n(1/ α) R(t) généralise la loi en racine du temps de Règnault relative au cas normal (α=2).

Il s’agit bien d’un paradigme alternatif au paradigme dominant pendant tout le 20ème siècle. Bien que des chercheurs français comme Taleb, Zajdenweber, Walter aient suivi le chemin montré par Mandelbrot, et montré que ce nouveau paradigme pouvait expliquer les fluctuations des marchés boursiers ou dérivés, bien mieux que celui du mouvement brownien, il semble que les financiers le récusent encore. Les périodes de crise, comme celle d’octobre 1987 (qui a vu la naissance du comité de Bâle), comme celle d’aujourd’hui, sont cependant propices à s’interroger sur ce qui nous a valu une telle sous-estimation des risques. Or une des raisons invoquée peut être que les mauvaises hypothèses des modèles auraient donné un faux sentiment de sécurité, empêché que les contrôleurs ne s’alarment, et amplifié la crise. Il serait donc temps de changer de paradigme.

.

Les Modèles performent la réalité

L’erreur sur les hypothèses est d’autant plus grave qu’elle est intégrée à des modèles d’évaluation et à des procédures de gestion. A vrai dire, les marchés financiers sont pensés et régulés selon des modèles dont le soubassement scientifique représente un paradigme largement épuisé et contesté. On manque cependant de cartographie des modèles et de leurs usages pour savoir quelle est l’ampleur de cette erreur

Les considérations techniques qui précèdent semblent insuffisantes pour justifier l’ampleur de la crise que nous connaissons. Il paraît plus raisonnable de penser que les erreurs des modèles sont seulement des erreurs de représentation des marchés financiers, et que le vers n’est pas dans le fruit des mathématiciens de la finance mais dans les usages qu’en font les opérateurs de marchés. Car dans le procès d’attribution, les mathématiques ne sont pas le coupable idéal ; l’idéologie libérale qui a accouché de la déréglementation des marchés, l’invention des produits toxiques, et les rémunérations hors de proportion des traders et des managers semblent plus faciles à accuser. Néanmoins des voix se lèvent pour dire que « avec la complicité tacite des théoriciens eux-mêmes, qui portent une immense responsabilité dans la crise, on a utilisé les modèles mathématiques pour tricher avec les risques, en faisant croire que l’on pouvait transformer le plomb en or » |10|.

Il faut en effet compter avec une propriété importante des modèles mathématiques : ils s’incarnent, s’enkystent dans la réalité et la configurent largement. C’est ce qu’on appelle l’effet Pygmalion, ou capacité des modèles à produire des « prophéties autoréalisatrices ». Il faut entendre cette affirmation d’abord dans le sens très ancien que toute ingénierie a pour objet de se saisir de résultats scientifiques pour en faire des dispositifs efficaces qui transforment le monde. Ensuite dans un sens plus large, ce concept de performativité repris par Michel Callon et D. MacKenzie |11|suggère que « les théories scientifiques, les modèles et les énoncés ne sont pas des constats ; ils sont activement engagés dans la constitution de la réalité qu’ils décrivent ». La performativité va au-delà de la simple capacité d’une science de l’homme à influencer les croyances des hommes et leurs décisions. Elle suggère que des dispositifs matériels, des agencements socio-techniques construisent effectivement un monde conforme à cette science.

Dans le cas des sciences postmoderne cette caractéristique est démultipliée par la possibilité qu’un même outil – le modèle – offre à la fois une représentation simplifiée de la théorie et une représentation des observations et mesures prises sur cette réalité. Dès lors le passage des usages heuristiques aux usages prescriptifs peut être très rapide. Le modèle ne sert plus tant à valider des hypothèses théoriques qu’à mettre à l’épreuve le succédané du système qu’il représente. Le même modèle sert à la fois à la compréhension du système et à sa manipulation. Cela était déjà vrai pour les premiers modèles macro-économétriques de Tinbergen, Frisch et Klein qui permettaient de tester des chocs exogènes ou politiques sur le système économique et de simuler des mesures de politique économique. Mais le relais à la décision politique passait encore par une interprétation de ces simulations et par un choix humain, incarné par un décideur. Et tout cela prenait un certain temps.

Non seulement la finance ne déroge pas à cette caractéristique de toutes les ingénieries – les produits et les métiers de la finance évoluent en fonction des différentes théories qui les inspirent – mais ce domaine est peut être le seul dans lequel le bouclage se réalise aussi vite : le modèle modifié et testé le week end est opérationnel le lundi en salle de marché pour assister les prises de décisions, voire automatiser une bonne part de ces décisions. L’idée qu’un modèle théorique fonctionne comme une prophétie autoréalisatrice est d’ailleurs une idée de Robert K. Merton, l’inventeur avec Black et Scholes de la théorie des options. On peut, sur la base d’une certaine intégrale due à Ito, simuler parfaitement l’option à l’aide d’un portefeuille de couverture (constitué de certaines quantités du sous-jacent) qui annule tous les risques. La banque qui gère ce portefeuille simulant n’équilibre pas le risque de chaque option par mutualisation des risques en espérance, comme le ferait une assurance, elle le fait pour chaque option, en suivant aveuglément ce que lui dit son modèle sans mobilisation d’expert et d’information supplémentaire. Ce modèle construit donc tous les jours le portefeuille de couverture qui équilibre exactement, en « delta neutre » la valeur théorique de l’option. Il produit lui-même un choix qui est mis en acte dans les réseaux. Nicolas Bouleau |12|parle de cette innovation comme d’une rupture épistémologique profonde.

Ces mêmes modèles théoriques, qui guident les pratiques quotidiennes des gestionnaires, inspirent également les institutions de régulation du marché : Bâle 2 a permis au banques de faire des économies de fonds propres si elles utilisent des modèles mathématiques de dernière génération pour l’évaluation de leurs actifs, et la célèbre norme IFRS du Comité de Bâle reprend le principe de la juste valeur correspondant aux prix d’Arrow et Debreu. De ce fait, la norme IAS39 qui introduit la référence à la « Fair value » repose sur des hypothèses peu réalistes de marché complet et arbitré qui ne sont que des conventions. L’idée de valeur fondamentale, aussi farfelue que celle d’homme moyen au 19e siècle, aussi dépendante qu’elle des hypothèses conventionnelles d’homogénéité et de normalité, est donc à la base même de la séparation du normal (la valorisation des entreprises) et du pathologique (la spéculation) en finance. Ce partage est évidemment un pari insensé et d’autant plus difficile à opérer que la convention des marchés efficients ne prend pas en compte les phénomènes mimétiques, maintenant bien étudiés par André Orléan. Or leur importance semble indiscutable en temps normal, et capitale dans les moments de crise.

MacKenzie, analysant la crise du fonds LTCM en 1998 écrit : « La théorie financière décrit un monde d’institutions humaines, de croyances humaines, et d’actions humaines. Dans la mesure où cette théorie inspire elle même des croyances et des actions, elle devient une partie du monde qu’elle décrit » . |Par le fait même de la fluidité que les modèles d’arbitrage ont introduit sur les marchés,| « la possibilité d’une révision continue d’un portefeuille sans coût de transaction, et la possibilité d’arbitrage capable d’exploiter et éliminer la plus petite anomalie de prix, sont devenues plus réalistes” |13|.

George Soros, président d’un fonds spéculatif et grosse fortune mondiale réinvestie dans des fondations humanitaires, est également l’auteur d’un petit ouvrage sur la crise |14|qui développe une certaine vision dite réflexive de la finance, comme relation circulaire ou rétroactive entre l
es opinions des acteurs et la réalité, et qui conduit de l’idée d’autoréalisation à celle de faillibilité radicale : « les autorités comme les acteurs du marché vivent sur des idées fausses, et ces idées fausses sont à l’origine non seulement de leur incapacité à comprendre ce qui se passe, mais encore des excès qui ont aux turbulences actuelles ».

Le rôle des modèles, et donc des hypothèses, sous leurs deux facettes de corpus théoriques et d’instruments algorithmiques de mise en œuvre d’une gestion conforme à ce corpus, est si décisif dans la gestion des actifs qu’il y a là un risque qui s’ajoute à ceux du marché, un risque que la communauté financière appelle un risque de modèle. Ce risque consiste à gérer les affaires financières comme si le modèle était la réalité. Alors que tout modèle est un jeu d’hypothèses sur cette réalité, elle-même en partie le produit du consensus et des conventions rendues opérationnelles par ce même modèle. Il y a quelque ambiguïté cependant dans cette terminologie de risque de modèle. Parler de risque supposerait selon la définition habituellement retenue, que l’on puisse identifier et quantifier une perte potentielle et que cette perte soit associée à une probabilité d’occurrence de l’événement. A défaut de savoir ce que serait un réel indépendant des modèles, dans une épistémologie plutôt conventionnaliste que réaliste, on évalue l’erreur du modèle comme la différence entre ce qu’il prévoit et ce qu’on observe pour un certain portefeuille. L’écart peut se calculer sur différentes mesures comme la volatilité, la VaR |15|, ou la durée de retour d’un événement rare |16| Quant à la probabilité que les résultats des modèles s’écartent des observations de telle valeur, à ne pas confondre avec les probabilités en jeu dans le modèle lui-même, elle supposerait que l’on puisse la déterminer soit subjectivement soit à partir d’une statistique de ces écarts. Mais faute d’un audit généralisé de ces modèles, il semble impossible de le faire. La comparaison porte alors davantage entre deux modèles donc deux jeux d’hypothèses, que sur les écarts au réel. Il nous semble plus sage par conséquent de parler d’incertitude des modèles comme on le fait d’ailleurs dans d’autres domaines (environnement et changement climatique par exemple). Mais le problème demeure : peut on se débarrasser de cette incertitude ou la réduire ?

L’expertise en crise

Bruno Latour |17|nous invite à lire toute crise (passée) dans les technosciences – l’ingénierie financière en est une – comme une attribution et pas comme un donné de l’histoire des sciences. La crise n’est pas tant une réalité indépendante qu’une reconstruction par différents acteurs – les scientifiques, les politiques, les médias, les citoyens – qui en définissent les frontières d’avec le cours normal des choses, et la constitution ou la nature. De même la désignation des acteurs clés (boucs émissaires ?) et des responsables (mais pas coupables ? |18|) est le résultat d’un procès d’attribution en responsabilité. Ce processus implique tous les analyseurs de la crise. En premier lieu les experts qui vont dire ce qui s’est passé. Mais comme ce sont très souvent les mêmes experts qui ont conseillés ces acteurs, on renforce la crise de l’expertise.

Le régime de l’expertise est aujourd’hui largement discrédité pour trois raisons |19|. D’abord parce que l’expert est censé être celui qui sait, or la connaissance des systèmes complexes – ou même simplement compliqués – est une connaissance partagée, en réseau, dialectique, collective. Les gros systèmes comme le système économico-financier, le système du climat, celui des équilibres écologiques, n’ont ni gouvernance unique ni expert omni-compétent. Ensuite, l’indépendance de l’expert nécessaire à l’émergence d’une « juste » évaluation n’est jamais acquise ; elle est même parfois contradictoire avec le premier point, à savoir qu’un expert est dans le système. Par exemple qui écrit dans la presse aujourd’hui sur la crise ? Essentiellement des banquiers ou responsables de fonds, parfois des économistes pas forcément compétents en finance. L’expert parle toujours de quelque part. Il faut donc organiser des confrontations d’experts qui de façon irrémédiables aboutissent à des confrontations de paradigmes et aussi de points de vue socio-politiques, donc à des controverses, ce que l’on souhaite le plus souvent éviter.

En second lieu, le modèle linéaire de l’expertise – des scientifiques inventent, des gestionnaires mettent en place, une crise surgit, des experts se prononcent, les politiques agissent – est un schéma qui ne rend plus compte de la gestion des crises actuelles. En particulier la séparation étanche entre expertise scientifique et décision politique, sur un modèle judiciaire, n’est plus de mise, car de toute évidence l’innovation est à la fois technoscientifique et économico-politique, et les problèmes que rencontrent ou provoquent ces innovations sont indistinctement cognitifs et sociaux.

Enfin la confrontation de l’expert qui sait et du citoyen profane qui ne sait pas induit un déficit démocratique qui n’est plus acceptable. A partir du moment où la discussion est lancée sur un quelconque système socio-technique qui pose problème à une certaine population, il ne peut être confisqué ni par les experts scientifiques ni par les politiques. Les controverses autour de l’amiante, du Sida, du nucléaire, de la vache folle, ont montré que les gens ordinaires concernés directement ou indirectement ont plus que leur mot à dire : ils peuvent recadrer les problématiques et co-construire des solutions. La nécessité de débats citoyens, avec des représentants à définir, mais aussi des forums hybrides, mêlant experts et profanes |20|est devenue d’ailleurs un must politique.

Le moins que l’on puisse dire c’est que la crise financière actuelle révèle un gros déficit de lieux et d’institutions où ce débat citoyen confrontant des savoirs experts et profanes puisse se faire. On revient au début de notre article : la crise a, pour beaucoup, dévoilé un monde obscur, dans lequel des individus dont les professions sont mal connues (et souvent résumées par « trader ») jouent avec des sommes considérables d’argent réel ou virtuel (dont on pense confusément qu’une partie nous appartient collectivement) au travers de réseaux et de mécanismes dématérialisés. Le désintérêt du quidam qui n’avait pas d’argent à placer pour la sphère financière n’a d’égal aujourd’hui que la fascination pour les pratiques de ce milieu. Il faudrait que l’on profite de ce mouvement pour permettre un contrôle citoyen direct sur ces opérations qui double celui qu’on exerce bien mal à travers nos parlements et nos agences de contrôle. La finance est une chose trop importante et dangereuse pour la laisser aux financiers.

Conclusion : que faire demain ?

On connaît aujourd’hui les grandes lignes du programme politique de lutte contre la crise boursière et bancaire mis en place par les gouvernements et les autorités de régulation et que l’on peut regrouper en quatre volets :

  1. contrôler et règlementer les institutions nées à côté des banques, comme les CIV, les Hedge Funds. Taxer les marchés de gré à gré (OTC), ceux des CDS et CDO en particulier. Encadrer l’attribution des crédits et la profession de courtier.
  2. Renforcer le contrôle sur les banques. Interdire la spéculation aux banques de dépôt. Rétablir la muraille de Chine abolie en 1991 et 1999 duGlass Steagall Actde 1933. Conforter le contrôle interne des traders par les inspecteurs. Séparer contrôle et salle des marchés. Limiter les bonus et parachutes dorés.
  3. Revoir les normes comptables (Normes IASB 2001 : abandonner la norme de lafair value(valeur de marché) et déclarer les pertes à leur valeur comptable traditionnelle. Fournir une mesure pertinente et neutre de la valeur réelle des actifs et des passifs de l’entreprise. Revoir le statut des organismes qui doivent définir les normes.
  4. Gouvernance mondiale : revoir la mission des Banques centrales, de la lutte contre l’inflation à l’immobilier et à la Bourse. Renforcer le rôle du FMI. Faire accéder les pays émergents à ces institutions. Limiter la volatilité des monnaies. Trouver un relais au dollar.

Sans contester le bien fondé de ces mesures pour encadrer les dérapages de la titrisation, sans oublier non plus que ce n’est pas la première fois que l’on fait preuve ainsi de bonnes intentions, on voit facilement que l’on ne répond pas avec ces mesures au large spectre des problèmes que nous avons posé. Ces mesures ne traitent que de la partie visible de l’iceberg « finance », que des aspects purement microéconomiques et de court terme de la crise financière. Il nous semble indispensable de répondre à d’autres dimensions de la crise plus générale que nous avons évoquées :

  1. La crise de la paupérisation des classes inférieures et moyennes, induite par le passage du compromis fordiste et de l’Etat Providence au capitalisme financier assis sur un régime de propriété qui se rémunère par la rente, la prime et le bonus, et plus par le salaire. Il faut revoir le partage de la rémunération de la productivité entre travail et capital, – salaires stagnants et profits rugissants – et redonner du pouvoir d’achat semble une condition nécessaire à la reprise.
  2. La question de l’endettement de ces classes moyennes pour un accès à la propriété immobilière n’est pas purement américaine. On sait que la crise immobilière menace aussi les populations européennes. La France connaît à la fois une crise rampante du logement social et une forme de krach immobilier (prix en croissance forte depuis des années et en chute libre actuellement).
  3. Puisque la crise économique succède à la crise financière (mais elle l’avait aussi précédée) nous devons en profiter pour revoir le contenu de la croissance. Il n’y a pas de projet productif depuis longtemps, ni en Amérique ni en Europe. La déroute de l’industrie automobile, après celle de la sidérurgie, amène à poser clairement la question du développement durable : il n’y aura pas de croissance possible qui ne se heurte à la fois aux limites de la pauvreté et des inégalités et aux limites des ressources naturelles. La crise alimentaire qui est la conséquence de la montée des cours des céréales (27 pays en crise alimentaire), et la crise écologique que nous avons peu évoquée dans ce papier sont concomitantes de la crise économique. A quoi peut bien servir de refaire tourner la machine industrielle et son moteur financier pour produire des biens que l’humanité ne peut plus se permettre d’acheter, aux trois sens du terme : ils sont trop chers pour nos salaires, ils ne sont pas essentiels à notre bien être, ils sont en train de détruire la planète. Sans verser dans la décroissance, il est absolument nécessaire de réorienter qualitativement notre effort de production. Vers les cultures vivrières aux dépens des agro-carburants ; vers les produits de l’agriculture biologique ; vers les énergies renouvelables ; vers les modes de vie (habitat et transport) respectueux de l’environnement. Il faut le faire aussi quantitativement comme nous le montrent les conclusions des modèles du changement climatique en terme de lutte et d’adaptation : y consacrer 1% de PIB chaque année (Rapport Stern) pour diminuer nos émissions de CO2 de 20% en 20 ans (engagements européens), voire plus comme le réclament scientifiques et associations écologistes, cela va nécessiter de gros investissements et des grands travaux que les conversions récentes mais prudentes au keynésianisme des politiques et des industriels peuvent conjoncturellement favoriser. Comme le suggère J.H. Lorenzi |21|, il faut une réorientation radicale de l’accumulation capitaliste vers un mode de développement soutenable à l’échelle de la planète. Au lieu que l’épargne des grands pays émergents finance la consommation non durable des américains il serait préférable que leur monnaie s’apprécie et qu’elle s’investisse dans la décarbonisation de leur propre croissance.
  4. Une bonne partie des gains de productivité a été gagnée par l’innovation technologique en particulier dans les TIC. Les défis de la planète aujourd’hui sont aussi sur l’immatériel : les services à la personne, l’éducation, la recherche, la santé, la communication. Il faut donc faire la même chose pour les investissements en matière de capital intellectuel : investir massivement dans la recherche et le développement. Et en profiter pour prendre en compte cette économie de la connaissance – et celle des services – dans la mesure comptable du PIB et de la croissance |22|.
  5. Ne pas oublier enfin le programme de reconversion de nos mathématiciens modélisateurs de la finance, d’une part aux nouveaux paradigmes des lois du hasard en finance, d’autre part à la prise en compte des incertitudes qui échappent à sa modélisation, parce qu’elles sont dans les hypothèses explicites et implicites des modèles, et pour finir à la nécessité d’un partage de leur savoirs avec les profanes – « mettre les instruments sous contrôle citoyen », y compris ce qu’ils savent des effets performatifs de leurs décisions : « quand le marché a saisi une proie explique M. Augustin Normand, il ne la lâche pas et la pousse à faire ce qu’il souhaite. Cela a un effet autoréalisateur : une banque dont le marché aurait décidé qu’elle doit se recapitaliser va voir son cours de Bourse baisser …jusqu’à ce qu’elle se résolve à lancer une telle opération financière. » (Le Monde 26/11/2008)
  6. On a vraiment besoin de voir clair dans ces obscures procédures de la finance. Si on ne peut pas se contenter des dires d’experts, ou d’acteurs trop impliqués, ou de modélisateurs « non euclidiens », alors il faut revenir à la méthode classique d’observation des sociétés qui nous sont étrangères : l’anthropologie. Multiplions les études sur les pratiques des marchés financiers et diffusons les largement. L’ingénierie financière telle qu’elle se fait, dans toutes ses dimensions, vaut plus que la finance rêvée par les mathématiciens et les traders |23|.<
    /p>

Ce n’est pas un programme de court terme. On peut donc prendre le temps d’en débattre et de l’améliorer.

|1| P. Artus, J.P. Betbèze, C. de Boissieu, G. Capelle-Blancard, La crise des subprimes, Rapport du Conseil d’Analyse Economique, La Documentation Française, 2008.

|2Alternatives Economiques, 274, nov. 2008, Spécial Crise.

|3| Jacques Sapir, Une decade prodigieuse. La crise financière entre temps court et temps long, Revue de la régulation, 3-4, 2e semestre 2008, |->http://regulation.revues.org/…

|4| Laurent Batsch, Le capitalisme financier, La découverte, Repère, 2002

|5| Profitant de l’effet de levier (LBO), un autre mécanisme financier important permettant de dégager des rentabilités élevées à partir d’un petit capital gonflé par l’emprunt et placé dans des opérations très risquées, les banques d’investissement ont pu engager plus de 30 fois leurs fonds propres, alors que les banques commerciales sont contraintes par Bâle 2 à limiter leur encours de crédit à 12 fois leurs fonds propres (taux inverse de 8%)

|6| Cette assurance prenant la forme d’un autre produit, le CDS (=Credit Default Swap) qui se négocie de gré à gré. « Le marché des CDS est de 62 000 milliards de dollars, chiffre proche du total des dépôts bancaires de la planète » (Paul Jorion Le Monde 30 sept. 2008).

|7| Le second résultat de Bachelier c’est aussi de découvrir que « la loi de rayonnement de la probabilité » similaire à la l’équation de la chaleur de Fourier et qui anticipe de 70 ans la formule de Black et Scholes (1973).

|8| Benoît Mandelbrot, Fractales, hasard et finance, Champs, Flammarion, 1977.

|9| La distribution de Pareto est définie par ln (prob (X ≥ x)) = -α lnx + b

|10| Citation de Eric Briys, La Tribune, 3 novembre 2008.

|11| Donald Mackenzie, F. Muniesa, L. Siu, Do Economists Make Markets ?, Princeton Univ. Press, 2007.

|12| Nicolas Bouleau, Martingales et marches financiers, Odile Jacob, 1999

|13| Donald MacKenzie, London Review of Books, 13 avril 2000. Voir aussi Donald Mackenzie, Making and Unmaking a World : Models, FinancialMarkets, and Crises, Colloque Modèle et Modélisation, Centre A. Koyré, déc. 2001, et Is Economics Performative ? In MacKenzie et al. 2007 pour l’étude de cas des Options.

|14| George Soros, La Vérité sur la crise financière, Denoel, 2008

|15Value at Risk = montant des pertes d’un portefeuille qui ne sauraient être dépassées avec une probabilité donnée.

|16| Voir les travaux évoqués à la journée « risque de modèle » de la Société française de Statistique, et le chapitre 7 de la thèse de C. Walter , Les structures du hasard en économie : efficience des marchés, lois stables et processus fractals, IEP, Paris, décembre 1994.

|17| B. Latour, sociologie des sciences, analyse des risques collectifs et des situations de crise, Séminaire du Programme Risques Collectifs et Situation de Crise, CNRS, 15 nov. 1994.

|18| Ceux que Roger Guesnerie (Le Monde, supplément Economie, 18 nov.2008) a gentiment traités d’innocents : « les effets systémiques qui peuvent résulter de leur créativité financière (celle des modèles mathématiques), ils n’en ont pas conscience. Ce sont des « innocents » aux deux sens du terme »

|19| Dominique Pestre, Science, argent et politique, INRA, 2003.

|20| M. Callon, P. Lascoumes , Y. Barthes, Agir dans un monde incertain. Essai sur la démocratie technique, Paris, Le Seuil, 2001.

|21| J.H. Lorenzi (dir), La guerre des capitalismes aura lieu, Paris, Perrin, 2008.

|22| Voir à ce sujet Yann Moulier Boutang, le capital cognitif, Paris, Ed. Amsterdam, 2008 ; et Dominique Pestre, op. cit.

|23| Dominique Cardon, P Lehingue, F. Muniesa (eds), Marchés financiers, Politix, 52, 2000.