Les crises financières du XVIIème siècle à aujourd'hui

Pourquoi s’intéresser aux crises financières ? Probablement parce qu’elles révèlent les mécanismes et les défauts de notre économie. Le monde a connu de grandes crises financières prenant des formes variées. À la suite de chaque crise, les acteurs publics et privés se sont accordés sur la nécessité de mettre en place de nouvelles régulations, qui vont souvent contre la volonté du marché dirigé vers la croissance. Les économistes décrivent ainsi des cycles : une crise surgit, et entraîne des régulations, régulièrement suivies de dérégulations subies, ou voulues.

Cet article offre un tour d’horizon des crises du XVIIème siècle à aujourd’hui, sans se vouloir exhaustif. Il n’aborde pas, par exemple, la crise des technologies et la crise des subprimes, souvent documentées et étudiées dans les cursus universitaires. Le XVIIème siècle est choisi comme point de départ car c’est durant cette même période que la première bourse fut créée à Amsterdam, en 1611. La bourse est consubstantielle au développement d’une frénésie à l’achat ou d’une hystérie à la vente. En 1340, le défaut de paiement du royaume d’Angleterre d’Edward II, tout comme ceux des royaumes d’Espagne et de France, n’avaient pas entraîné de mouvement de panique en Europe car le marché de la dette n’existait pas.

 

1637 : La Tulipomanie Néerlandaise

Les tulipes furent introduites en Europe au cours du XVIème siècle, puis découvertes par les Provinces Unies des Pays-Bas au début du XVIIème siècle. Leurs couleurs intenses, leur rareté et leur singularité en firent rapidement un élément de prestige pour la bourgeoisie néerlandaise.

Dans les années 1630, les bulbes de Tulipes devinrent un élément de spéculation sur la place boursière d’Amsterdam. Les tulipes fleurissaient seulement en avril et en mai, mais leurs bulbes étaient échangés tout au long de l’année grâce à des contrats à terme. Les investisseurs achetaient des « promesses de bulbes » qu’ils espéraient pouvoir revendre plus cher. On parle ici de contrats à terme car les transactions prévoyaient une livraison physique de bulbes en décalage avec l’accord des parties. Au cours de l’automne 1636, les prix des bulbes augmentèrent très fortement. En février 1637, le prix d’un bulbe de tulipe était 15 fois supérieur à celui du salaire annuel d’un artisan et valait deux fois le prix d’une maison de taille moyenne.

Cependant, au cours de l’hiver 1637, probablement affecté par la peste qui sévissait partout en Europe, le cours de la tulipe s’effondra. Tout le monde chercha à se débarrasser de ses bulbes. L’engouement pour l’achat se transforma en un déchaînement à la vente. Cette crise sera ainsi considérée par beaucoup d’économistes comme la première bulle financière.

 

1720 : La crise du Mississippi

Au début du XVIIIème siècle, suite au règne de Louis XIV, les finances du Royaume de France étaient en mauvaise posture. Dans les années 1720, sous les conseils de John Law, le régent Philippe d’Orléans décida de créer une banque royale. Celle-ci disposait de très peu de capital, financé principalement par de la dette d’État. John Law proposa ainsi à la population française, grâce à la banque royale, d’échanger l’or qu’elle possédait contre des assignats. Ces morceaux de papiers imprimés étaient alors considérés as good as gold. Cependant, le régent abusa rapidement du processus et en fit imprimer de plus en plus. Le montant émis ne correspondait dès lors plus à la valeur de l’or présent dans les coffres de la banque.

En 1719, John Law décida de créer la Compagnie Mississippi qui prendrait en charge la plupart du commerce colonial français, incluant la Louisiane. Cette entreprise fut utilisée pour racheter la dette du royaume de France. Le public pouvait utiliser des assignats pour acquérir des parts de la compagnie. La Compagnie du Mississippi attira de plus en plus d’actionnaires en promettant l’exploration de nouvelles terres aux nombreuses richesses. Ces dernières participeraient à la croissance de cette société par actions, et seraient donc la promesse d’importants futurs dividendes. Ce système permit au royaume de France d’émettre de plus en plus d’assignats. Ils étaient directement utilisés pour acheter des actions de la compagnie. Le peuple français achetait ainsi des actions surévaluées et utilisait des assignats qui ne correspondaient plus à une valeur réelle de l’or présent à la banque royale. Entre 1719 et 1720, le cours des actions passa de 500 à 15 000 livres.

Malheureusement pour le régent et John Law, les ressources du territoire nord-américain ne s’avérèrent pas aussi bonnes que prévu. Le cours de l’action de la compagnie s’écroula rapidement pour retrouver un prix de 500 livres en 1721. Entre temps, par perte de confiance dans les assignats, certains des plus gros détenteurs demandèrent à récupérer l’or détenu par la banque royale. Le système s’écroula. Des émeutes eurent lieu dans les rues de Paris. La compagnie du Mississippi sera tout de même sauvée de la faillite par Louis XV.

LA4Lire aussi : Pourquoi l’or comme valeur refuge en temps de crise ?

 

1847 : La folie des chemins de fer

Le XIXème siècle fut marqué par une industrialisation intense de l’économie. Les cycles économiques furent agités par les mouvements politiques qui secouèrent l’Europe. Depuis 1825, le développement du chemin de fer en France et en Angleterre entraînait une spéculation boursière sur les actions des compagnies ferroviaires.

Les capitalisations des chemins de fer représentaient la moitié du marché boursier français, et un peu moins d’un quart du marché anglais. La construction en Europe de dizaines de milliers de kilomètres de lignes depuis le début des années 1820 entraîna une exposition croissante des banques anglaises et françaises aux activités des compagnies de chemins de fer. La sous-estimation des coûts liés aux travaux ferroviaires contribua à une surévaluation du cours des actions du secteur. En 1846, les compagnies des chemins de fer de Bordeaux et de Lyon, tout comme les compagnies anglaises effectuèrent de grandes levées de fonds, plus du double du montant de l’année précédente. Ces appels à financement provoquèrent une crise de confiance sur le marché. Les taux d’intérêts des banques françaises et anglaises augmentèrent l’année suivante. Cela mena à une forte baisse de l’activité de ces mêmes compagnies qui tombèrent alors en faillite, ou licencièrent une grande partie de leurs ouvriers.

Le cours des actions des compagnies chuta lourdement, et la crise financière s’étendit aux créanciers des chemins de fer, en particulier aux banques. Cette crise sera considérée par beaucoup d’historiens comme un précurseur à la révolution de 1848 et au printemps des peuples.

 

La crise boursière de 1929

Dans les années 1920, le monde connut de grandes révolutions technologiques. La production automobile s’intensifia. Des réseaux de chemins de fer furent développés dans différentes régions du monde. Le nombre de foyers avec l’électricité et une ligne téléphonique augmenta drastiquement. Les salles de cinéma ouvrirent en grand nombre et l’accès à la radio se démocratisa.

La forte croissance de la production industrielle et le développement du call loan participèrent à la croissance démesurée de l’index du Dow Jones. Le call loan permettait un effet de levier important pour les investisseurs. Pour un dollar mis sur la table, dix dollars étaient investis. Cette augmentation de l’indice du Dow Jones encouragea les institutions financières américaines à adopter des politiques de crédit plus souples. Les américains en bénéficièrent, tout comme les institutions financières du monde entier. L’augmentation des crédits participa à l’augmentation des achats d’actifs boursiers. Entre mars 1926 et octobre 1929, le cours du Dow Jones augmenta de 120%. La bulle spéculative s’intensifia.

L’euphorie collective connut son terme en octobre 1929. La réalité économique aux États-Unis était alors déconnectée de la valeur des actifs boursiers : ni la productivité, ni les salaires ne suivaient l’enthousiasme du marché. Le jeudi 24 octobre, dit « jeudi noir », la bulle éclata et des ventes massives eurent lieu. Entre le 22 octobre et le 29 octobre, le Dow Jones perdit 39% de sa valeur. Cette crise boursière sera l’élément déclencheur de la crise économique mondiale du début des années 1930.

 

1982 : Crise monétaire latino-américaine

Dans les années 1970, les banques nord-américaines considérèrent l’Amérique Latine comme un investissement à fort potentiel. La région présentait de nombreuses ressources naturelles et une capacité de production marquée par une main d’œuvre peu chère. Une autre raison de l’intérêt pour la région était la présence de la dictature perçue comme vecteur de stabilité économique. Ces indicateurs de risque modéré attirèrent le secteur bancaire et les investisseurs américains.

Les capitaux circulèrent alors en grande quantité d’Amérique du Nord vers le sud, d’après le système suivant : les banques étrangères prêtaient à des banques locales dans leur devise. Par exemple, les banques américaines prêtaient un certain montant en dollar aux banques mexicaines. Celles-ci achetaient ensuite la devise locale avec ces fonds, et prêtaient à des investisseurs locaux dans cette monnaie. Ces investisseurs furent ainsi encouragés à investir dans l’immobilier et dans les entreprises mexicaines. Ce modèle provoquait une hausse des cours de l’immobilier et des actions dans le pays ; les dettes pouvaient ainsi être remboursées. Ce processus entraînait une appréciation du peso mexicain.

Les dettes étrangères du Mexique, du Brésil, de l’Argentine et d’autres pays d’Amérique latine passèrent ainsi de 125 milliards en 1972 à 800 milliards en 1982. Les crédits octroyés à ces États augmentèrent pendant ces années de 30% par an. Les gouvernements latino-américains commencèrent ensuite à emprunter de manière démesurée afin de couvrir les intérêts des emprunts précédents.

En 1979, à la suite du second choc pétrolier, la Fed augmenta drastiquement les taux d’intérêt, ce qui entraîna une augmentation des taux offerts par les banques américaines aux banques d’Amérique latine. Celles-ci se mirent à vendre leur monnaie nationale, et refusèrent de financer les emprunts normalement alloués aux investisseurs locaux. L’immobilier s’effondra, tout comme les cours de la bourse. Les devises latino-américaines se déprécièrent.

En 1982, le Mexique fit défaut sur sa dette étrangère. Les banques internationales perdirent confiance dans la région. Les devises mexicaines, brésiliennes et argentines se dévaluèrent fortement. Cette crise monétaire causa la faillite de la plupart des banques en Amérique Latine qui subirent de grandes pertes et devinrent incapables de se refinancer.

 

    ENTRETIEN EN FINANCE : PRÉPARE LES BRAINTEASERS

Découvre gratuitement les Brainteasers posés en entretien avec les réponses détaillées par un pro de la finance.

 

1986 – 1989 : Crise des caisses d’épargne américaines

Une Savings and Loan (S&L) association est une institution financière qui fonctionne comme une caisse d’épargne. Elle collecte l’argent des épargnants pour octroyer des prêts hypothécaires et quelques autres types de crédits à long terme.

De 1966 à 1979, les fluctuations des taux du marché menacèrent la rentabilité des S&L américaines. Les prêts hypothécaires avaient des maturités à long terme tandis que les intérêts des épargnants devaient être distribués chaque mois, et ces derniers bénéficiaient du droit de retirer leur épargne. L’actif était donc plus exposé aux fluctuations des taux du marché que le passif. Le risque pour les institutions était ainsi considérable.

En 1980, les 4000 S&L américaines représentaient plus de $600 milliards d’actifs dont $480 milliards de prêts hypothécaires. Par conséquent, le problème de mismatch passif/actif des S&L inquiéta les pouvoirs publics américains. Ainsi, au début des années 1980, le Congrès américain fit passer deux lois qui permirent de déréguler les S&L.  Ces institutions financières pouvaient désormais offrir une variété de produits financiers aux épargnants, et le capital d’équilibre passif/actif requis fut largement réduit.

Les dérégulations du début des années 1980 concédèrent aux S&L toutes les compétences d’une banque, sans les contraintes de régulation qui y étaient normalement associées.  Entre 1982 et 1985, ces instituions offrirent des taux d’intérêts très élevés sur l’épargne et attirèrent ainsi davantage de clients. Pour suivre cette promesse sur leurs passifs, les actifs de ces institutions augmentèrent de 56% sur la période. Cette croissance fut rendue possible par de nombreux investissements dans des crédits hypothécaires très risqués. La création de la Federal Savings and Loan Insurance Corporation encouragea cette dynamique et se constitua en prêteur de dernier recours pour le secteur. Elle assurait de cette manière les S&L contre une potentielle incapacité à couvrir leurs passifs.

Cette mécanique de distribution en abondance de prêts hypothécaires entraîna une bulle immobilière aux États-Unis. En 1986, la Tax Reform Act de Ronald Reagan déclencha l’éclatement de la bulle en supprimant certains avantages fiscaux liés à la location immobilière et aux pensions. Par ailleurs, la réforme fiscale augmenta l’alternative minimum tax qui concernait le secteur des S&L. Entre 1986 et 1989, le marché de l’immobilier américain s’effondra. Malgré un plan de sauvetage du gouvernement en 1989, environ un tiers des S&L feront faillite entre 1986 et 1995. Cette crise coûtera environ 130 milliards de dollars aux contribuables américains.

1990 : Crise immobilière et bancaire japonaise

Au début des années 1980, le Japon était considéré comme une superpuissance qui s’apprêtait dans les décennies à venir à dominer le globe. Le pays était alors le deuxième pouvoir industriel mondial. La majorité des grandes banques internationales étaient japonaises. Les sociétés nippones achetaient de nombreuses entreprises dans le monde et leur puissance financière impressionnait. En 1986, Mitsui Real Estate Company paya par exemple $625 millions pour le bâtiment d’Exxon à Manatthan, alors que le prix de départ s’élevait à $310 millions.

Quelles conditions permirent à ce pays d’atteindre cette position convoitée ? Dès la fin des années 1970, le Japon se libéralisa. De nombreuses incitations fiscales encouragèrent les entreprises, soutenues par les banques, à investir dans l’immobilier. Les prix de l’immobilier augmentèrent considérablement au cours des années 1980, ce qui participa à l’explosion du cours de l’indice Nikkei. Les entreprises japonaises présentaient en effet des bilans comptables extraordinaires, et la croissance annuelle du crédit dans le pays était à deux chiffres.

Le mécanisme s’emballa, et les banques nippones octroyèrent des crédits immobiliers sans aucun contrôle ; parfois sans même savoir si les terrains étaient constructibles ! Au cours des années 1980, le cours de l’immobilier fut multiplié par 9 et le prix des actions par 6. Pour comprendre à quel point le Japon faisait alors figure de modèle en terme de performance économique, il faut pointer que la valeur du marché des actions japonaises, à la fin des années 1980, valait le double de celle des États-Unis. Après le crash d’Octobre 1987, le Tokyo Stock Exchange fut la seule bourse au monde à ne pas décliner drastiquement.

L’euphorie se répandit sur la chaîne de production japonaise jusqu’en Corée du Sud ou encore à Taiwan. Un boom de l’immobilier eu même lieu à Hawaï, archipel très apprécié des japonais. Une contagion sur les pays du Nord de l’Europe se produisit également. Dans la seconde partie des années 1980, on observa une explosion des prix de l’immobilier en Norvège, en Suède et en Finlande. Ce boom résultait de l’autorisation aux emprunts internationaux par les banques nordiques ; alors qu’au même moment, les autorités nippones levaient les restrictions sur les activités à l’étranger de leurs propres banques.

Toute cette mécanique se grippa au début des années 1990. Un nouveau gouverneur de la banque centrale japonaise fut inquiet de l’augmentation des prix de l’immobilier, songeant que cette dynamique participerait à réduire la cohésion sociale au Japon. Il ordonna donc aux banques de limiter la croissance des crédits immobiliers à la croissance totale des emprunts. Ainsi, les crédits immobiliers passèrent à une croissance de 6% par an contre 30% l’année précédente.

Les investisseurs qui empruntaient pour payer leurs intérêts ou qui avaient besoin de refinancer leur dette firent faillite. La bulle explosa, et de nombreuses fraudes furent révélées. Certaines banques cachaient leurs pertes par de nouveaux emprunts. La propriétaire d’un petit restaurant à Osaka avait emprunté des milliards de dollars à une banque locale, une branche de Sumitomo Bank, car elle entretenait une relation avec le manager. Et certains managers de banques locales et internationales offraient des crédits à des développeurs immobiliers, qui, en retour, rachetaient leurs propres terres. Au total, les pertes subies par les banques japonaises furent d’un montant de plus de 25% du PIB japonais. L’indice Nikkei s’écrasa, passant d’un sommet de 39 000 environ fin 1989 à 14300 en août 1992.

 

1990 : L’effondrement du marché des junk bonds américains

Un junk bond, ou bon à haut rendement, est un bon mal noté par les agences de notation. On parle de junk bond pour une note généralement au-dessous de BBB- ou Baa3. Une fois que la notation d’une entreprise passe au-dessous de ce pallier, les bons qu’elle émet ne peuvent plus être rachetés par un grand nombre d’institutions financières.

Dans les années 1980, Michael Milken de Drexel Burnham Lambert, une banque d’investissement américaine, développa la volonté d’aller contre l’idée du marché. Selon lui, ces junk bonds étaient sous valorisés, et il fallait donc s’y intéresser. Celui qui fut rapidement connu sous le nom de « Junk bond king » conseilla à de nombreux investisseurs et émetteurs de bons de saisir cette opportunité. Les junk bonds gagnèrent rapidement en popularité, et de plus en plus de banques à Wall Street en achetèrent.

DBL souscrivit de nombreux junk bonds au cours des années 1980. L’une des techniques les plus populaires et réussies de Milken fut d’utiliser ces bons pour des rachats agressifs. Avec les junk bonds, DBL permit à ses clients d’acheter des entreprises sans la volonté de l’autre partie. En émettant des junk bonds, les clients de DBL purent emprunter beaucoup de cash avec peu ou pas d’actifs.  Ce mécanisme leur permettait de faire des offres d’achat très attirantes pour l’entreprise visée. En pensant qu’un changement de management rendrait ces cibles plus rentables, l’entreprise acquéreuse utilisait les actifs de la nouvelle entreprise fraîchement acquise afin de payer la dette contractée pour l’acquisition.

Cependant, au début des années 1990, le ralentissement économique mena plus de la moitié des bons émis par les clients de DBL à faire défaut. DBL fit faillite en 1990. Milken effectua par la suite deux ans de prison pour délit d’initié mais il a aujourd’hui une fortune nette estimée à environ 2 milliards de dollars. L’effondrement du marché des junk bonds américains conduira l’économie américaine à une perte de plus de $100 milliards.

 

1997 : Crise de l’immobilier et des actions asiatiques

Compte tenu d’une absence d’opportunités d’investissement au Japon dans les années 1990, les États-Unis et l’Europe se tournèrent vers l’Asie du Sud Est, considérée comme une région prometteuse permettant de produire à bas coût et de manière efficace. Les capitaux y affluèrent rapidement et atteignirent un montant total de $82 milliards entre 1991 et 1996. La Thaïlande, la Malaisie ou encore l’Indonésie étaient perçues comme des économies capables de concurrencer avec succès les tigres asiatiques de l’ancienne génération : Taïwan, la Corée du Sud, Hong Kong ou encore Singapour. Ces pays disposaient d’une politique fiscale attrayante, et ne comptaient aucun précédent de crise financière. La banque mondiale exprimait des avis très positifs sur cette région. Dans un communiqué de 1993, on en parla comme du “East Asian Miracle”.

En 1993, la croissance économique sud-asiatique se matérialisa par le début de la construction des tours jumelles de Kuala Lumpur. La même année, les prix des actions doublèrent dans la plupart des États d’Asie du Sud-Est. Les investissements étrangers entraînèrent un boom de l’immobilier, ce qui permit aux banques locales de prêter à des taux bien plus élevés que ceux dont elles bénéficiaient de la part des banques étrangères.

A la fin de l’année 1996, les banques thaïlandaises commencèrent à essuyer de larges pertes sur leur marché du crédit aux consommateurs. En effet, les emprunteurs ne voulaient plus payer les intérêts, devenus démesurés, ce qui inaugura une perte de confiance. Les crédits et investissements étrangers diminuèrent rapidement. En juillet 1997, la monnaie thaïlandaise se déprécia drastiquement et le pays fit défaut sur sa dette étrangère. Les investisseurs et les banques étrangères eurent alors peur d’une dévaluation similaire dans toute l’Asie du sud-est. De nombreux capitaux quittèrent la région. La roupie indonésienne perdit 80% de sa valeur en un an. Un grand nombre de banques firent faillite. Une crise similaire se répandit en Russie en 1998 puis au Brésil peu de temps après. Le boom immobilier dû à la confiance des investisseurs étrangers dans l’économie locale s’était transformé en une survalorisation de la monnaie locale. Cette situation provoqua une crise financière puis économique lorsque les investisseurs étrangers perdirent confiance.

LA4Lire aussi : Dix ans après la crise : le système financier entre mesure et démesure

La crise islandaise de 2008

L’Islande est un petit pays d’environ 300 000 habitants, devenu indépendant dans le courant du XXème siècle. En 1994, l’Islande rejoignit l’Union Européenne Économique (UEE), ce qui permit à ses banques et autres institutions financières d’ouvrir dans les pays membres des branches et non des filiales. Les activités pouvaient ainsi se développer dans les pays membres de l’UEE sans y apporter de capital.

Les trois banques principales Islandaises : Kaupthing, Landsbanki, et Glitnir profitèrent alors de cette nouvelle opportunité. Elles prêtèrent toutes les trois de manière intensive, dans tous les pays d’Europe du Nord, puis dans tous les pays de l’UEE.

Dans l’objectif d’augmenter la compétitivité des banques islandaises, les régulations islandaises devinrent très flexibles. Elles permirent à ces trois institutions :

  • D’investir dans des secteurs d’activité complètement différents
  • D’investir dans l’immobilier et les entreprises immobilières
  • De prêter de l’argent pour l’achat de leurs propres actions
  • De posséder des parts dans d’autres institutions de crédit

Ces mesures n’étaient pas requises par les directives européennes, mais furent décidées par les législateurs islandais. Entre 2004 et 2007, les trois plus grandes banques islandaises présentèrent une croissance annuelle entre 36% et 66%.

Les banques islandaises attirèrent de plus en plus d’épargnants européens. Le volume de la clientèle anglaise de la banque Lansbanki passa de 0 en octobre 2006 à 4,4 milliards de pounds en octobre 2007. L’offre bancaire islandaise convainquit en deux ans plus de 300 000 clients en Angleterre, et plus de 125 000 clients hollandais en 5 mois. Les taux qu’offraient ces banques surpassaient le reste du marché de l’époque. Pour financer leur expansion, les banques islandaises émirent énormément de bons jusqu’à ce que la situation dégénère et que la valeur totale des actifs de ces banques dépasse la valeur du PIB de l’Islande. Or, en cas d’impossibilité de paiement, c’est l’État ainsi que la banque centrale qui font office de prêteur de dernier recours.

En 2008, la crise des subprimes contamina les places financières du monde entier, et l’Islande ne fut pas épargnée. Les banques du pays virent leur note baisser considérablement, et se retrouvèrent dans l’incapacité d’émettre davantage de bons. Les dettes ne purent être remboursées et les institutions financières islandaises furent alors nationalisées. Cette situation déclencha une crise internationale car les clients européens de ces banques se trouvèrent dans l’incapacité de récupérer leur dû. Pendant plusieurs années, certains clients ne purent accéder à leurs comptes et cela contribua à alimenter une crise diplomatique entre l’Islande et les pays de l’UEE. L’Islande et ses banques n’ont pu à nouveau avoir accès au marché international des bons qu’à partir de 2015.

 

D’une bulle à une autre, un cycle de crises financières

Comprendre et expliquer les crises financières, et en particulier leurs causes fait débat parmi les économistes, historiens et financiers qui s’y intéressent.

Pourquoi les marchés s’emballent-ils ? Est-ce à cause de l’opacité des régulations économiques de certains pays ? Est-ce le manque de transparence de la méthode comptable employée pour les bilans des sociétés ? Est-ce la diversité des acteurs et des produits financiers qui empêche l’anticipation d’une crise ? Est-ce la libéralisation ou la déréglementation systématique de l’économie qui sont en cause ? Peut-on parler de gouvernances monétaires inefficaces et obsolètes ?

Le secteur financier et économique est un monde d’initiés, mais l’histoire des crises financières nous permet de dessiner les grands traits du mécanisme d’une bulle financière. Les prix augmentent, le volume de crédits croît et entraîne un gonflement des achats… qui contribuent à augmenter les prix. Cela participe à la croissance économique du pays et donc à l’attraction de capitaux étrangers. Le manque de régulation ainsi que le caractère gourmand du monde financier participent à stimuler et dynamiser l’ensemble de la mécanique. L’intérêt suscité par une idée partagée par un grand nombre contribue également à mettre sous tension ce système.

Mais pourquoi ces bulles sont-elles si attractives ? Parce que chaque investisseur, bien qu’ayant conscience de la survalorisation d’un indice boursier, désire prendre le train avant qu’il ne soit trop tard. Une bulle permet bien de faire du profit au travers de transactions sur une période déterminée. L’investisseur rationnel saisit cette opportunité.

 

Pour aller plus loin

Olivier Lacoste, Les crises financières histoire mécanismes et enjeux, Eyrolles 2009

Christian Chavagneux, Une brève histoire des crises financières Des tulipes aux subprimes, La découverte 2011

Problèmes économiques, comprendre les crises économiques, numéro 2 La documentation française novembre 2012

Alya Aglan, Michel Margairaz et Philippe Verheyde, Crises financières, crises politiques en Europe dans le second XIXème siècle, La caisse des dépôts et des consignations, Droz 2011

Tomas Piketty, Le Capital au XXIème siècle, Éditions du Seuil 2013

 

Arthur Ribes, étudiant à Sciences Po et contributeur du blog AlumnEye

 


Le rôle des agences de notation

Moody’s, Standard & Poor’s ou encore Fitch Ratings, ces agences de notation financière ont joué un rôle majeur dans les dernières crises monétaires et financières. Celles-ci ont pour vocation d’évaluer le risque de solvabilité d’une entreprise, d’un Etat ou d’une collectivité locale. Depuis les années 1980, ces agences sont devenues des indices de référence aussi bien pour les émetteurs que les investisseurs. Elles influencent donc directement l’avenir des Etats et des entreprises notées, ainsi que le comportement des investisseurs institutionnels. Pourtant, leur réputation est aujourd’hui menacée, leurs méthodes de calcul comme leur rôle sont régulièrement contestés. Dans ce contexte, il apparaît d’autant plus important de décrypter leur système de notation, ses implications et plus globalement le rôle de ces agences.

 

Les grandes agences de notation

Le marché des agences de notation est oligopolistique : trois agences (Moody’s, Standard & Poor’s, Fitch Ratings) seulement se partagent 95% des demandes de notation mondiales. Ce pouvoir de marché est régulièrement contesté puisque ces trois agences sont américaines. Dans les années 2010, des agences non-américaines ont aussi commencé à syndiquer, tentant de former un front alternatif au « Big Three ». L’agence de notation chinoise Dagong Global Credit Rating, fondée en 1994, matérialise cette contestation du leadership américain absolument stratégique.

Standard & Poor’s (S&P) : fondée en 1860, S&P constitue la première agence de notation de l’histoire. Il s’agit désormais d’une filiale de l’entité S&P Global, détenue principalement par des fonds de pension et d’investissement américains. Elle est notamment connue sur le marché américain pour son indice boursier S&P 500. En 2011, l’agence a abaissé la note de la dette publique américaine de « AAA » à « AA+ », une première historique depuis 1917. Néanmoins, cette analyse reposait grandement sur une projection de deux mille milliards de dollars de dette, comptabilisée deux fois par erreur. La crédibilité de l’agence a été également contestée par la notation trompeuse de produits financiers toxiques au moment de la crise des subprimes. Elle reste néanmoins une référence.

Moody’s : l’agence de notation, fondée en 1909 par John Moody (ancien journaliste financier), s’est montrée plusieurs fois novatrice sur le plan de la notation. Aujourd’hui détenue à 13,1% par Berkshire Hathaway, une société d’investissement américaine, elle se compose de Moody’s Analytics (fournisseur de solutions de gestion de risques) et Moody’s Investors Service (analyse d’entreprises commerciales, de sociétés et organismes publics). Elle a été la première à introduire des symboles et des lettres dans sa notation. Avec S&P, Moody’s représente environ 80% du marché des notations. A certains égards, l’oligopole est donc un duopole.

Fitch Ratings : créée en 1913 par John Knowles Fitch, alors sous le nom de Fitch Publishing Company. En 1997, elle fusionne avec IBCA Limited, et passe alors sous le contrôle du holding français Fimalac. Néanmoins en 2006, Fimalac cède 20% du capital au groupe américain Hearst corporation. En 2014, Hearst détient 80% de Fitch Ratings, les 20% du capital restant appartenant encore au holding Fimalac. Son système de notation financière est proche de celui de S&P.

Dagong Global Credit Rating : créée en 1994, l’agence Dagong souhaitait contester le monopole américain sur les agences de notation. Guan Jianzhong, son président et directeur, a déclaré avoir une « mission historique » : réformer les méthodes de notation des agences et mettre fin au « Big Three ». Dagong est principalement connue pour attribuer une note plus faible à la dette souveraine américaine (« A » depuis le 3 août 2011). L’agence demeure en conflit avec la Securities and Exchange Commission (SEC), qui accorde les accréditations aux agences, et a refusé sa demande en octobre 2010. Certains analystes contestent ses méthodes et son manque de transparence. Dagong s’est néanmoins montré précurseur à quelques reprises, par exemple dans le cas français. L’agence a diminué la note de la France en 2010, avant que les autres agences ne le fassent un an plus tard.

LA4Lire aussi : Le Sovereign Advisory en pleine mutation ?

 

Le processus de notation

Auparavant, les agences de notation étaient financées par les investisseurs afin d’obtenir les notes des émetteurs. Aujourd’hui, c’est l’émetteur souhaitant être noté qui rémunère l’agence de notation. Lorsque la notation n’est pas sollicitée, celle-ci est basée sur des informations publiques. A l’inverse dans la notation demandée, l’agence collecte des informations et organise des entretiens afin de fiabiliser ces informations. Le processus global qui accompagne une notation est relativement commun et partagé par les différentes agences. Celui-ci est notamment exprimé par S&P Ratings services dans sa note « le processus de notation et le suivi des notes ». Une fois que la décision du comité de notation a été prise et communiquée à l’émetteur, celui-ci peut faire un appel de la décision, avant la publication d’un communiqué synthétique. En revanche, la méthode précise de notation et les critères de notation diffèrent davantage. Comme le suggère l’économiste François Gilbart : « les agences de notation ne communiquent traditionnellement pas leur modèle d’évaluation afin d’en conserver le monopole ».

 

Source : « Le processus de notation et le suivi des notes », Standard&Poor’s Ratings Services

 

Les critères de notation varient selon les agences, mais surtout selon les secteurs. En effet le risque de non-remboursement s’appréhende différemment dans le secteur bancaire, assurantiel ou étatique. Pour établir un rating souverain (niveau de solvabilité d’un État), les agences de notation s’intéressent à trois grands critères : la solvabilité (souvent mesurée par le ratio dette extérieure totale/PIB), la soutenabilité (maîtrise de l’évolution du poids de la dette) et la liquidité (capacité d’un point de vue de la trésorerie). D’après les travaux de S&P, le rating souverain s’appuie sur cinq piliers : économique, institutionnel, extérieur, budgétaire et monétaire. Les facteurs économiques et institutionnels permettent d’établir un « profil économique et institutionnel ». Les facteurs extérieurs, budgétaires et monétaires, permettent d’établir un « profil de flexibilité et de performance ». Ces deux profils permettent d’aboutir à un niveau indicatif de la note d’un Etat.

Pour prendre un autre secteur majeur, les agences ont par exemple revu leur méthode de notation bancaire suite à la crise de 2008. D’après une note publiée par Moody’s Investor Service, cette notation se décompose en plusieurs aspects :

  • Une évaluation de la solidité intrinsèque de la banque dite « Baseline Credit Assessment », appuyée sur le profil macroéconomique (macro profile), les ratios de solvabilité et de liquidité qui forment le profil financier (financial profile) et des indicateurs plus qualitatifs (qualitative adjustments) ;
  • Un ajustement de la « Baseline Credit Assessment » avec les potentiels soutiens affiliés à la banque ;
  • Une analyse « Loss Given Failure (LGF) » qui détermine les risques des pertes en cas de défaillance ;
  • Une évaluation du soutien potentiel de la part du gouvernement, qui impacte également le risque de défaut.

Les secteurs souverains et bancaires révèlent les divergences d’évaluation entre chacun d’entre eux. L’objectif de la notation reste néanmoins le même : évaluer le risque de défaut. Ce risque est apprécié au regard de la situation économique d’ensemble, des soutiens potentiels mais également des risques encourus pour l’investisseur dans le cas de défauts potentiels. Les notes des agences vont de A à D, avec des échelons intermédiaires selon les agences.

 

Source : « Overall approach to rating bank instruments », Moody’s Investor Service

 

En théorie, la notation n’a pas pour but d’impacter les marchés financiers, néanmoins une dégradation de la note est pratiquement systématiquement suivie d’une baisse du cours du titre visé. Dans le cadre d’une entreprise cherchant à se financer, plus la note est élevée et plus celle-ci bénéficie de conditions de financement favorables, par le biais d’obligations ou d’un refinancement sur le marché bancaire. La note n’est pas figée et peut évoluer tout le long de la vie d’un actif, bien que ces notations demeurent une estimation du risque de solvabilité et non des recommandations d’achat ou de vente.

 

Synthèse des notations des différentes agences

 

    ENTRETIEN EN FINANCE : PRÉPARE LES BRAINTEASERS

Découvre gratuitement les Brainteasers posés en entretien avec les réponses détaillées par un pro de la finance.

 

Une indépendance et des méthodes de calcul contestées

Les agences de notation sont néanmoins extrêmement contestées sur le plan de leurs méthodes de notation, mais aussi au niveau de leur indépendance. Une agence est employée par l’acteur de marché qui souhaite être noté ; elles sont donc dépendantes de leurs émetteurs puisque la rémunération fournie leur est indispensable afin de poursuivre leur activité. De surcroît, les agences sont souvent accusées d’effectuer des activités de conseil en parallèle de leur activité de notation, autre problématique de conflit d’intérêt potentiel. Elles peuvent fournir par exemple des services auxiliaires comme la « pré-notation », qui consiste à informer une entreprise de l’impact qu’aurait une opération sur sa notation (par exemple une fusion-acquisition). Cette « pré-notation » s’apparente à des égards à une activité de conseil, bien que les agences s’en défendent, la pratique étant en effet interdite. La critique majeure demeure sur le principe de l’émetteur-payeur. Le marché croît en l’indépendance des agences, car il part du principe qu’une agence doit préserver sa bonne réputation. Néanmoins, ce principe de réputation est en vérité peu applicable, comme le soulève Kenneth C. Kettering, chercheur à l’American Law Institute. En effet, ces dernières années la réputation des agences de notation s’est détériorée, mais pas leur chiffre d’affaires. Dans le cadre de la crise des subprimes, les agences de notation ont survalorisé des produits structurés.

Or, si elles avaient refusé d’attribuer une bonne notation à ces produits structurés, les agences de notation auraient sans doute perdu bien davantage de clients et de revenus qu’en leur donnant une notation plus mesurée, pourtant plus favorable à leur réputation de moyen et long terme. L’économiste américain Paul Krugman révèle même en 2009 que des messages internes chez Standard and Poor’s expliquent qu’il faut organiser une réunion pour « ajuster les critères de notation » afin d’évaluer des titres hypothécaires « à cause de la menace actuelle de perdre des contrats », lorsqu’un autre message demande que les notes sur les produits financiers subprimes « soient adoucies pour préserver les parts de marchés de l’agence ». En d’autres termes, les agences sont alors incitées à surévaluer positivement les produits financiers subprimes afin de maintenir leurs parts de marché.

La problématique de l’indépendance des agences de notation est donc manifeste. Les agences de notation ont également des difficultés à évaluer avec précision des opérations financières dont la complexité est croissante. Au moment de la bulle internet, les notes attribuées étaient extrêmement positives et incitaient à l’achat. C’est seulement en juin 2002, alors que les indices boursiers avaient déjà perdu 40% en deux ans, que les agences ont commencé à baisser leurs notes des entreprises cotées. Les agences de notation n’ont pratiquement jamais réussi à anticiper les crises, et au contraire modifient leurs notes à retardement. Les mécanismes inhérents à une crise financière (anticipations auto-réalisatrices, surréaction, mimétisme rationnel) sont d’ailleurs très complexes à intégrer à la notation. A l’inverse les actions des agences de notation peuvent avoir par la suite des conséquences procycliques, à l’image de la détérioration de la note d’un Etat dans une situation déjà difficile. Enfin, plusieurs scandales ont nettement porté atteinte à la crédibilité des agences. En 2012, S&P a par exemple été condamnée par la justice australienne en raison des notations trompeuses sur des produits financiers toxiques.

LA4Lire aussi : Le rating souverain : une mesure pertinente du risque des Etats ?

 

Les agences de notation et les dernières crises financières

Ce discrédit trouve principalement son origine dans les dernières crises financières. Les produits structurés liés à la titrisation et aux dérivés de crédit ont joué un rôle majeur dans la crise de 2008. Dans son ouvrage « La crise : Pourquoi en est-on arrivé là ? Comment en sortir ? », l’économiste hétérodoxe Michel Aglietta développe : « Dans le cas des crédits titrisés, les agences de notation notent et sont en même temps parties prenantes de la titrisation. La constitution du produit et la notation sont complètement imbriquées. Sans la notation, le titre n’a pas d’existence ». En notant « AAA » ce type d’opération financière, les agences de notation ont sous-évalué le risque encouru par les investisseurs et ont contribué à la formation d’une bulle de crédit. Elles ont d’abord refusé de dégrader les notes des émetteurs qui apparaissaient déjà peu solvables, mais elles ont ensuite brutalement baissé leurs notes, ce qui a aggravé la crise systémique. Dans un premier temps au moins, les agences n’ont ainsi pas joué leur rôle qui consiste à évaluer le risque réel de défaut. La crise grecque a également été symptomatique. Malgré les difficultés de la Grèce et les scandales, Standard & Poor’s a mis plus de trois mois à abaisser la note. La dégradation de la note souveraine est au contraire à l’origine de l’aggravation de la crise systémique. Les agences de notation ont donc le défaut majeur d’alimenter la spéculation sur le marché financier, alors qu’elles ne peuvent en contenir tous les effets. En 2009, Jean-Pierre Jouyet, Président de l’Autorité des Marchés Financiers l’affirmait, selon lui les agences de notation ont eu « une part de responsabilité dans la crise ». Dans un rapport au Sénat « Agences de notation, une profession réglementée » émis en juin 2012, plusieurs propositions étaient faites afin d’améliorer les mécanismes existants. Afin de contrer ce décalage temporel et éviter la volatilité des notations, les sénateurs proposaient d’instaurer une obligation pour les agences de mettre en place un calendrier de publication des notations souveraines à date fixe, transparent et déterminé à l’avance. Si cette proposition apparaît d’une trop grande rigidité, on observe bien les risques spéculatifs posés par les agences de notation.

 

Quel avenir pour les agences de notation ?

Malgré ces déboires, les agences de notation restent des acteurs fondamentaux dans l’évaluation de la solvabilité. Leur fin ne peut être à l’ordre du jour, néanmoins on peut envisager davantage de concurrence pour les agences dominantes, ou encore une évolution de la réglementation. De leur côté, les agences tentent de mettre en place plus de transparence sur leurs méthodes de notation afin de préserver leur crédibilité. En 2004, la réglementation bancaire des accords Bâle II a autorisé les banques à avoir recours aux agences de notation afin de déterminer leur juste niveau de fonds propres. Pour pouvoir utiliser le rating d’un organisme externe, celui-ci doit être agréé par une agence d’évaluation indépendante et ainsi remplir six critères fondamentaux :

  • La transparence : les notes doivent être accessibles (pas forcément gratuitement) à tous ;
  • L’indépendance : elles ne doivent pas être des institutions publiques, ni compter des banques dans leur actionnariat ;
  • L’objectivité : des méthodes de notation rigoureuses, systématiques et pertinentes ;
  • Un niveau de ressources suffisant pour mener à bien ses missions ;
  • L’information du public ;
  • Une forte crédibilité.

Même si ces critères sont forts et ne favorisent d’ailleurs pas l’émergence de nouveaux acteurs, ils ne sont pas apparus suffisants au moment des dernières crises financières. On pourrait alors imaginer différents modèles alternatifs, comme le retour du système de l’investisseur-payeur en lieu et place de celui de l’émetteur-payeur. Pour plus d’indépendance, la création d’agences de notation publiques a aussi été envisagée mais dans ce cas la collusion avec les gouvernements serait également problématique. Enfin, des chercheurs ont défendu l’interposition d’un tiers indépendant dans la procédure de notation, comme l’Agence des Marchés Financiers (AMF) en France ou la Securities and Exchange Commission (SEC) aux Etats-Unis.

 

Les agences de notation évaluent strictement les risques financiers, elles se limitent donc à des indicateurs dans ce domaine. A l’avenir, on pourrait néanmoins envisager une prise en compte croissante de critères sociaux ou environnementaux, critères habituellement retenus par les agences de notation sociétales. Le réchauffement climatique comporte en effet des risques majeurs, à court comme à long terme, ayant également des impacts sur le plan de la solvabilité. La réforme des agences de notation pourrait donc intervenir de l’extérieur, mais se fait également de l’intérieur. Dans le contexte de la crise économique du Covid-19, les agences ont modifié leur notation en conséquence. Il est possible de le constater sur le plan de la dette souveraine, avec les réajustements des notes britanniques, italiennes ou encore sud-africaines, ou encore les high yield bonds. Steven Maijoor, président de l’ESMA (l’autorité de supervision des marchés financiers) a néanmoins suggéré que le « calendrier des annonces devait être soigneusement calibré ». En abaissant trop rapidement la notation des entreprises et des pays en difficulté, les agences pourraient en effet renforcer la récession liée au Covid-19. Par ce propos, il souligne bien les risques qui entourent l’action des agences de notation, particulièrement en période de crise. L’épisode du coronavirus semble pour l’heure montrer que l’intervention des agences peut conserver toute son utilité, à condition d’en maîtriser les effets pervers.

 

Nathan Granier, étudiant à l’ESCP Europe et contributeur du blog AlumnEye

 


De Blockchain à Holochain : vers une décentralisation complète d’Internet ?

La technologie de Blockchain portait de grosses ambitions pour décentraliser le système monétaire internationale lors de son apparition en 2008. Certains la voyaient même devenir le troisième pilier d’internet après l’invention de l’ordinateur et des smartphones, et son principe majeur de décentralisation a dépassé le périmètre des transactions financières pour atteindre une multitude d’autres domaines déjà existants. Mais la Blockchain est loin d’être une technologie parfaite et elle présente deux défauts principaux qui l’empêcheront certainement de devenir un succès mondial en l’absence d’améliorations : le nombre limité de transactions possibles par minute et l’énorme consommation d’énergie nécessaire au fonctionnement du réseau. Une nouvelle technologie appelée Holochain a récemment fait son apparition pour remédier à ces deux faiblesses, et vient avec des ambitions encore plus titanesques que celles de la Blockchain : décentraliser l’entièreté du réseau internet !

 

Introduction au Bitcoin et à la Blockchain

L’histoire du Bitcoin remonte au 31 octobre 2008 quand un personnage mystérieux, sous le pseudonyme de Satoshi Nakamoto, a révélé pour la première fois au monde l’existence du Bitcoin. Dans un article intitulé « Bitcoin : A peer-to-peer electronic cash system » et publié sur une liste de diffusion secrète, Satoshi décrit un système de transaction entre individus qui repose uniquement sur le calcul cryptographique et non sur la confiance. Le 3 janvier 2009, Satoshi a donné naissance au Bitcoin en minant le bloc de genèse qui a généré 50 Bitcoins pour le créateur. 9 ans plus tard, le 17 décembre 2017, le Bitcoin s’échange partout dans le monde à un prix record de 19 891 dollars l’unité, avec une capitalisation boursière mondiale de 334 milliards de dollars, légèrement supérieure à celle de la banque universelle J.P. Morgan Chase & Co à l’époque. Alors comment un instrument dépourvu d’existence physique peut-il atteindre des prix aussi exorbitants ? Et qu’y a-t-il de si spécial derrière la technologie de Blockchain pour pousser les experts à appeler Bitcoin « l’or numérique » ?

Le Bitcoin est ce que l’on appelle une cryptomonnaie ou une monnaie numérique ; c’est la plus célèbre d’entre elles. Ce n’est rien d’autre qu’une chaîne de signatures numériques ou, dans le langage informatique, une chaîne de bits (0 et 1) dont l’exactitude a été prouvée par une majorité d’utilisateurs d’un réseau « pair-à-pair ». Cette notion de pair-à-pair (peer-to-peer) est au cœur même des motivations derrière les cryptomonnaies. L’une des principales idées présentées par Satoshi dans ses premiers travaux était d’évincer les institutions financières du paysage des transactions financières et de fournir aux individus un moyen d’échanger de l’argent de manière indépendante. Cela signifiait que la communauté mondiale devait remplacer la confiance qu’elle avait dans les institutions financières pour éviter le chaos dans l’économie avec un autre outil. Cet outil réside dans la cryptographie selon Satoshi et il est encore plus puissant qu’un concept abstrait tel que la confiance. C’est là que la technologie de Blockchain, ou chaîne de blocs en français, devient nécessaire. Concrètement, la Blockchain, en tant que chaîne de blocs, est composée de blocs qui forment une chaîne. Voilà ! Plus sérieusement, il s’agit d’une base de données distribuée et sécurisée. La Blockchain sert donc à stocker de l’information de manière « distribuée ». C’est à dire que là où les bases de données traditionnelles, qui sont pour la plupart centralisées, nécessitent d’adresser une requête vers un serveur qui contient toutes les données pour obtenir ou modifier une information, la Blockchain va elle stocker des blocs d’information distribués sur les serveurs de plusieurs de ses utilisateurs.

 

Comment faire pour échanger des Bitcoins ?

Pour que deux personnes puissent effectuer une transaction, le propriétaire doit signer numériquement un hachage (valeur renvoyée par une fonction de hachage, qui est utilisée en cryptographie pour transformer des données de taille arbitraire en données cryptées de taille fixe) de la transaction précédente (celle où il a acquis le Bitcoin) et ajouter une clé publique du prochain propriétaire à la fin de la pièce. C’est ainsi qu’un Bitcoin garde la trace de tous ses propriétaires précédents et l’ordre exact de propriété. Néanmoins, un premier problème majeur surgit. Il s’agit de ce que Satoshi appelle le problème de la double dépense (double-spending problem), qui est contrôlé dans la vie réelle par les banques. Comment empêcher un propriétaire de Bitcoin de signer une transaction avec deux personnes simultanément, et donc de dépenser deux Bitcoins alors qu’il n’en possède qu’un seul ? La solution à ce problème est de révéler publiquement chaque transaction, mais aussi de faire adhérer tout le réseau à la même chronologie afin que les individus s’accordent sur un ordre global de l’historique des transactions. Un serveur d’horodatage (mécanisme consistant à associer une date et une heure à un événement, une information ou une donnée informatique) est utilisé pour conserver cet ordre en prenant un hachage d’un bloc et en l’annonçant publiquement, ce qui prouve que les données de ce bloc existaient bel et bien à ce moment précis. Chaque horodatage inclut ceux qui le précèdent, formant ainsi une chaîne. Ce procédé permet d’éviter qu’un utilisateur malhonnête ne dépense deux fois son Bitcoin, car la deuxième transaction aurait un horodatage ultérieur et serait considérée comme frauduleuse par le réseau.

LA4Lire aussi : Blockchain, crypto, ICO : au-delà du buzz

 

Blockchain : un socle solide contre les attaques

Cette preuve cryptographique, ou preuve de travail (Proof of Work), est ce qui garantit l’exactitude des transactions et évite le chaos et la fraude au sein du réseau. Néanmoins, cette preuve de travail nécessite une puissance de calcul pour résoudre des problèmes mathématiques, et la puissance nécessaire augmente avec la taille de la Blockchain et donc avec le nombre de transactions. Concrètement, il existe un casse-tête mathématique de nature cryptographique qui doit être résolu pour qu’un bloc puisse être validé. La réponse est ensuite transmise au destinataire qui vérifie si elle est correcte pour valider la transaction. C’est le fameux processus de minage qui est à l’origine de l’énorme consommation d’énergie de la technologie de Blockchain. Chaque mineur tente de résoudre un problème mathématique et le premier à réussir annonce publiquement les résultats. Ces blocs résolus sont ajoutés à des chaînes chronologiquement ordonnées et la plus longue d’entre elles est considérée comme la bonne chaîne de blocs. Il est donc presque impossible pour un groupe de personnes malhonnêtes de pirater la Blockchain car elles devraient contrôler collectivement plus de puissance de calcul (CPU power) que la communauté honnête du réseau. Ils doivent également refaire toutes les solutions mathématiques nécessaires pour créer leur propre version frauduleuse de la Blockchain, et dépasser la longueur de la véritable chaîne pour convaincre le réseau que leur Blockchain est la bonne. Dans le 11ème chapitre de son article, Satoshi apporte la preuve mathématique qu’un utilisateur frauduleux ne pourrait presque jamais fournir une chaîne de blocs alternative plus rapidement que les utilisateurs honnêtes. Il représente la course entre les utilisateurs honnêtes et les utilisateurs malhonnêtes pour créer la plus longue chaîne de blocs comme une marche aléatoire binomiale, et il prouve que la probabilité de succès de l’attaquant diminue de manière exponentielle à mesure que le nombre de blocs qu’il doit rattraper augmente, ce qui rend le réseau très robuste contre les attaques.

Nous n’avons pas encore abordé la motivation des nœuds du réseau à faire la preuve de travail. En effet, pourquoi un utilisateur sacrifierait-il son temps et la puissance de son ordinateur pour valider une transaction dans laquelle il n’a absolument aucun intérêt ? Pour résoudre ce problème, Satoshi a pensé à récompenser les mineurs qui réussissent avec de nouveaux Bitcoins (ou frais de transaction) créés spécialement pour l’occasion. Cette solution sert également à maintenir l’honnêteté des utilisateurs ; un pirate informatique qui réussirait à contrôler un nombre important de nœuds au sein du réseau utiliserait naturellement cette puissance de calcul pour la preuve de travail et générerait de nouvelles pièces pour lui-même plutôt que d’essayer d’attaquer le système.

 

Source : Contact Distance

 

Les limites de la Blockchain

Voici donc un résumé des différentes étapes nécessaires au fonctionnement du réseau : tout d’abord, une nouvelle transaction est diffusée à tous les nœuds (ordinateurs) du réseau. Chaque nœud rassemble les nouvelles transactions dans un bloc et tente ensuite de résoudre un puzzle mathématique difficile qui représente la preuve de travail. Le premier nœud à trouver une solution partage son bloc avec tous les nœuds du réseau qui ne l’acceptent que si toutes les transactions de ce bloc sont valables, puis l’ajoute à la chaîne existante.

L’analyse menée précédemment montre les plus grands atouts du Bitcoin et de la Blockchain, et comment cette technologie peut révolutionner non seulement le secteur financier mais aussi presque tous les autres secteurs. Néanmoins, il est difficile de croire en sa capacité à décentraliser le secteur financier et à dépasser notre dépendance vis-à-vis des institutions centrales pour diverses raisons.

 

Une transparence très coûteuse en temps et énergie

Le premier obstacle majeur surgit des fondements du consensus mondial qui maintient le réseau opérationnel. En effet, la Blockchain exige un consensus de la majorité des nœuds du réseau sur chaque transaction qui a eu lieu. Elle exige également la tenue d’une grande chaîne mondiale dont chaque copie doit être exactement la même. Ce processus est extrêmement gourmand en temps et en énergie. Le minage du Bitcoin consomme actuellement environ 71TWh par an, ce qui le place au 39ème rang en termes de consommation d’énergie si c’était un pays ! On estime que le réseau utilise actuellement environ 1% de la consommation mondiale d’énergie pour alimenter moins de 0,001% des actifs financiers mondiaux. Ces exigences de traitement constituent également un obstacle énorme qui limite le nombre possible de transactions par minute et donc la scalabilité de l’ensemble du réseau et sa capacité à servir une communauté mondiale. Le réseau de la Blockchain peut actuellement traiter entre 3 et 7 transactions par seconde. Si l’on prend comme référence le système de paiement VISA, qui peut en traiter 2 000 par seconde (25 000 théoriquement à son pic), nous pouvons facilement constater que le Bitcoin est loin de remplacer les systèmes de paiement existants.

 

    TÉLÉCHARGE LE GUIDE DE LA FINANCE GRATUITEMENT

Rédigé par des pro, ce guide décrit les métiers de la finance et t'aidera à y voir + clair dans ton orientation !

 

Euh, on avait dit décentralisation !

Un autre problème qui s’est imposé avec le temps est la centralisation continue du réseau, qui est en contradiction avec l’essence même du principe de base de décentralisation de la Blockchain. Environ 73% du processus de minage est actuellement réalisé par cinq mineurs, 71-75% est miné en Chine en raison des bas prix de l’électricité, et presque tout le réseau fonctionne sur le service de Cloud d’Amazon (Amazon Web Service). Cela rend le réseau très dépendant de chacun de ces acteurs qui peuvent l’influencer à tout moment. En outre, tout comme le modèle capitaliste actuel, les 0,5% des détenteurs de Bitcoins les plus importants possèdent plus de 87% de tous les Bitcoins en circulation.

 

À 36 ans, les frères Winklevoss sont devenus les premiers milliardaires et les figures de proue de l’univers des cryptomonnaies. Il s’agit des mêmes jumeaux derrière le fameux procès accusant Mark Zuckerberg de leur avoir volé l’idée de Facebook !

Source : Vanity Fair

 

Tous ces défauts constituent un vrai frein pour la technologie de Blockchain et son ambition de décentraliser entièrement l’industrie financière. C’est là où la Holochain rentre en jeu avec des ambitions encore plus audacieuses : la décentralisation d’Internet ! Tout d’abord, pourquoi le réseau Internet aurait-il besoin d’être décentralisé ? N’est-ce pas déjà le cas avec l’absence d’organe central qui le contrôle ? De plus, si nous venons de montrer que la Blockchain, avec toute sa complexité, ne pouvait même pas gérer toute l’industrie financière, comment une autre technologie va-t-elle s’attaquer à l’ensemble de ce qui se passe sur Internet ?

 

Source : Bit Conseil

 

Holochain, le futur d’Internet ?

Il est nécessaire de préciser que la technologie n’en est qu’à ses débuts. Les premiers articles présentant le système ont été publiés en 2017, même si l’équipe affirme que son idée est née avant 2008 et la création du Bitcoin. Elle s’appelle Holochain et cette fois-ci, ses inventeurs sont connus : Arthur Brock et Eric Harris-Braun. L’idée derrière leur projet est absolument fascinante et dépasse le stade purement théorique d’après leur code source et les premières applications qu’ils ont créées. Son architecture s’inspire de la nature et des principes organisationnels des systèmes vivants. Si Blockchain exige un consensus sur tous les blocs qui ont été créés, Holochain, elle, définit un consensus sur la façon de les créer. Elle établit uniquement des protocoles de communication entre les nœuds du réseau, tout en les laissant interagir librement les uns avec les autres sans qu’il soit nécessaire d’obtenir un consensus global sur chaque transaction. L’idée est inspirée des cellules qui forment le corps humain ; il n’existe pas de cellule centrale qui contrôle toutes les autres, mais plutôt le même ensemble d’ADN qui permet à chaque cellule d’agir indépendamment tout en respectant les caractéristiques du corps. Un autre exemple peut être donné par le langage que nous utilisons tous les jours. Il n’existe pas de base de données qui contienne l’ensemble des phrases que nous pouvons utiliser. Nous disposons plutôt d’un dictionnaire de mots existants et d’un ensemble de règles de grammaire pour permettre à chacun de parler et de se faire comprendre. Ce système évite d’avoir besoin d’une phrase absolue, ou d’une chaîne absolue dans le cas de Blockchain, sur laquelle tous les utilisateurs doivent se mettre d’accord, car la même phrase peut être communiquée d’une dizaine de manières différentes qui sont toutes correctes.

Ainsi, avec Holochain, chaque agent et chaque nœud du réseau possèdent les règles communes de fonctionnement : le code source de l’application distribuée, appelé Nucleus. En consultant son exemplaire du Nucleus, le nœud peut vérifier la validité des informations qu’il reçoit des autres nœuds (les signaux). Si l’information est valide, le nœud va la stocker et la propager à son tour à ses voisins (gossip), et seules les données intègres circulent sur le réseau. Il est important de noter aussi que contrairement à la Blockchain, où le stockage de l’information est fait d’un point de vue objectif de la donnée (data-centric), il est fait d’un point de vue subjectif de chaque agent (agent-centric) dans le cas de Holochain.

LA4Lire aussi : Blockchain : les entreprises sont-elles prêtes ?

 

Rendre le pouvoir des données au peuple !

Tout d’abord, il convient de se demander s’il est nécessaire de décentraliser le réseau Internet. Les géants technologiques connus sous le nom de GAFA (Google, Apple, Facebook, Amazon) sont connus pour la portée de leurs pouvoirs et de leurs richesses. Une grande partie de leur force provient des énormes ensembles de bases de données contenant toutes les informations personnelles des utilisateurs qu’ils exploitent. Facebook contrôle plus de 80% des réseaux sociaux du monde entier, tandis que le moteur de recherche de Google est l’outil privilégié de plus de 90% d’entre nous, et plus de 50% des données du Cloud sont hébergées chez AWS (Amazon). Il va sans dire que cette situation est problématique pour les internautes réguliers qui n’ont absolument aucun contrôle sur leurs données, qui peuvent facilement être manipulées comme dans le fameux incident de Cambridge Analytica pour Facebook.

Holochain propose donc de remédier à ce problème, et afin de gérer un domaine aussi énorme qu’Internet, elle fusionne le meilleur d’entre trois technologies : Blockchain, BitTorrent et GitHub. Si BitTorrent est souvent synonyme d’illégal en raison du piratage de contenu facilité par cette méthode, c’est avant tout un protocole de communication pour le partage de fichiers en pair-à-pair (P2P) qui est utilisé pour distribuer des données et des fichiers électroniques sur Internet. On estime qu’il était responsable en 2013 de 3,4% de la bande passante mondiale, ce qui représente plus de la moitié de la bande passante totale consacrée au partage de fichiers. Holochain s’inspire de BitTorrent en utilisant les bases de données distribuées et encodées (Distributed Hash Tables). La différence majeure entre BitTorrent et Holochain est que les fichiers échangés dans le premier sont statiques (films), alors que le deuxième permet d’échanger des données dynamiques, typiquement, la base de données d’une application web qui évolue chaque jour (comme Facebook ou Uber). Dans le réseau Holochain, chaque nœud gère sa propre chaîne sans qu’il soit nécessaire de copier la grande chaîne mondiale. Cette méthode s’inspire de GitHub et de la façon dont elle permet aux développeurs de travailler ensemble sur un même projet, tout en permettant à chacun de développer son code source indépendamment dans sa branche. Enfin, à partir de la technologie Blockchain, Holochain s’inspire du stockage sécurisé des données sans avoir recours à des serveurs centraux.

En combinant ces trois technologies, Holochain utilise quatre principes de base pour résoudre les problèmes détaillés plus tôt :

  1. Des applications scalables
  2. Hébergement d’applications P2P pour des utilisateurs ordinaires
  3. Crypto-comptabilité à double entrée
  4. Exploitation des capacités excédentaires en utilisant les principes de l’économie de partage

Dans son Green Paper, l’équipe du projet définit la technologie comme étant destinée aux personnes qui veulent avoir la possession de leurs propres données, personnaliser leur expérience d’utilisateur, décider avec qui partager leurs informations privées et effectuer des transactions sans dépendre des banques ou des gouvernements. La technologie ne nécessite aucune preuve de travail, aucune énergie gaspillée dans le minage, aucun goulot d’étranglement ni aucun retard global grâce à un traitement immédiat et efficace. Elle est si efficace que nous pouvons faire fonctionner 50 nœuds complets du réseau sur un téléphone portable.

 

Une gestion plus optimale des ressources

En quoi les quatre principes fondamentaux de Holochain diffèrent de ceux de Blockchain et comment cela permet au réseau de dépasser son aîné ? Premièrement, la nature cryptographique du réseau Holochain permet aux utilisateurs d’exécuter des applications à grande échelle sans qu’un consensus mondial soit nécessaire. Cette caractéristique est directement issue de l’approche centrée sur les agents de Holochain, par opposition à l’approche centrée sur les données de Blockchain. Cela signifie que les utilisateurs n’ont pas à travailler en permanence sur la même chaîne partagée, ils peuvent également travailler indépendamment sur leur propre version de la chaîne qu’ils peuvent décider de partager par la suite. La deuxième innovation introduite par Holochain est l’hébergement d’applications P2P pour les utilisateurs grand public. Là où Blockchain demande à ses nœuds de gaspiller des quantités astronomiques d’énergie dans le processus de validation des blocs, Holochain offre en revanche la possibilité à ses nœuds d’héberger des applications sur leurs serveurs respectifs et d’être récompensés pour cela. Comme mesure d’incitation, Holochain a créé une autre forme de cryptomonnaie, Holo, qui est adossée à un actif du monde réel contrairement aux autres cryptomonnaies.

L’approche d’hébergement distribué que propose Holochain est déjà adaptée à de nombreuses applications qui existent aujourd’hui. Plus une application est populaire, plus elle est hébergée par des nœuds qui cherchent à être récompensés pour leurs services. Cela signifie qu’une application comme Wikipedia par exemple n’aurait plus besoin de demander constamment des dons à ses utilisateurs pour continuer à maintenir ses services. Toutes les applications que nous utilisons chaque jour sont actuellement hébergées sur des serveurs centralisés, et la plupart d’entre elles sont des clients du service de Cloud d’Amazon AWS. Cet outil présente de nombreux avantages comme la rapidité d’exécution, le prix et la réduction des risques. Parmi les principaux défauts de ce système, on peut citer la dépendance constante d’une application à un tiers comme Amazon pour son fonctionnement, mais aussi les risques de failles de sécurité, de surveillance et de manipulation des données des utilisateurs en raison du stockage centralisé des données. Si nous revenons au scandale de Cambridge Analytica, une violation massive de millions de données personnelles sur Facebook sans le consentement des utilisateurs n’aurait jamais été possible si ces données étaient stockées dans des millions d’ordinateurs à travers le monde. Enfin, l’innovation clé derrière le réseau Holochain est le système de crypto-comptabilité à double entrée. Alors que l’ensemble du réseau aura toujours une monnaie globale nette de zéro, chaque utilisateur individuel aura un compte positif ou négatif de Holos. Tous ces comptes s’additionnent pour atteindre cette somme nulle, et c’est ce qu’on appelle un système de crédit mutuel.

 

Source : Holo Green Paper, page 6

 

Holochain a certainement un énorme avantage par rapport à Blockchain et cela est principalement dû à son approche centrée sur les agents par rapport à l’approche centrée sur les données du réseau Blockchain. En outre, ses concepts sont loin du stade purement théorique, comme il existe déjà des applications qui fonctionnent sur le réseau Holochain. Néanmoins, nous sommes encore loin de voir cette technologie prendre le dessus sur Internet. Il existe aujourd’hui pour chaque application qui pourrait fonctionner sur le réseau Holochain une entreprise bien établie qui se concentre uniquement sur cette application spécifique (Uber, Airbnb, Spotify, etc.). La communauté Holochain va donc être confrontée à une énorme concurrence sur tous les fronts, et il va falloir être très patient pour voir comment cette technologie va évoluer à l’avenir.

Chadi El Adnani, étudiant à HEC Paris / Télécom Paris et contributeur du blog AlumnEye

 


Pourquoi l’or comme valeur refuge en temps de crise ?

Il a régulièrement été constaté, par le passé, que l’or se met au diapason de nombreuses lèvres lors de périodes plus qu’incertaines. Valeur souvent plébiscitée, gage de sécurité lorsque les marchés ne peuvent offrir de garanties, et ce depuis plusieurs siècles, l’or se distingue du reste des actifs à bien des égards. Pourquoi ce métal précieux suscite tant la convoitise ? Qu’est-ce qui fait sa singularité ?

 

Les paramètres influents sur le cours de l’or

L’or est un métal rare dont l’évolution du cours est régie par plusieurs facteurs dont, généralement, l’influence a pu être distinguée empiriquement. Historiquement, l’or était directement indexé sur le dollar par les accords de Bretton Woods jusqu’à ce que cette convertibilité soit finalement révoquée au cours des années 1970 en raison d’une hausse dangereuse de l’inflation dans de nombreux pays, et de deux dévaluations successives du dollar en 1971 et 1973, rendant le système de parité entre les monnaies insoutenable. Avant ces évènements, le cours de l’or est fixé à 35 $/once, l’once étant la masse de référence utilisée pour les cours officiels (équivalente à 31.104 grammes).

Depuis, il est entre autres observé que le cours de cette matière première suit une évolution négativement corrélée à celle du dollar. Ainsi, une dépréciation de la monnaie américaine pourrait favoriser l’achat d’or ainsi qu’une hausse de son prix. Néanmoins, certains spécialistes incitent à la prudence, comme Paul Wong, gestionnaire de portefeuille chez Sprott Asset Management, qui évoque des politiques de plus en plus agressives de la part des banques centrales, amplifiant la volatilité au niveau des corrélations entre actifs. En effet, ce constat vérifié des années durant semble perdre de sa pertinence sur les dernières années. Ce paramètre n’est donc pas à considérer de façon isolée. Il s’agirait de le conjuguer à celui des taux d’intérêts. Là encore, il a fréquemment été noté une évolution négativement corrélée. Une hausse des taux d’intérêts génère donc assez souvent une tendance baissière sur le cours de l’or (et une psychologie de vente chez les investisseurs), mais quelques exceptions contraires à cette règle ont pu être notées. Ainsi, prédire l’évolution du cours de l’or devrait plutôt reposer sur une analyse conjuguée de ces deux indicateurs.

LA4Lire aussi : Dossier AlumnEye : le trading de commodities

 

Outre ces effets macroéconomiques, le cours de l’or est aussi déterminé par le principe de l’offre et de la demande, d’autant plus que ce matériau se fait de plus en plus rare. La production annuelle d’or est aujourd’hui d’environ 3 000 tonnes (alors qu’elle n’atteignait que 1 000 tonnes au début des années 1980) pour une demande globale supérieure à 4 000 tonnes. Selon certains experts, elle devrait s’éteindre d’ici 20 ans en raison de l’épuisement total des réserves de la planète, d’autant que ses coûts de production ne cessent d’augmenter et que son exploitation devient contestable en matière d’écologie, le tout associé à une hausse de la demande… Il en découle que cette conjoncture pourrait bien avoir son influence sur le prix de l’or d’ici peu. L’inflation exerce également une influence sur le prix de cette matière première. Mécaniquement, une hausse de l’inflation, générée par une augmentation des prix, aboutit in fine a une augmentation du cours de l’or.

Enfin, l’une des causes les plus importantes : la psychologie du marché et notamment le contexte économique et géopolitique mondial, qu’il est nécessaire de bien connaître avant de tenter tout investissement. Et ce qui confère tant d’importance à ce dernier paramètre, c’est une propriété bien particulière inhérente à ce produit de marché.

 

    ENTRETIEN EN FINANCE : PRÉPARE LES BRAINTEASERS

Découvre gratuitement les Brainteasers posés en entretien avec les réponses détaillées par un pro de la finance.

 

L’avantage de l’or en bourse

Dans un contexte classique, c’est-à-dire en l’absence de panique financière, les actions et les obligations demeurent les principaux actifs échangés sur les marchés financiers. Cependant, les premières sont corrélées aux résultats d’une entreprise, aux annonces qui y sont associées, et les secondes aux capacités d’un état à rembourser sa dette par exemple. En somme, cette matière première est indépendante des aléas auxquels sont soumis les actifs évoqués ci-dessus. De plus, l’or, contrairement aux actions et aux obligations, n’offre des profits à ses investisseurs que par la variation de son cours, et ne véhicule pas des flux réguliers tels que les dividendes, les coupons, etc. Ce produit de bourse est donc tout à fait indépendant des marchés financiers.

Des conflits géopolitiques, des tensions économiques, tels que le choc pétrolier de 1979, ou plus récemment la crise économique et financière de 2008, sont autant de facteurs faisant régner l’incertitude sur les marchés et c’est alors que l’or se présente comme une alternative « de repli » pour les investisseurs. Il en résulte alors fréquemment une augmentation de son cours via une demande croissante à l’achat lors de phases de manque de confiance sur les marchés habituels. C’est d’ailleurs en ce sens que le métal jaune se voit attribuer la dénomination de « valeur refuge », un investissement de repli dans lequel se « réfugient » les acheteurs en vue de protéger leur capital dans des circonstances périlleuses.

LA4Lire aussi : Commodities : panorama du marché des matières premières

 

L’or, un produit sûr et peu volatil… est-ce finalement vraiment le cas ?

En partant de l’analyse précédente, ce métal précieux peut être considéré comme la solution miracle à tout aléa boursier et géopolitique. C’est justement tout le crédit que lui porte l’opinion commune. Cependant, trader cette matière première requiert certaines précautions, et de nombreux analystes invitent les acheteurs à la prudence, d’autant plus à l’heure actuelle. L’or atteint en effet des plus-hauts encore jamais répertoriés depuis la fin de son indexation sur le dollar.

David Gandar, gérant d’un cabinet de gestion de patrimoine, affirme lors d’une interview accordée au Républicain Lorrain que « Le potentiel de hausse [de l’or] est très limité, le potentiel de baisse est énorme. […] Quand l’ensemble de la finance mondiale aura réglé ses problèmes, le niveau de l’or va immédiatement baisser de manière conséquente. »

Par ailleurs, au regard de l’augmentation constante du cours de l’or depuis maintenant 20 ans, c’est le phénomène classique de bulle spéculative qui peut inquiéter, par lequel le cours d’un actif (en l’occurrence l’or dans le cas présent) augmente avec une certaine probabilité, mais en laissant place également à une probabilité d’ « éclatement », c’est-à-dire à une chute brutale du cours.

L’existence, aussi, de nos jours, de nombreux produits dérivés sur l’or, en quantités plus importantes que l’or lui-même, contribue à amplifier la volatilité du cours de ce métal, c’est-à-dire ses phases de hausse ou de baisse. De plus, il a été constaté statistiquement que les phases de baisse du cours ont souvent été plus courtes que les phases de hausse (les baisses ont une durée d’environ 4 ans, contre 6 ans pour les hausses en moyenne).

Enfin la corrélation négative entre l’évolution des cours sur les marchés traditionnels et celui de l’or n’est pas absolue, c’est la raison pour laquelle la notion de « valeur refuge » doit être maniée avec précaution. Par exemple, lors du krach de 1998 lié à la chute de la valeur du rouble, l’or a enregistré une baisse de 5 % environ (coté à plus de 300 $ l’once au premier semestre, celui-ci a atteint un plus bas à 282 $ à la fin du mois d’août, suite à la dévaluation du rouble). En outre, si d’une manière générale la valeur du métal jaune a tendance à augmenter en temps de crise, cette observation s’applique essentiellement sur des durées d’investissement importantes, car l’or enregistre des fluctuations sur des intervalles hebdomadaires ou mensuels qui peuvent être baissières, et ce même en période de panique sur les marchés. C’est d’ailleurs ce qui a pu être remarqué lors de la crise récente liée au coronavirus ; notamment, entre le 9 mars (1 675 $/once) et le 19 mars (1 478 $/once), le métal jaune a concédé une baisse de près de 12%, avant de finalement subir une correction une semaine plus tard en revenant à un prix de 1 650 $/once et même de repartir à la hausse pour osciller au-dessus de 1 700 $/once courant avril.

 

Si l’or a fréquemment répondu aux attentes en temps de crise en affichant une tendance inverse à celle observée sur les marchés obligataires ainsi que ceux des actions, l’expérience a révélé qu’il ne fallait pour autant pas en extraire une règle absolue. Ce produit peut certes se présenter comme une option pertinente pour les investisseurs dans ce type de circonstances, mais bien qu’indépendant des marchés traditionnels, l’or ne déroge pas à l’analyse rigoureuse qui se doit d’être réalisée avant tout investissement, notamment d’un point de vue macroéconomique. Un placement relativement sûr, donc, mais nécessitant un minimum de vigilance.

 

Nicolas Liszczynski, étudiant à l’Edhec et contributeur du blog AlumnEye

 


Quel bilan pour le M&A en 2019 ?

2019 fut une année à deux vitesses pour le M&A. Pourtant bien commencée, l’année a enregistré un ralentissement de 24,2% dans les transactions de fusions et acquisitions entre le premier et le second semestre. Plus globalement, l’activité mondiale de fusions et acquisitions a enregistré une baisse en valeur de 6,9% par rapport à 2018 à 3 900 milliards de dollars. Toutefois, 2019 s’achève en étant la quatrième année la plus importante de l’histoire du M&A selon Refinitiv.

 

Les États-Unis se partagent la plus grande part du gâteau

En 2019, les États-Unis ont compté pour près de 47,2% de l’activité mondiale du M&A, soit la part la plus élevée depuis 2001. L’activité européenne a, elle, chuté de 21,9% en valeur par rapport à 2018. Le marché américain a quant à lui progressé de 1,5% par rapport à l’année précédente. En effet, le pays fut soutenu par une économie relativement forte et un certain nombre de transactions importantes (big deals) : 15 des 20 principales transactions de 2019 sont le résultat de sociétés basées aux États-Unis. Parmi celles-ci se trouve la transaction la plus importante de l’année avec la fusion de United Technologies avec Raytheon, dans le secteur de la défense et de l’aérospatiale, pour 88,9 milliards de dollars.

LA4Lire aussi : Entretien en M&A : les questions techniques fréquentes

 

Le marché du Private Equity continue de progresser

En 2019, la proportion de transactions mondiales réalisées par un fonds de Private Equity (ou Capital-Investissement) a atteint 27,5%. Il s’agit de la troisième année consécutive où le Private Equity compte pour plus de 25% des deals M&A. Ces sociétés de capital-investissement ont, en 2019, dépensé environ 556,4 milliards de dollars soit un montant presque aussi élevé que les 571 milliards dépensés en 2018.

Parmi ces transactions se trouve l’acquisition de l’opérateur de réseaux de fibres optiques Zayo Group par le consortium EQT et Digital Colony Partners pour 14,1 milliards de dollars. Il s’agit du deuxième plus grand LBO depuis 2008. Blackstone a également acquis GLP, leader mondial des gestionnaires de fonds spécialisés dans la logistique et les investissements technologiques connexes, avec 64 milliards de dollars d’actifs sous gestion dans des fonds immobilier et de capital-investissement à travers le monde, pour 13,4 milliards de dollars. Il s’agit de la plus importante transaction immobilière privée jamais réalisée dans le monde. Enfin, l’acquisition pour 11,8 milliards de dollars de la société de gestion Ultimate Software par Hellman & Freidman et l’acquisition de l’opérateur pétrolier et gazier Buckeye Partners par Australian IFM Investors pour 10,2 milliards de dollars viennent compléter la liste 2019 des opérations à plus de 10 milliards de dollars par des fonds de Private Equity.

Source : Mergermarket 

 

    PRÉPARE TES ENTRETIENS TECHNIQUES EN CORPORATE FINANCE

Découvre gratuitement les questions techniques en entretien de M&A, Private Equity, etc., corrigées par un pro.

 

Les opérations de M&A au ralenti en Europe

Marquée par le Brexit et une croissance terne au sein de la zone euro, l’activité de fusions-acquisitions européenne affiche une baisse de 21,9% à 770,5 milliards de dollars contre 986,4 milliards en 2018. Le faible nombre de mega deals (opérations supérieures à 10 milliards de dollars) a contribué à cette baisse de l’activité, avec seulement 5 opérations (voir ci-dessous), soit un chiffre au plus bas depuis 2009. La fusion entre Abbvie et Allergan, deux laboratoires pharmaceutiques pour 86,3 milliards de dollars ou encore la fusion entre PSA et Fiat-Chrysler pour 16,4 milliards de dollars font parties des 5 accords européens au-dessus des 10 milliards de dollars.

Source : Mergermarket

LA4Lire aussi : Pourquoi le M&A ? Les 5 raisons qui en font la voie royale de la banque d’affaires

 

L’influence chinoise s’estompe

Du côté de l’Asie-Pacifique, 3 735 transactions ont été enregistrées en 2019 pour l’activité M&A, représentant 565,3 milliards de dollars. Il s’agit de la plus faible valeur depuis 2013 et du plus petit nombre de transactions depuis 2014. La Chine et la région de Hong Kong, considérées comme les plus grands contributeurs aux fusions et acquisitions en Asie, ont vu leur part de marché mondiale passer de 11,4% à 8,8% entre 2018 et 2019. De plus, seulement 5,7 milliards de dollars ont été dépensés par la Chine et Hong Kong pour 31 transactions aux États-Unis en 2019, soit le montant le plus bas depuis 2011. D’une façon plus générale, l’influence de la Chine dans les deals M&A a sans aucun doute affiché une baisse en 2019, marquée par de longues manifestations à Hong Kong en addition aux tensions commerciales sino-américaines. La plus grosse opération enregistrée reste l’achat de Hengfeng Bank par China SAFE Investment pour 14,3 milliards de dollars. Dans ce contexte, le grand bénéficiaire est Singapour, qui a vu la valeur de ses fusions-acquisitions augmenter. Celle-ci a atteint 35,3 milliards de dollars soit une augmentation de 125,6% par rapport à l’année précédente malgré une baisse de 5% du nombre de transactions (134 contre 141). Le fonds Temasek a été l’un des principaux acteurs, à la fois acheteur mais aussi vendeur dans les opérations de 2019. Sa plus grosse opération est la prise de participation de 30,5% dans le groupe Keppel pour 9,5 milliards de dollars.

Source : Mergermarket

 

Le millésime 2019 fut donc marqué par une influence chinoise en baisse et une Europe qui s’essouffle, au contraire des États-Unis. Le Private Equity a lui continué de progresser avec des fonds d’investissements dotés de fortes liquidités et de multiples options de financement. De nombreuses incertitudes demeurent autour du cru 2020, marqué par la pandémie de coronavirus. Un léger retrait dans les opérations de M&A est attendu. Cependant, selon Frank Aquila, associé chez Sullivan & Cromwell, « une économie qui ralentit semble être idéale pour les acquisitions car les entreprises ont besoin de ces opérations pour assurer leur croissance ». Optimisme aussi du côté de Peter Weinberg, directeur général chez Perella Weinberg Partners qui pense que « beaucoup d’entreprises peuvent profiter d’une crise économique en cherchant à tirer profit d’une baisse des valorisations dans le but de réaliser leurs rêves de fusion ». L’année 2020 risque surtout d’être une année de transition pour le M&A, avant la vraie reprise attendue pour 2021.

 

Thomas Gioe, étudiant à Skema Business School

 


Universa, le hedge fund qui gagne toujours en temps de crise

En 2007, Nassim Nicholas Taleb et son associé Mark Spitznagel créent le fonds d’investissement Universa Investments. Universa n’a rien d’un fonds classique car la stratégie qu’il emploie est basée sur ce que l’on nomme le “Fat Tail Hedging”. En effet, cette stratégie se concentre sur des événements qui ne se produisent que très rarement. Les résultats ne se sont pas faits attendre puisque le fonds a enregistré des performances remarquables pendant la crise des subprimes en 2008, et plus récemment lors de la crise du Coronavirus en 2020.

 

Des fondateurs expérimentés, pionniers de la couverture contre les risques extrêmes

Nassim Nicholas Taleb est un statisticien de formation spécialisé en mathématiques financières. Il possède un MBA de l’université de Pennsylvanie et un doctorat en sciences de gestion de l’université Paris Dauphine. Taleb est connu pour avoir écrit le fameux livre “The Black Swan” appliquant la théorie du cygne noir à la prise de décision. Un cygne noir est un événement très peu probable qui, s’il se réalise, peut avoir un effet dévastateur sur l’économie. Dans ce livre, Taleb y prédit notamment la crise économique de 2008. Fort d’une expérience de plus de 20 ans sur les marchés financiers en tant que trader sur les marchés dérivés pour BNP Paribas, UBS, Crédit Suisse, Banker Trust, CIBC et la banque Indosuez, il devient un pionnier de la gestion du “tail risk” qui consiste à couvrir ses positions lorsque les mouvements sur les marchés sont très prononcés.

Mark Spitznagel, quant à lui, est diplômé en mathématiques de l’université de New York. Il commence à trader sur le marché des commodities avant de devenir trader indépendant sur le Chicago Board of Trade puis pour fonds propres pour Morgan Stanley à New York. En 2007, Taleb et Spitznagel s’associent pour créer Universa Investments, qui deviendra le premier fonds à mettre en pratique l’investissement “Black Swan”.

LA4Lire aussi : Ce que vous avez toujours voulu savoir sur les hedge funds

 

Un fonds qui se distingue par sa stratégie d’investissement “Black Swan”

Universa gère un portefeuille clients de plus de 5 milliards de dollars. La stratégie du fonds consiste à parier massivement sur des événements très peu probables comme les krachs boursiers. Il assure ainsi à ses clients que leurs pertes seront minimes en temps de prospérité économique, mais que si un choc brutal intervient sur les marchés, les gains pourront atteindre des sommes astronomiques.

La stratégie du “Black Swan” employée par le fonds est basée sur la convexité. Les événements convexes sont ceux qui produisent des rentabilités importantes s’ils se produisent. En protégeant leur portefeuille contre les chutes brutales sur les marchés, les investisseurs peuvent allouer le reste de leur capital à des produits financiers à hauts risques systémiques. Cette stratégie est d’autant plus efficace lorsque les caractéristiques des actifs ne répondent plus à des critères fondamentaux comme c’est le cas pendant les crises économiques majeures.

Spitznagel s’oppose à la théorie moderne du portefeuille énoncée par Harry Markowitz en 1952 selon laquelle les valeurs des actifs qui constituent un portefeuille diversifié ne peuvent pas toutes plonger en même temps. Il avance, dans un article intitulé “The Volatility Tax” publié en 2018 sur le site officiel d’Universa, que lors des krachs économiques, les corrélations de ces actifs augmentent et deviennent moins défensifs. Même dans le cas où la diversification parvient à réduire les pertes du portefeuille, la rentabilité se retrouve finalement également réduite.

Techniquement parlant, la stratégie d’Universa consiste à prendre des positions long puts “hors de la monnaie” pour générer des gains explosifs lorsque les marchés sont fortement baissiers et à investir dans des actifs qui protègent le portefeuille lorsque les marchés sont, à l’inverse, haussiers, tels que des Fonds Négociés en Bourse (FNB). Avoir une position long puts signifie s’octroyer, en échange d’un montant versé à l’avance, appelé “premium”, le droit de vendre une quantité d’actif sous-jacent, à un prix déterminé et pendant une période donnée. Rappelons également qu’un put est dit “hors de la monnaie” lorsque le prix de l’actif sous-jacent est supérieur à son prix d’exercice. Afin de minimiser les pertes engendrées par le paiement du “premium” des puts lorsque les marchés sont haussiers, Universa sélectionne des puts “hors de la monnaie” car ceux-ci sont sous-évalués. Le fonds constitue alors un portefeuille robuste en y ajoutant des FNB ou tout autre actif qui génère des gains lorsque les marchés sont haussiers. Pour rappel, les FNB sont des fonds de placement en valeurs mobilières dont les parts peuvent être négociées en bourse. L’avantage des FNB est qu’ils sont composés des mêmes actifs que l’indice qu’ils répliquent et procurent donc un effet de diversification à moindre coût. Le portefeuille génère ainsi des gains explosifs en temps de crise grâce aux puts sous-évalués et des pertes minimes compensées par les profits d’actifs qui répliquent les indices boursiers. À titre d’exemple, en 2018, “The Wall Street Journal” annonçait qu’une stratégie qui consiste à investir 3,3 % dans le fonds d’investissement Universa et les 96,7 % restants dans l’indice S&P 500 produirait une rentabilité cumulée annuelle de 12,3 % sur 10 ans, surpassant ainsi le S&P 500 lui-même ainsi que les portefeuilles de fonds qui employaient une stratégie plus classique.

En pratique cette stratégie reste difficile à appliquer, car la proportion allouée aux actifs du portefeuille doit être optimale et la sélection des options “Out of The Money” doit se faire de façon minutieuse. De plus, les profits n’étant pas publiés en net, il est nécessaire d’avoir un excellent timing et de savoir quel est le moment opportun pour monétiser ses gains. Selon Spitznagel, une majorité d’investisseurs n’ont pas réussi à appliquer cette méthode puisqu’elle serait à l’opposé de la nature humaine. En effet, ces investisseurs finissent par baisser les bras bien avant qu’elle ne soit censée porter ses fruits.

 

    TÉLÉCHARGE LE GUIDE DE LA FINANCE GRATUITEMENT

Rédigé par des pro, ce guide décrit les métiers de la finance et t'aidera à y voir + clair dans ton orientation !

 

Une efficacité démontrée lors des crises économiques majeures

Selon Vanity Fair, lors de la crise des subprimes en 2008, Universa a enregistré 115 % de performance. Spitznagel et Taleb ont su profiter de cette crise économique en étudiant les choix des banques centrales. Selon eux, les injections monétaires et les modifications du niveau des taux directeurs de ces banques constitueraient un signal fort qui annonce le début d’une crise économique et financière.

En 2017, lors d’une interview accordée à Bloomberg, Taleb confie que les marchés sont plus fragiles aujourd’hui qu’ils ne l’ont jamais été auparavant. Il pense que le pire est à venir et que nous allons faire face à des crises de plus en plus fréquentes avec une intensité de plus en plus grande. Sa prophétie se réalise en 2020. En mars 2020, la crise du Coronavirus a été une nouvelle occasion pour Universa de démontrer l’efficacité de sa stratégie. Spitznagel a confirmé que ses positions étaient perdantes 95 % du temps, mais que pour ce qui est des 5 % restants, les profits explosaient. Le fonds a enregistré une performance de plus de 3 600% sur le mois de mars et de plus de 4 100 % depuis le début de l’année.

LA4Lire aussi : Hedge Fund : s’installer à Londres ou à New York ?

 

La vision d’Universa sur l’impact de la crise du Coronavirus

Spitznagel pense que l’intervention de la Fed pendant la crise du Coronavirus a rendu l’analyse fondamentale totalement incohérente. Les investisseurs qui basent leurs décisions sur des faits économiques seraient aveuglés par des données de marché gonflées par les prêts massifs des banques centrales. Ces dernières alimenteraient une bulle qui est à l’origine des vulnérabilités systémiques et seraient responsables de la fragilité des marchés financiers et économiques actuels.

Spitznagel pense ainsi que cette crise du Coronavirus est un avant-goût de ce qui nous attend dans un futur proche. Pendant ce temps, il vous conseille vivement d’écouter de la musique classique et de méditer pendant que les autres s’attardent à vouloir prédire les marchés.

 

Amine Chabli, Technology Trader chez First Derivatives et contributeur du blog AlumnEye