Crise de 2020 : le pire reste à venir

Dans sa dernière étude, l’Observatoire français des conjonctures économiques (OFCE) estime à 19% la contraction du PIB mondial en avril 2020, période durant laquelle la moitié de l’humanité a été confinée. Toutefois, malgré le processus de déconfinement aujourd’hui largement amorcé et alors que le pic épidémique semble dépassé dans de nombreux pays, le FMI et la Banque mondiale s’attendent à une récession mondiale de grande ampleur en 2020. Aussi, la décision de la BCE, annoncée par Christine Lagarde le 4 juin, de doubler son programme de rachat de dettes, souligne la magnitude du défi considérable que pose le Covid-19 aux économies européenne et globale. Quelles évolutions peut-on envisager à moyen terme ? Quid de l’impact durable de cette crise ?

Rappel des faits

  • Début décembre 2019, les premiers cas d’un virus alors inconnu sont signalés à Wuhan, dans la province chinoise de Hubei. Appartenant à la famille des coronavirus, il s’attaque aux fonctions respiratoires du corps humain.
  • En l’espace de trois mois, il se répand dans le monde entier ; l’OMS lui attribue officiellement le nom de « COVID-19 » (pour COronaVIrus Disease 2019) le 11 février 2020.
  • Un mois plus tard, le 11 mars, l’OMS requalifie l’épidémie en « pandémie ». Dans la foulée, la plupart des Etats durcissent l’accès à leurs frontières, alors que bon nombre d’entre eux imitent la Chine et instaurent des mesures de confinement de leurs citoyens.
  • Début avril, 50% de la population mondiale est ainsi confinée, soit près de 3,9 milliards d’êtres humains dans 90 pays. L’objectif premier est d’éviter la saturation des services hospitaliers.
  • Dans l’intervalle, un effondrement spectaculaire de 20 à 30% des principaux indices boursiers mondiaux, entamé le 20 février, atteint son point bas le 23 mars, avant un rebond toujours en cours, alors que les gouvernements et banques centrales réagissent rapidement à travers des plans d’une ampleur inédite, visant à soutenir l’économie et à rétablir la confiance sur les marchés.
  • Face à l’effondrement de la demande mondiale d’énergie et sur fond de guerre des prix entre pays producteurs, les cours du pétrole chutent à des niveaux jamais enregistrés depuis le début du XXIe siècle, l’indice WTI du pétrole américain s’aventurant même brièvement en territoire négatif pour la première fois de son histoire le 20 avril, à -37,63 dollars le baril.
  • Alors que de nombreux pays amorcent actuellement leur phase de déconfinement, la question des conséquences économiques et financières se pose plus que jamais, à l’heure où l’on annonce pour 2020 une récession mondiale de plus de 5%, sans précédent en temps de paix.
  • Fin-juin, au niveau global, l’université Johns Hopkins recense près de 10 millions de cas confirmés de COVID-19, dont plus de 500 000 victimes.

Au-delà du drame humain qui se joue, il s’agit ici de tenter de comprendre les ressorts économiques et financiers de cette crise sanitaire et d’explorer les différents scénarios de sortie possibles.

 

2020… un nouveau 2008 ?

Avant toute chose, il convient de déterminer à quel type de crise nous avons affaire et, en l’occurrence, le choc de 2008 demeure ancré dans les esprits comme une référence dans l’histoire économique récente. Pourtant, si certains rapprochements peuvent être faits avec la dernière crise, celle qui nous frappe aujourd’hui en diffère à bien des égards, tant par ses causes que par son ampleur.

Pour ce qui est des causes, nous sommes face à deux situations diamétralement opposées, l’origine de la crise de 2008 étant endogène et de nature financière (la survalorisation de titres de créances risqués disséminés dans l’ensemble du système financier, comme les CDO, puis l’effondrement de leur valeur), quand celle de 2020 résulte d’un choc exogène (la propagation du virus), qui vient percuter l’économie dans son ensemble, à travers la situation de coma artificiel dans lequel elle a été plongée de façon volontaire pour limiter la contagion. D’ailleurs, en mars, les analystes de Goldman Sachs comparaient davantage le scénario actuel à celui du 11 septembre (toute proportion gardée) qu’à celui de 2008, avec un choc imprévisible et brutal.

La récession de 2020 s’annonce par ailleurs d’une ampleur inégalée par rapport à celle de 2009. Bruno Le Maire estime à 11% la contraction du PIB français pour 2020, plus forte baisse que connaîtrait la France en temps de paix, depuis l’existence de statistiques économiques. En 2009, la chute avait été de 3% au plus fort de la « Grande Récession » et de 1% à peine en 1975, à la suite du premier choc pétrolier. Il faut remonter à 1944 pour enregistrer une baisse plus forte, de l’ordre de 15%. Elle avait été d’environ 7% en 1932, au faîte de la Grande Dépression. Au niveau global, la Banque mondiale estime aujourd’hui la contraction du PIB à 5,2% pour 2020, contre 1,7% en 2009. A l’époque, l’activité avait certes ralenti, mais ne s’était pas arrêtée pendant plusieurs semaines, de même que la croissance chinoise (moteur notable de croissance mondiale) était restée largement positive, à 9% en 2009, alors qu’elle est estimée à seulement 1% pour cette année. La contraction est estimée à 8,7% en zone euro, cette année, par la BCE, à 6% pour les Etats-Unis et le Japon. Quant aux pays émergents, avec une baisse estimée de leur PIB de 2,5%, cette année, ils sont confrontés à des défis spécifiques : une lourde fuite des capitaux de 100 milliards de dollars (4 fois supérieure à celle de l’automne 2008), une chute des recettes de leurs exportations de matières premières et la difficulté à lancer des plans de relance budgétaire de grande ampleur. Leur seule planche de salut réside dans la faiblesse des prix du pétrole, qui a ralenti l’inflation et permet à leurs banques centrales de pratiquer des taux bas. De fait, cette récession ne devrait avoir aucune commune mesure avec celle de 2008 ; en revanche, elle promet d’être plus courte, avec un rebond mécanique de 4,2% prévu dès 2021 par la Banque mondiale (similaire à la reprise de 4,3% observée dans le monde en 2010).

C’est sur la force de la réponse apportée au choc par les Etats et les banques centrales que l’on peut rapprocher les deux crises. Toutefois, on relève que la réaction en 2020 a été bien plus énergique que celle de 2008. Du côté des Etats, fin mars, le Congrès américain vote un plan de sauvetage de l’économie de 2000 milliards de dollars (contre près de 800 milliards en 2009). Le 27 mai, la présidente de la Commission européenne, Ursula von der Leyen, présente un plan de relance de 750 milliards d’euros (contre un plan de 200 milliards présenté en novembre 2008). La France lance plusieurs dispositifs d’aide aux entreprises et de soutien à l’emploi, notamment par la mise en place, dès fin mars, du chômage partiel et des prêts garantis par l’Etat (PGE), avec près de 100 milliards d’euros accordés à 490 000 entreprises. Par ailleurs, les Etats peuvent, en 2020, compter sur une plus forte résilience des grandes banques, dont les ratios de fonds propres se sont considérablement améliorés en 10 ans. Au niveau des banques centrales, on assiste à un retour en force, en Europe et aux Etats-Unis, de la doctrine du « whatever it takes », référence à la formule de Mario Draghi qui, en juillet 2012, avait juré de faire « tout ce qu’il faudra[it] » pour sauver l’euro. Le 12 mars, la Fed annonce qu’elle va injecter 1500 milliards de dollars dans l’économie via des rachats d’actifs, sur le modèle des plans de quantitative easing lancés par la Fed fin 2008 et par la BCE en 2015. Le 16 mars, elle abaisse ses taux directeurs à une fourchette de 0% à 0,25%, comme elle l’avait fait en décembre 2008. Le 18 mars, la BCE lance le PEPP (Pandemic emergency purchase programme), un programme de rachat d’obligations d’un montant de 750 milliards d’euros. Ce dernier est porté à 1350 milliards le 4 juin. L’institution de Francfort maintient par ailleurs son taux de refinancement (« taux de refi », le principal taux directeur, qui correspond au taux auquel les banques peuvent emprunter à la banque centrale) à 0% et son taux de dépôt (qui correspond à la rémunération des montants déposés par les banques auprès de la banque centrale) à -0,5%. Au Royaume-Uni, la Banque d’Angleterre abaisse ses taux de 0,75% à 0,10% en mars. Au-delà des chiffres, le message est clair : la mise en coma artificiel de l’économie mondiale doit aller de pair avec une contre-attaque robuste.

LA4Lire aussi : Le rôle des agences de notation

 

Un secteur financier au ralenti mais relativement résilient

L’élément financier le plus visible et spectaculaire de cette crise est la chute vertigineuse, puis la remontée en flèche des principaux indices boursiers mondiaux. La situation mi-février 2020 est celle d’indices boursiers dont les cours, historiquement hauts aux Etats-Unis et dans une moindre mesure en Europe, sont la conséquence d’une bulle boursière qui s’est formée dans le sillage de l’après-2008. Plusieurs facteurs peuvent être avancés pour expliquer cette bulle : l’injection massive de liquidités via les politiques de quantitative easing menées par les banques centrales, au cours de la décennie 2010, pour soutenir les économies en berne, le report des investisseurs, en quête de rendement vers les actions, plus risquées, face aux taux faibles sur les marchés obligataires, l’augmentation constante entre 2009 et 2018 des programmes de rachats d’actions des groupes cotés, qui a contribué à soutenir leurs cours de bourse, ou encore l’affaiblissement de l’industrie de l’equity research, dont l’activité est censée contribuer à davantage de transparence sur les marchés d’actions, en proposant des analyses fondamentales de la valorisation des entreprises. La brutalité du krach boursier peut être, quant à elle, essentiellement attribuée à la rapide perte de confiance des investisseurs dans la résilience des entreprises face à la crise sanitaire, ainsi qu’au ralentissement, voire à l’arrêt de l’activité de bon nombre d’entre elles, pour une période de plusieurs semaines. Dans une moindre mesure, la hausse de la pratique du trading haute fréquence, depuis la précédente crise, a également contribué à la volatilité extrême qui a exacerbé l’effondrement de 20 à 30% des indices, en l’espace d’un mois.

Toutefois, malgré la persistance des incertitudes et la récession mondiale sans précédent qui s’annonce alors, les cours remontent subitement fin mars. Aux Etats-Unis, le Dow Jones signe un record historique, en passant d’un bear market à un bull market, en l’espace de seulement 11 jours de bourse, alors qu’il avait fallu 17 mois aux indices américains entre 2007 et 2009. Pour rappel, on parle de bear market, lorsque le cours chute de plus de 20% de son précédent record (en-deçà, il s’agit d’une simple correction de marché) ; à l’inverse, on parle de bull market, quand cette performance est à la hausse. Pourtant, ce n’est pas fini… Le 3 juin, le CAC40 franchit le seuil symbolique des 5000 points, retrouvant son niveau du 6 mars, et termine la première semaine de juin à +10,7%, sa plus forte hausse hebdomadaire depuis 2011. Les performances sont encore plus impressionnantes outre-Atlantique (le poids relatif des entreprises technologiques y est plus marqué qu’en Europe), où les indices retrouvent, voire dépassent leurs précédents records historiques, datant du mois de février. Le 8 juin, le Nasdaq, l’indice technologique américain, dépasse les 9900 points et bat ainsi son précédent record du 19 février. Autre signe d’un retour de l’optimisme sur les marchés : la réautorisation de la vente à découvert (pratique qui permet de parier à la baisse contre un titre) dans de nombreux pays européens, dont la France, le 18 mai, après deux mois d’interdiction par les régulateurs, signe que ces derniers considèrent que la volatilité sur les marchés d’actions a suffisamment reculé. De fait, l’indice américain de volatilité VIX a aujourd’hui retrouvé son niveau de fin février d’environ 25, après un pic à plus de 80 au plus fort du krach boursier.

Comment rendre raison de ce redressement des cours sans précédent ? On peut y voir les effets du déconfinement (mais cette tendance s’est pourtant amorcée dès la fin mars, au moment même où le monde se confinait) ou encore la conséquence de l’attrait pour la prime à la liquidité, offerte aux investisseurs par les marchés boursiers, face au non-coté, dont les valorisations sont également affectées. Mais l’explication principale est bien davantage à chercher du côté des mesures de soutien coordonnées, mises en place à travers la politique monétaire des banques centrales et la politique budgétaire des gouvernements. Alors que l’économie mondiale se contracte, les bourses suivent le chemin exactement inverse, dicté par les seules anticipations des investisseurs, convaincus que les Etats et les banques centrales iront aussi loin que nécessaire pour stabiliser l’économie. Mais combien de temps encore en seront-ils convaincus… ?

Du côté des gestionnaires d’actifs et des fonds d’investissement, le tableau est en demi-teinte, mais la catastrophe a été évitée. Le coup porté à BlackRock est rude, le numéro un mondial de la gestion d’actifs déclarant une chute de la valeur de ses actifs sous gestion de plus de 12% au premier trimestre, qui les fait chuter à 6500 milliards de dollars. Toutefois, on peut s’attendre à une nette amélioration, du fait des rebonds boursiers, s’ils devaient se confirmer. Les fonds d’investissement, quant à eux, ont liquidé beaucoup d’actifs avant la contre-attaque des banques centrales. Pour Vincent Gombault, co-fondateur d’Ardian, les valorisations des portefeuilles des fonds d’investissement avaient baissé d’environ 10% au 31 mars. Certains fonds, qui n’excluaient pas des secousses (d’origine financière) pour 2020, avaient pris soin de limiter leur exposition aux secteurs cycliques, habituellement les plus touchés en cas de crise. Ainsi, d’après une étude de l’International Forum of Sovereign Wealth Funds (IFSWF) et de State Street, les fonds souverains ont été plus résilients en 2020 que lors des crises précédentes. La raison principale étant, ici aussi, une certaine méfiance vis-à-vis des marchés boursiers, les conduisant à conserver une quantité importante de liquidités. Après l’effondrement des marchés boursiers, ils ont redirigé leurs fonds des obligations vers les actions, profitant d’un remarquable point d’entrée offert par le krach boursier. Aussi, malgré les pertes enregistrées, les principaux hedge funds (Bridgewater, Renaissance, Citadel, etc.) devraient mécaniquement être renforcés par cette crise, dans la mesure où les investisseurs privilégient généralement les fonds de grande taille, en période d’incertitude, alors que 5% de ces fonds alternatifs gèrent déjà 63% des capitaux du secteur. Les fonds de private equity (PE) ont vu la valorisation des valeurs présentes dans leurs portefeuilles affectées mais, d’après Bain & Company, ils sont bien mieux armés aujourd’hui qu’ils ne l’étaient en 2008, pour faire face à la crise. En effet, disposant de réserves de liquidités importantes, de l’ordre de 2500 milliards de dollars, ils ont les reins plus solides en 2020 et pourraient être amenés à jouer un rôle significatif dans le financement des entreprises mises en difficulté.

Enfin, en ce qui concerne les opérations de haut de bilan, on observe un ralentissement qui risque de durer entre 12 et 24 mois, mais toutes les activités ne sont pas à l’arrêt pour autant et les transactions impliquant les entreprises appartenant aux secteurs les plus résilients seront privilégiées. Le marché des fusions-acquisitions est devenu visqueux. En effet, le volume mondial des transactions M&A, pour le premier trimestre 2020, connaît son niveau le plus bas, depuis 2013 : d’abord, parce que l’incertitude et la volatilité sur les marchés rendent difficile la valorisation des entreprises, ensuite, parce que beaucoup d’opérations d’achat par dette (leveraged buy-out, LBO) sont victimes de l’évaporation des montants que les banques étaient disposées à prêter, car redirigés vers les entreprises en difficulté, notamment PME et ETI qui, contrairement aux entreprises large-cap, peuvent difficilement se financer sur le marché obligataire. Résultat, la valorisation des sociétés cibles de M&A dans le monde retombe à son niveau de 2014, à hauteur de 10,7 fois l’EBITDA, contre 11,3 en 2019. Du côté des introductions en bourse (IPO, initial public offering), le marché semble avancer au ralenti, même si le début du mois de juin a été marqué par quelques IPO réussies aux Etats-Unis, notamment Warner Music, Nikola Motor ou encore Vroom, alors que Airbnb, qui devait faire de la sienne, l’une des plus importantes de l’année, n’a fait aucun commentaire à ce sujet. On note également une reprise des opérations de levées de fonds, la start-up ContentSquare, spécialiste de l’analyse des données-clients, réalisant mi-mai la plus grosse levée de fonds de l’année en France, d’un montant de 173 millions d’euros.

Ainsi, tant que les banques centrales continueront à assurer la liquidité sur les marchés, le risque de crise financière semble écarté. On est loin de la situation de 2008, même si le problème de la dette demeure.

 

    ENTRETIEN EN FINANCE : PRÉPARE LES BRAINTEASERS

Découvre gratuitement les Brainteasers posés en entretien avec les réponses détaillées par un pro de la finance.

 

Des problématiques socio-économiques très alarmantes

En effet, la question de la dette, publique comme privée, apparaît comme l’un des défis majeurs qui découlera de la crise de 2020. D’après Anne-Laure Kiechel, fondatrice de Global Sovereign Advisory (GSA), le monde est entré dans la crise du coronavirus avec un encours de dette total de 257 000 milliards de dollars, un niveau 50% supérieur à celui de 2008, et cette dette est vouée à grimper davantage dans les années qui viennent. Pour ce qui est des dettes publiques, l’agence de notation Fitch Ratings s’attend à un niveau record de défauts sur les dettes souveraines, cette année (en particulier pour les pays dont les revenus proviennent essentiellement de l’exportation de matières premières), à l’heure où 100 pays ont déjà réclamé un financement d’urgence du FMI, depuis trois mois. Les Etats européens devraient emprunter plus de 1000 milliards d’euros sur les marchés, cette année et la dette publique française devrait bondir jusqu’à 120% du PIB, d’après Bercy. Concernant l’endettement des entreprises, il est lui aussi voué à exploser, notamment en France, où il a fait un bond de 90 milliards d’euros, depuis le mois de mars, alors que, fin 2019, l’endettement des groupes français représentait déjà 74% du PIB, niveau très élevé par rapport à ses principaux partenaires commerciaux. A terme, les pertes essuyées par ces entreprises en quête de trésorerie, devront être compensées. Pour ce faire, on peut imaginer une situation où un certain nombre de créances pourraient être converties en capitaux propres, contournant ainsi le problème du remboursement de la dette. Il s’agit là d’une question de survie pour de nombreuses sociétés. 

Ainsi, de très nombreuses entreprises se retrouvent dans des situations périlleuses. Pourtant, certains secteurs tirent leur épingle du jeu, à l’image des entreprises technologiques et du digital, de la grande consommation et de l’agro-alimentaire ou encore de la santé. Par exemple, Amazon a vu ses ventes bondir, au premier trimestre (+26%), de même que le segment e-commerce de Walmart. Le cours de l’action Zoom a, lui, connu une hausse spectaculaire de 66%, au cours des trois derniers mois. A l’inverse, les activités liées aux services aux consommateurs (restauration, transport, tourisme, etc.) sont en forte perte de vitesse, quand elles ne sont pas tout bonnement à l’arrêt. En avril, au niveau mondial, le secteur hébergement et restauration a accusé une baisse de sa valeur ajoutée de 47% (80% dans le cas français). On a également assisté à un effondrement du secteur aérien (qui, pour la première fois, doit se soucier de la demande et non pas de l’offre), même si l’énorme popularité de l’ETF U.S. Global Jets, auprès des hedge funds américains, indique que les investisseurs tablent sur un rebond du secteur, d’ici la fin d’année. Quoi qu’il en soit, les entreprises dont l’activité est à forte intensité capitalistique, qui avaient baissé le rideau pendant le confinement et qui redémarrent aujourd’hui, sont confrontées à la dilatation de leur besoin en fonds de roulement (BFR) ; autrement dit, elles risquent de ne pas avoir suffisamment de trésorerie pour honorer leurs dettes de court terme. L’objectif des programmes d’aide est justement d’amortir ce choc, en fournissant des liquidités, mais le problème du surendettement risque de se poser rapidement pour beaucoup d’entre elles, avec de nombreuses opérations de restructuration, qui peuvent se traduire par des cessions d’actifs, la conversion de dettes en capitaux propres ou encore l’émission de nouvelles dettes. A défaut, on peut s’attendre à une vague importante de faillites de PME, mais également de quelques grands groupes. A cet égard, le mouvement a déjà commencé aux Etats-Unis, notamment avec la faillite fin-mai du groupe de location de véhicules Hertz. Selon un sondage réalisé, fin mars 2020, par le BCG auprès des dirigeants de 274 grandes entreprises mondiales, ces derniers sont 52% à estimer que l’impact du Covid-19 sur l’activité sera supérieur à 6 mois, la moitié d’entre eux pariant même sur un impact supérieur à 12 mois. L’assureur-crédit Coface estime que les défaillances d’entreprises devraient augmenter d’un tiers entre 2019 et 2021, les secteurs des transports, de l’automobile et du textile étant les plus touchés.

Cette situation va inévitablement de pair avec une explosion du chômage. Aux Etats-Unis, le taux de chômage a atteint un record historique de 14,7% en mai, contre seulement 3,5%, trois mois plus tôt. Le système de chômage partiel déployé en Europe, en particulier en France, constitue un coussin d’amortissement considérable, qui permet aux entreprises d’éviter une dégradation trop forte de leur liquidité et solvabilité, tout en maintenant l’emploi. Mais ces mesures ne peuvent être que temporaires et leur fin ou diminution impliquera nécessairement que les entreprises fassent des arbitrages pour préserver leur solvabilité, impliquant notamment des phases de licenciements pour les secteurs les plus affectés. Ainsi, d’après la Banque de France, le taux de chômage français pourrait atteindre un pic de 11,5% mi-2021, avant d’amorcer une diminution progressive à partir de 2022.

Face à l’énorme création monétaire des banques centrales et la perspective d’une hausse mécanique de la consommation, avec la fin du confinement, le risque d’un retour de l’inflation est également régulièrement évoqué. La hausse impressionnante de 14% du prix de l’or sur les 5 premiers mois de l’année semble appuyer cette thèse, en ce qu’elle indique une forte appétence des investisseurs pour cet actif traditionnellement utilisé comme couverture, face au risque inflationniste. Pourtant, les autres indicateurs habituels d’inflation anticipée, notamment sur les marchés de swaps (produits dérivés), sont nettement moins alarmants, avec des taux anticipés ne dépassant pas 1,3% aux Etats-Unis. Quant à la BCE, elle a récemment revu à la baisse ses prévisions d’inflation dans la zone euro, à 0,3% pour 2020, 0,8% en 2021 et 1,3% en 2022, chiffres sensiblement inférieurs à sa cible d’un peu moins de 2%. Pour Pascal Quiry, professeur à HEC Paris, les moteurs traditionnels de l’inflation ne sont, à ce jour, pas allumés : hausse des salaires, dépréciation significative des devises, envolée des prix du pétrole. Selon lui, la baisse de la vitesse de circulation de la monnaie (occasionnée par la chute de la consommation des ménages qui thésaurisent massivement, le ralentissement du commerce international et l’effondrement de l’investissement des entreprises) absorbe une part significative de la création monétaire des banques centrales, empêchant ainsi le retour de l’inflation forte, disparue dans la plupart des pays occidentaux, depuis les années 1980. Aussi, face à la récession mondiale qui s’annonce à court et moyen termes, c’est plutôt le risque de déflation qui semble à craindre, en particulier en Europe.

Ainsi, le scénario d’une « sortie en V » de la crise, qui impliquerait un redémarrage rapide des économies, suffisant pour compenser intégralement les pertes accusées, apparaît comme peu probable à moyen terme.

LA4Lire aussi : Dix ans après la crise : le système financier entre mesure et démesure

 

Quel impact attendre à long terme ?

Doit-on s’attendre à une révolution dans la pratique des politiques monétaires ? Difficile à dire. Ce qui est certain, en revanche, c’est que la crise de 2020 conduit les banquiers centraux à repousser les limites de leurs outils traditionnels. Outre les baisses de taux, les taux négatifs sont parfois envisagés (ils sont déjà utilisés en zone euro, notamment). Ainsi, Andrew Bailey, nouveau gouverneur de la Banque d’Angleterre, a récemment affirmé qu’il n’écartait désormais plus l’éventualité de taux directeurs négatifs, ce qui créerait un nouveau précédent dans les 326 ans d’existence de l’institution, après l’émission en mai d’obligations par le Royaume-Uni à un taux négatif, une première dans l’histoire de l’endettement britannique. Outre-Atlantique, la perspective des taux négatifs est encore taboue, mais la Fed est parvenue à innover d’une autre façon : outre la baisse de ses taux, la Fed a élargi le type de dette rachetée aux obligations émises par les gouvernements locaux (villes, comtés) mais surtout aux obligations d’entreprises de la catégorie high yield (ou junk bonds), des obligations à plus haut rendement, mais impliquant un risque de défaut plus élevé. Ces obligations ne sont pas achetées directement par la banque centrale qui, à la place, achète des ETF (exchange-traded funds), des fonds indiciels qui suivent la performance d’un groupe d’actifs, en l’occurrence d’obligations. La Fed sous-traite la réalisation opérationnelle de ce programme d’achat d’ETF à BlackRock. Les banques centrales pourraient même aller plus loin et suivre l’exemple de la Banque du Japon qui, depuis près de deux décennies, pratique régulièrement les rachats d’actions (généralement sous forme d’ETF). Pour Robert Holzmann, gouverneur de la banque centrale autrichienne, si la BCE n’a pas encore envisagé cette possibilité, celle-ci n’est pas à exclure.

Pour finir, certains économistes avancent une solution, simple en apparence, au lourd fardeau des dettes contractées par les Etats : leur annulation par les banques centrales qui les rachètent, ou bien leur transformation en « dettes perpétuelles » (ce qui revient au même dans la pratique, les dettes n’étant jamais remboursées) ; ils arguent en effet qu’une telle mesure allègerait considérablement le poids du service de la dette pour des Etats déjà lourdement endettés. Pourtant, les détracteurs de cette mesure soulignent qu’elle entamerait la crédibilité de la BCE et de la zone euro, à un moment où la confiance est capitale pour éviter une crise de liquidité sur les marchés financiers. En effet, les statuts de la BCE lui confèrent un unique objectif, le maintien de l’inflation légèrement en-deçà de 2%. Satisfaire les besoins budgétaires des Etats membres n’y figure pas. Pour Matthieu Pigasse, associé chez Centerview Partners, « l’objectif seul de la stabilité des prix n’est plus pertinent. Les banques centrales doivent être au service d’une politique économique et sociale menée par les Etats ». Se dirige-t-on en effet vers un monde où les banques centrales assumeraient un rôle encore plus direct, dans la conduite des politiques économiques des Etats ? On en a, en tout cas, un début d’illustration, à travers le « double mandat » de la Fed qui, outre son objectif de stabilité des prix, a également pour mission officielle de concourir au plein emploi aux Etats-Unis. A l’heure où les banques centrales sont amenées à prendre une part encore plus importante dans la vie économique et ont presque aboli le concept de risque sur les marchés, la question de leur champ d’action doit immanquablement se poser pour les années à venir.

Autre fait notable qui émerge de cette crise : le renforcement du rôle économique de l’Etat. Ainsi, pour Anne-Laure Kiechel, en ce qui concerne les dettes : « La question est de savoir à quoi on les affecte ». Au lancement de grands projets d’infrastructures, répond François Pagès, managing partner chez Galileo Global Securities, qui pense la relance économique sur le modèle du volet « grand travaux » du New Deal américain des années 1930. On peut voir dans les ambitions de « relance verte » de la Commission européenne, la traduction de cette volonté d’employer une partie de la dette souscrite, pour investir le créneau de la transition énergétique, dans une démarche proactive. L’Allemagne semble, en tout cas, décidée à suivre ce chemin : dans un nouveau plan de relance de 130 milliards d’euros dévoilé début juin, elle consacre 6,7 milliards d’euros au déploiement de la voiture électrique et 7 milliards au développement d’usines de production d’hydrogène.

S’il s’agit de changer de paradigme de croissance, la crise sanitaire va-t-elle pour autant enterrer la mondialisation ? A en croire l’ex-économiste en chef du FMI Olivier Blanchard, « pour des raisons politiques, stratégiques et d’efficacité, cette crise va renforcer la déglobalisation ». Plaçons avant tout cette estimation dans le prolongement de la période post-2008, marquée par un flottement dans l’approfondissement de la mondialisation économique, état de fait renforcé à la marge par les velléités protectionnistes des Etats-Unis depuis 2018. Il y a, certes, fort à parier que la crise aura un impact sur la façon dont la mondialisation se décline, mais sans doute sera-t-il davantage orienté vers la sécurisation et réorganisation de certaines chaînes de valeurs pour les industries stratégiques (notamment médicales) que sur des relocalisations massives, peu viables économiquement, d’autant plus dans un contexte de récession.

Enfin, cette crise pose la question de l’avenir de l’Europe. Face à l’ampleur du choc économique, la Commission européenne a décidé de suspendre temporairement les règles du Pacte de Stabilité et de Croissance (1997), qui limitent le déficit public à 3% du PIB et la dette publique à 60%. Cette suspension devrait-elle être inscrite dans la durée ? Se pose également le débat de la mutualisation des dettes des Etats de l’UE, l’émission d’une dette commune par la Commission étant censée renforcer la solidarité entre les pays et lier plus étroitement leurs destins, dans le cadre du financement du plan de 750 milliards d’euros proposé par Ursula von der Leyen. Mais ce fédéralisme demeure problématique pour plusieurs d’entre eux, notamment les « Frugal Four » (Autriche, Danemark, Pays-Bas, Suède), tenants de la modération budgétaire. Aujourd’hui plus que jamais, l’Europe se retrouve face à l’éternel écueil de l’approfondissement.

En somme, la crise de 2020 peut se lire comme un cas d’école de tous les risques financiers que l’on est susceptible de rencontrer simultanément. Un redémarrage fort en 2021 et 2022 est probable, mais n’empêchera pas la vague de faillites et l’explosion du chômage. L’ampleur de ce choc est difficile à estimer à long terme, d’autant plus avec les incertitudes entourant l’évolution du virus, en attendant l’élaboration d’un vaccin. En effet, la possibilité d’un retour du virus en plusieurs vagues a conduit des chercheurs de l’Université de Harvard, dans une étude publiée en avril par la revue Science, à envisager la nécessité de mettre en place une politique de « stop and go », une alternance des épisodes de confinement et de déconfinement, jusqu’en 2022. Quoi qu’il en soit, malgré la décorrélation manifeste entre l’économie et la bourse, le redécollage économique ne sera pas possible sans un retour durable de la confiance des ménages (consommation) et des entreprises (investissement). Pour l’économiste Philippe Aghion, « le COVID-19 est un révélateur des problèmes endémiques des pays ». Au niveau mondial, les pays les plus affectés sont ceux dont le système de santé n’est pas assez résilient ou dont l’économie repose trop massivement sur certains secteurs particulièrement touchés (tourisme, matières premières). Voici peut-être l’occasion, pour certains d’entre eux, de repenser la structure de leur économie. Enfin, la crise de 2020 aura achevé d’entériner le retour en force du régalien, déjà amorcé en 2008, avec un renforcement du rôle économique des Etats et des banques centrales qui, face à un panel de plus en plus limité d’outils traditionnels à leur disposition, innovent dans leurs politiques monétaires. Surnommée « The Great Lockdown » par le FMI, la crise de 2020 est en passe de s’imposer en tant que nouvelle référence pour les économistes comme l’illustration radicale d’un choc exogène venant percuter de plein fouet l’économie mondiale.

 

Nathanaël Zobel-Pantalacci, étudiant à Grenoble Ecole de Management et contributeur du blog AlumnEye

 


Qu’est-ce que le Private Debt ?

Le Leverage Buy Out ou LBO est une pratique largement utilisée par les fonds d’investissement dans leur prise de participations au capital d’une entreprise. Cette technique d’acquisition par effet de levier, c’est-à-dire par un recours massif à la dette financière, a pour but de maximiser la rentabilité des capitaux propres investis. Les entreprises ciblées sont des entreprises résilientes, évoluant sur des marchés porteurs et générant des cash-flows stables et prédictibles grâce à un business model solide et une excellente gestion opérationnelle. Au cours de la période de détention, actionnaire et management ont des intérêts alignés et un objectif commun de gérer au mieux l’entreprise afin de dégager des cash-flows permettant, entre autres, le remboursement de la dette et le paiement des intérêts. L’implication du Sponsor (fonds de Private Equity acquéreur) dans la gestion ainsi que le recours à la dette pour financer l’acquisition sont des leviers majeurs de création de valeur dans un LBO.

Au niveau du montage financier, la réussite d’une opération de LBO repose sur une allocation optimale des fonds propres et de la dette, dans la limite des capacités de remboursement de l’entreprise, de sorte à maximiser l’effet de levier et ainsi la rentabilité des investisseurs. Aussi, un ratio dette/fonds propres élevé sous-entend une rentabilité plus forte pour l’investisseur en capital. La dette est donc la raison d’être du LBO. Avec une forte croissance du marché du Private Equity entre 2008 et 2020, des niveaux de valorisation inédits et une politique de taux bas, le marché de la dette était en ébullition. Face à la recherche d’alternatives au financement bancaire classique, des investisseurs d’un nouveau type ont fait leur entrée sur le marché : les émetteurs de dette privé ou Private Debt. Le Private Debt désigne ainsi les solutions de dette haut de bilan, non financées par les banques et les marchés financiers publics.

 

Une alternative au financement classique d’acquisition

A la suite de la crise financière de 2008 puis de la crise de la zone euro en 2011, le marché des opérations de LBO mid-cap notamment fait face à un assèchement de l’offre de dette bancaire. Le Private Debt s’est particulièrement développé depuis, accélérée par la réglementation bancaire. Avec les normes Bäle III, les banques ont été plus contraintes quant à leurs fonds propres, permettant la naissance de sources de financement autres que la dette bancaire. De plus, les investisseurs institutionnels (assurances, fonds de pension), dans un contexte de baisse des taux et des rendements, cherchent à diversifier le risque de leurs portefeuilles. Ainsi, de nouveaux types de fonds ont vu le jour afin de répondre aux besoins de financement d’entreprises trop petites pour se financer sur le marché obligataire mais trop importantes pour emprunter auprès de leurs banques locales. Cet écosystème regroupe différents acteurs : asset managers, hedge funds, fonds de capital-risque et de capital développement, assureurs qui ont tous pour point commun de ne pas être une banque.

Le Private Debt contribue à créer des conditions attractives pour les opérations de financement et surtout d’acquisition des entreprises, en proposant une alternative aux prêts bancaires. Aux Etats-Unis, avant la crise du coronavirus, près de 70% des LBO concernant les entreprises de taille intermédiaire n’étaient pas supportés par des banques. A contrario, jusqu’en 2008, les LBO étaient financés par les banques à 70%.

LA4Lire aussi : Qu’est-ce que le Private Equity ?

 

    PRÉPARE TES ENTRETIENS TECHNIQUES EN CORPORATE FINANCE

Découvre gratuitement les questions techniques en entretien de M&A, Private Equity, etc., corrigées par un pro.

 

Les spécificités du Private Debt

Par rapport à la dette bancaire classique, le Private Debt ne requiert pas de négociation avec de multiples institutions. Sa mise en place est plus simple et rapide. Elle permet également de lever plus de fonds, pour des niveaux de risques différents. Enfin, elle apporte plus de flexibilité, avec des covenants assouplis. 

  • Les différents types de dettes

L’accès à tout type de dette est un élément essentiel de la compréhension du métier d’investisseur en Private Debt vs une position en Investment Banking au sein d’une équipe de Leverage Finance. 

Le financement bancaire concerne les tranches de dette les moins risquées, dites tranches Senior. Or, lors d’une opération de LBO, des montants importants de dette sont mobilisés. Si un seul type de dette auprès d’une unique banque peut être envisagé lors des petites opérations, de manière générale, un sponsor négocie avec un groupe de banques qui « syndiquent » le montant total de la dette émise. En Leverage Finance, selon la position de la banque dans le deal, leader ou simple souscripteur, le rôle du banquier va différer mais ne dépassera pas le cadre de la dette Senior. Elle constitue la partie la moins risquée et donc la moins chère de la structure d’un LBO car elle bénéficie d’un ordre de priorité sur tous les autres types de financement en cas de faillite. 

La dette Senior s’accompagne de covenants qui limitent la capacité d’endettement, les politiques de versement de dividendes et donne un droit de regard à la banque sur le déroulement du business plan et le respect des objectifs de génération des cash-flows pour le remboursement de la dette. Cependant, la dette bancaire ne suffit souvent pas à atteindre le financement total nécessaire pour le montage d’un LBO. En moyenne, les fonds propres représentent environ 30% du prix d’acquisition et la dette bancaire 50%. Les 20% restants sont un financement que le repreneur doit trouver et que la dette subordonnée permet de combler. 

C’est le principal rôle que joue la dette mezzanine, un exemple de dette dite Junior et qui tire son nom de sa position entre la dette Senior et les capitaux propres dans l’ordre de paiement des investisseurs. Les  créanciers Senior sont les premiers à toucher le retour de leur investissement, suivi par l’investisseur en mezzanine et enfin l’actionnaire en capital. La dette mezzanine est donc la dette la plus risquée mais elle offre les contreparties les plus intéressantes, avec un rendement entre 10% et 18%. Elle est devenue une des premières formes de Private Debt. Ce sont très largement des fonds spécialisés et non les banques qui sont prêteurs de mezzanine. En plus de proposer des rendements plus attractifs, cette forme de dette inclut un « equity kicker », qui offre à l’investisseur une rémunération supplémentaire sous la forme de bons de souscription, ou un « warrant » qui permet une participation éventuelle à la plus-value réalisée. Le risque significatif pris par ces investisseurs explique le niveau d’exigence analytique élevé nécessaire dans l’étude d’opportunités d’investissement, qui rapproche les métiers du Private Debt des métiers du Private Equity. Le Private Debt permet dès lors d’approcher l’investissement à la fois comme une banque, avec une vision « défensive » (“vais-je être remboursé ?”), mais aussi avec la vision « offensive » d’un fond de Private Equity, les warrants permettant de participer à la réussite de l’opération LBO.

  • La structure d’un fonds de Private Debt

Les fonds de Private Debt proposent des structures comparables à ceux de l’industrie du Private Equity, avec une période de détention d’un investissement entre 3 et 5 ans et une durée de vie d’un véhicule d’investissement de 10 ans environ. Les Limited Partners de ces fonds sont de la même manière des assureurs, fonds de pension, banques privées et fonds souverains. Les Limited Partners sont majoritairement des investisseurs institutionnels qui, pour investir dans le non-coté, confient la gestion de leurs liquidités à des GPs (General Partners), les équipes des fonds d’investissement.

LA4Lire aussi : Private Equity, dette privée et infrastructure : le non coté comme classe d’actifs

 

Avantages d’une première expérience en Private Debt

Intégrer un fonds d’investissement dans une équipe de Private Debt offre une exposition conséquente aux métiers d’investisseur et aux deals sur le marché du Private Equity. Le financement de son acquisition pour un fonds de PE désirant prendre une participation dans une entreprise est une des dernières étapes du process M&A. La courbe d’apprentissage est donc conséquente lors d’un stage en Private Debt. Aussi, au cours du sourcing d’opportunités puis d’exécution d’un deal, l’investisseur en dette dispose d’un certain nombre de documents pour sa prise de décision : Information Memorandum du banquier sell-side, Commercial Due-Diligence des cabinets de stratégie mandatés par le sell-side puis buy-side, Financial Due-Diligence des cabinets de conseil financier ainsi que les documents juridiques et fiscaux. En parallèle du Sponsor ou très rapidement à la suite de l’annonce d’une acquisition, l’équipe de Private Debt étudie l’opportunité d’investissement, prend connaissance du data pack à sa disposition, mène sa propre due-diligence (expérience Senior interne, calls experts, comparaison aux entreprises en portefeuille) pour conclure sur une décision d’investissement.

Ce process est très centré sur l’assessment des risques liés au business model de l’entreprise et le marché sur lequel elle évolue puisque l’investisseur en dette mise sur le remboursement de la dette d’acquisition. Il dure en moyenne 1 mois, timing court par rapport au process d’acquisition en Private Equity (4-6 mois du sourcing au closing). En effet, le Sponsor cherchera à déterminer les opportunités de croissance de l’actif afin d’écrire son equity story puis d’accompagner l’entreprise dans la réalisation de ses objectifs stratégiques au cours de la période de détention. Cette partie du process n’est pas prise en compte par l’investisseur en dette, dont le métier est principalement centré sur le montage financier et la capacité de l’entreprise à répondre aux exigences de remboursement. 

Bien que l’investisseur en dette n’entre pas dans une étude aussi approfondie de l’actif que l’investisseur en PE, les délais d’exécution plus courts des transactions permettent au prêteur d’exécuter un plus grand nombre de deals et ainsi d’être exposé à une plus grande diversité d’actifs. C’est également un métier de structuration, caractéristique des opérations de LBO, qui plait aux passionnés d’ingénierie financière. La négociation et renégociation des prix d’acquisition, sous la forme du niveau de taux d’intérêt, est dès lors une facette importante du métier d’investisseur en Private Debt.

 

 


Les crises financières du XVIIème siècle à aujourd'hui

Pourquoi s’intéresser aux crises financières ? Probablement parce qu’elles révèlent les mécanismes et les défauts de notre économie. Le monde a connu de grandes crises financières prenant des formes variées. À la suite de chaque crise, les acteurs publics et privés se sont accordés sur la nécessité de mettre en place de nouvelles régulations, qui vont souvent contre la volonté du marché dirigé vers la croissance. Les économistes décrivent ainsi des cycles : une crise surgit, et entraîne des régulations, régulièrement suivies de dérégulations subies, ou voulues.

Cet article offre un tour d’horizon des crises du XVIIème siècle à aujourd’hui, sans se vouloir exhaustif. Il n’aborde pas, par exemple, la crise des technologies et la crise des subprimes, souvent documentées et étudiées dans les cursus universitaires. Le XVIIème siècle est choisi comme point de départ car c’est durant cette même période que la première bourse fut créée à Amsterdam, en 1611. La bourse est consubstantielle au développement d’une frénésie à l’achat ou d’une hystérie à la vente. En 1340, le défaut de paiement du royaume d’Angleterre d’Edward II, tout comme ceux des royaumes d’Espagne et de France, n’avaient pas entraîné de mouvement de panique en Europe car le marché de la dette n’existait pas.

 

1637 : La Tulipomanie Néerlandaise

Les tulipes furent introduites en Europe au cours du XVIème siècle, puis découvertes par les Provinces Unies des Pays-Bas au début du XVIIème siècle. Leurs couleurs intenses, leur rareté et leur singularité en firent rapidement un élément de prestige pour la bourgeoisie néerlandaise.

Dans les années 1630, les bulbes de Tulipes devinrent un élément de spéculation sur la place boursière d’Amsterdam. Les tulipes fleurissaient seulement en avril et en mai, mais leurs bulbes étaient échangés tout au long de l’année grâce à des contrats à terme. Les investisseurs achetaient des « promesses de bulbes » qu’ils espéraient pouvoir revendre plus cher. On parle ici de contrats à terme car les transactions prévoyaient une livraison physique de bulbes en décalage avec l’accord des parties. Au cours de l’automne 1636, les prix des bulbes augmentèrent très fortement. En février 1637, le prix d’un bulbe de tulipe était 15 fois supérieur à celui du salaire annuel d’un artisan et valait deux fois le prix d’une maison de taille moyenne.

Cependant, au cours de l’hiver 1637, probablement affecté par la peste qui sévissait partout en Europe, le cours de la tulipe s’effondra. Tout le monde chercha à se débarrasser de ses bulbes. L’engouement pour l’achat se transforma en un déchaînement à la vente. Cette crise sera ainsi considérée par beaucoup d’économistes comme la première bulle financière.

 

1720 : La crise du Mississippi

Au début du XVIIIème siècle, suite au règne de Louis XIV, les finances du Royaume de France étaient en mauvaise posture. Dans les années 1720, sous les conseils de John Law, le régent Philippe d’Orléans décida de créer une banque royale. Celle-ci disposait de très peu de capital, financé principalement par de la dette d’État. John Law proposa ainsi à la population française, grâce à la banque royale, d’échanger l’or qu’elle possédait contre des assignats. Ces morceaux de papiers imprimés étaient alors considérés as good as gold. Cependant, le régent abusa rapidement du processus et en fit imprimer de plus en plus. Le montant émis ne correspondait dès lors plus à la valeur de l’or présent dans les coffres de la banque.

En 1719, John Law décida de créer la Compagnie Mississippi qui prendrait en charge la plupart du commerce colonial français, incluant la Louisiane. Cette entreprise fut utilisée pour racheter la dette du royaume de France. Le public pouvait utiliser des assignats pour acquérir des parts de la compagnie. La Compagnie du Mississippi attira de plus en plus d’actionnaires en promettant l’exploration de nouvelles terres aux nombreuses richesses. Ces dernières participeraient à la croissance de cette société par actions, et seraient donc la promesse d’importants futurs dividendes. Ce système permit au royaume de France d’émettre de plus en plus d’assignats. Ils étaient directement utilisés pour acheter des actions de la compagnie. Le peuple français achetait ainsi des actions surévaluées et utilisait des assignats qui ne correspondaient plus à une valeur réelle de l’or présent à la banque royale. Entre 1719 et 1720, le cours des actions passa de 500 à 15 000 livres.

Malheureusement pour le régent et John Law, les ressources du territoire nord-américain ne s’avérèrent pas aussi bonnes que prévu. Le cours de l’action de la compagnie s’écroula rapidement pour retrouver un prix de 500 livres en 1721. Entre temps, par perte de confiance dans les assignats, certains des plus gros détenteurs demandèrent à récupérer l’or détenu par la banque royale. Le système s’écroula. Des émeutes eurent lieu dans les rues de Paris. La compagnie du Mississippi sera tout de même sauvée de la faillite par Louis XV.

LA4Lire aussi : Pourquoi l’or comme valeur refuge en temps de crise ?

 

1847 : La folie des chemins de fer

Le XIXème siècle fut marqué par une industrialisation intense de l’économie. Les cycles économiques furent agités par les mouvements politiques qui secouèrent l’Europe. Depuis 1825, le développement du chemin de fer en France et en Angleterre entraînait une spéculation boursière sur les actions des compagnies ferroviaires.

Les capitalisations des chemins de fer représentaient la moitié du marché boursier français, et un peu moins d’un quart du marché anglais. La construction en Europe de dizaines de milliers de kilomètres de lignes depuis le début des années 1820 entraîna une exposition croissante des banques anglaises et françaises aux activités des compagnies de chemins de fer. La sous-estimation des coûts liés aux travaux ferroviaires contribua à une surévaluation du cours des actions du secteur. En 1846, les compagnies des chemins de fer de Bordeaux et de Lyon, tout comme les compagnies anglaises effectuèrent de grandes levées de fonds, plus du double du montant de l’année précédente. Ces appels à financement provoquèrent une crise de confiance sur le marché. Les taux d’intérêts des banques françaises et anglaises augmentèrent l’année suivante. Cela mena à une forte baisse de l’activité de ces mêmes compagnies qui tombèrent alors en faillite, ou licencièrent une grande partie de leurs ouvriers.

Le cours des actions des compagnies chuta lourdement, et la crise financière s’étendit aux créanciers des chemins de fer, en particulier aux banques. Cette crise sera considérée par beaucoup d’historiens comme un précurseur à la révolution de 1848 et au printemps des peuples.

 

La crise boursière de 1929

Dans les années 1920, le monde connut de grandes révolutions technologiques. La production automobile s’intensifia. Des réseaux de chemins de fer furent développés dans différentes régions du monde. Le nombre de foyers avec l’électricité et une ligne téléphonique augmenta drastiquement. Les salles de cinéma ouvrirent en grand nombre et l’accès à la radio se démocratisa.

La forte croissance de la production industrielle et le développement du call loan participèrent à la croissance démesurée de l’index du Dow Jones. Le call loan permettait un effet de levier important pour les investisseurs. Pour un dollar mis sur la table, dix dollars étaient investis. Cette augmentation de l’indice du Dow Jones encouragea les institutions financières américaines à adopter des politiques de crédit plus souples. Les américains en bénéficièrent, tout comme les institutions financières du monde entier. L’augmentation des crédits participa à l’augmentation des achats d’actifs boursiers. Entre mars 1926 et octobre 1929, le cours du Dow Jones augmenta de 120%. La bulle spéculative s’intensifia.

L’euphorie collective connut son terme en octobre 1929. La réalité économique aux États-Unis était alors déconnectée de la valeur des actifs boursiers : ni la productivité, ni les salaires ne suivaient l’enthousiasme du marché. Le jeudi 24 octobre, dit « jeudi noir », la bulle éclata et des ventes massives eurent lieu. Entre le 22 octobre et le 29 octobre, le Dow Jones perdit 39% de sa valeur. Cette crise boursière sera l’élément déclencheur de la crise économique mondiale du début des années 1930.

 

1982 : Crise monétaire latino-américaine

Dans les années 1970, les banques nord-américaines considérèrent l’Amérique Latine comme un investissement à fort potentiel. La région présentait de nombreuses ressources naturelles et une capacité de production marquée par une main d’œuvre peu chère. Une autre raison de l’intérêt pour la région était la présence de la dictature perçue comme vecteur de stabilité économique. Ces indicateurs de risque modéré attirèrent le secteur bancaire et les investisseurs américains.

Les capitaux circulèrent alors en grande quantité d’Amérique du Nord vers le sud, d’après le système suivant : les banques étrangères prêtaient à des banques locales dans leur devise. Par exemple, les banques américaines prêtaient un certain montant en dollar aux banques mexicaines. Celles-ci achetaient ensuite la devise locale avec ces fonds, et prêtaient à des investisseurs locaux dans cette monnaie. Ces investisseurs furent ainsi encouragés à investir dans l’immobilier et dans les entreprises mexicaines. Ce modèle provoquait une hausse des cours de l’immobilier et des actions dans le pays ; les dettes pouvaient ainsi être remboursées. Ce processus entraînait une appréciation du peso mexicain.

Les dettes étrangères du Mexique, du Brésil, de l’Argentine et d’autres pays d’Amérique latine passèrent ainsi de 125 milliards en 1972 à 800 milliards en 1982. Les crédits octroyés à ces États augmentèrent pendant ces années de 30% par an. Les gouvernements latino-américains commencèrent ensuite à emprunter de manière démesurée afin de couvrir les intérêts des emprunts précédents.

En 1979, à la suite du second choc pétrolier, la Fed augmenta drastiquement les taux d’intérêt, ce qui entraîna une augmentation des taux offerts par les banques américaines aux banques d’Amérique latine. Celles-ci se mirent à vendre leur monnaie nationale, et refusèrent de financer les emprunts normalement alloués aux investisseurs locaux. L’immobilier s’effondra, tout comme les cours de la bourse. Les devises latino-américaines se déprécièrent.

En 1982, le Mexique fit défaut sur sa dette étrangère. Les banques internationales perdirent confiance dans la région. Les devises mexicaines, brésiliennes et argentines se dévaluèrent fortement. Cette crise monétaire causa la faillite de la plupart des banques en Amérique Latine qui subirent de grandes pertes et devinrent incapables de se refinancer.

 

    ENTRETIEN EN FINANCE : PRÉPARE LES BRAINTEASERS

Découvre gratuitement les Brainteasers posés en entretien avec les réponses détaillées par un pro de la finance.

 

1986 – 1989 : Crise des caisses d’épargne américaines

Une Savings and Loan (S&L) association est une institution financière qui fonctionne comme une caisse d’épargne. Elle collecte l’argent des épargnants pour octroyer des prêts hypothécaires et quelques autres types de crédits à long terme.

De 1966 à 1979, les fluctuations des taux du marché menacèrent la rentabilité des S&L américaines. Les prêts hypothécaires avaient des maturités à long terme tandis que les intérêts des épargnants devaient être distribués chaque mois, et ces derniers bénéficiaient du droit de retirer leur épargne. L’actif était donc plus exposé aux fluctuations des taux du marché que le passif. Le risque pour les institutions était ainsi considérable.

En 1980, les 4000 S&L américaines représentaient plus de $600 milliards d’actifs dont $480 milliards de prêts hypothécaires. Par conséquent, le problème de mismatch passif/actif des S&L inquiéta les pouvoirs publics américains. Ainsi, au début des années 1980, le Congrès américain fit passer deux lois qui permirent de déréguler les S&L.  Ces institutions financières pouvaient désormais offrir une variété de produits financiers aux épargnants, et le capital d’équilibre passif/actif requis fut largement réduit.

Les dérégulations du début des années 1980 concédèrent aux S&L toutes les compétences d’une banque, sans les contraintes de régulation qui y étaient normalement associées.  Entre 1982 et 1985, ces instituions offrirent des taux d’intérêts très élevés sur l’épargne et attirèrent ainsi davantage de clients. Pour suivre cette promesse sur leurs passifs, les actifs de ces institutions augmentèrent de 56% sur la période. Cette croissance fut rendue possible par de nombreux investissements dans des crédits hypothécaires très risqués. La création de la Federal Savings and Loan Insurance Corporation encouragea cette dynamique et se constitua en prêteur de dernier recours pour le secteur. Elle assurait de cette manière les S&L contre une potentielle incapacité à couvrir leurs passifs.

Cette mécanique de distribution en abondance de prêts hypothécaires entraîna une bulle immobilière aux États-Unis. En 1986, la Tax Reform Act de Ronald Reagan déclencha l’éclatement de la bulle en supprimant certains avantages fiscaux liés à la location immobilière et aux pensions. Par ailleurs, la réforme fiscale augmenta l’alternative minimum tax qui concernait le secteur des S&L. Entre 1986 et 1989, le marché de l’immobilier américain s’effondra. Malgré un plan de sauvetage du gouvernement en 1989, environ un tiers des S&L feront faillite entre 1986 et 1995. Cette crise coûtera environ 130 milliards de dollars aux contribuables américains.

1990 : Crise immobilière et bancaire japonaise

Au début des années 1980, le Japon était considéré comme une superpuissance qui s’apprêtait dans les décennies à venir à dominer le globe. Le pays était alors le deuxième pouvoir industriel mondial. La majorité des grandes banques internationales étaient japonaises. Les sociétés nippones achetaient de nombreuses entreprises dans le monde et leur puissance financière impressionnait. En 1986, Mitsui Real Estate Company paya par exemple $625 millions pour le bâtiment d’Exxon à Manatthan, alors que le prix de départ s’élevait à $310 millions.

Quelles conditions permirent à ce pays d’atteindre cette position convoitée ? Dès la fin des années 1970, le Japon se libéralisa. De nombreuses incitations fiscales encouragèrent les entreprises, soutenues par les banques, à investir dans l’immobilier. Les prix de l’immobilier augmentèrent considérablement au cours des années 1980, ce qui participa à l’explosion du cours de l’indice Nikkei. Les entreprises japonaises présentaient en effet des bilans comptables extraordinaires, et la croissance annuelle du crédit dans le pays était à deux chiffres.

Le mécanisme s’emballa, et les banques nippones octroyèrent des crédits immobiliers sans aucun contrôle ; parfois sans même savoir si les terrains étaient constructibles ! Au cours des années 1980, le cours de l’immobilier fut multiplié par 9 et le prix des actions par 6. Pour comprendre à quel point le Japon faisait alors figure de modèle en terme de performance économique, il faut pointer que la valeur du marché des actions japonaises, à la fin des années 1980, valait le double de celle des États-Unis. Après le crash d’Octobre 1987, le Tokyo Stock Exchange fut la seule bourse au monde à ne pas décliner drastiquement.

L’euphorie se répandit sur la chaîne de production japonaise jusqu’en Corée du Sud ou encore à Taiwan. Un boom de l’immobilier eu même lieu à Hawaï, archipel très apprécié des japonais. Une contagion sur les pays du Nord de l’Europe se produisit également. Dans la seconde partie des années 1980, on observa une explosion des prix de l’immobilier en Norvège, en Suède et en Finlande. Ce boom résultait de l’autorisation aux emprunts internationaux par les banques nordiques ; alors qu’au même moment, les autorités nippones levaient les restrictions sur les activités à l’étranger de leurs propres banques.

Toute cette mécanique se grippa au début des années 1990. Un nouveau gouverneur de la banque centrale japonaise fut inquiet de l’augmentation des prix de l’immobilier, songeant que cette dynamique participerait à réduire la cohésion sociale au Japon. Il ordonna donc aux banques de limiter la croissance des crédits immobiliers à la croissance totale des emprunts. Ainsi, les crédits immobiliers passèrent à une croissance de 6% par an contre 30% l’année précédente.

Les investisseurs qui empruntaient pour payer leurs intérêts ou qui avaient besoin de refinancer leur dette firent faillite. La bulle explosa, et de nombreuses fraudes furent révélées. Certaines banques cachaient leurs pertes par de nouveaux emprunts. La propriétaire d’un petit restaurant à Osaka avait emprunté des milliards de dollars à une banque locale, une branche de Sumitomo Bank, car elle entretenait une relation avec le manager. Et certains managers de banques locales et internationales offraient des crédits à des développeurs immobiliers, qui, en retour, rachetaient leurs propres terres. Au total, les pertes subies par les banques japonaises furent d’un montant de plus de 25% du PIB japonais. L’indice Nikkei s’écrasa, passant d’un sommet de 39 000 environ fin 1989 à 14300 en août 1992.

 

1990 : L’effondrement du marché des junk bonds américains

Un junk bond, ou bon à haut rendement, est un bon mal noté par les agences de notation. On parle de junk bond pour une note généralement au-dessous de BBB- ou Baa3. Une fois que la notation d’une entreprise passe au-dessous de ce pallier, les bons qu’elle émet ne peuvent plus être rachetés par un grand nombre d’institutions financières.

Dans les années 1980, Michael Milken de Drexel Burnham Lambert, une banque d’investissement américaine, développa la volonté d’aller contre l’idée du marché. Selon lui, ces junk bonds étaient sous valorisés, et il fallait donc s’y intéresser. Celui qui fut rapidement connu sous le nom de « Junk bond king » conseilla à de nombreux investisseurs et émetteurs de bons de saisir cette opportunité. Les junk bonds gagnèrent rapidement en popularité, et de plus en plus de banques à Wall Street en achetèrent.

DBL souscrivit de nombreux junk bonds au cours des années 1980. L’une des techniques les plus populaires et réussies de Milken fut d’utiliser ces bons pour des rachats agressifs. Avec les junk bonds, DBL permit à ses clients d’acheter des entreprises sans la volonté de l’autre partie. En émettant des junk bonds, les clients de DBL purent emprunter beaucoup de cash avec peu ou pas d’actifs.  Ce mécanisme leur permettait de faire des offres d’achat très attirantes pour l’entreprise visée. En pensant qu’un changement de management rendrait ces cibles plus rentables, l’entreprise acquéreuse utilisait les actifs de la nouvelle entreprise fraîchement acquise afin de payer la dette contractée pour l’acquisition.

Cependant, au début des années 1990, le ralentissement économique mena plus de la moitié des bons émis par les clients de DBL à faire défaut. DBL fit faillite en 1990. Milken effectua par la suite deux ans de prison pour délit d’initié mais il a aujourd’hui une fortune nette estimée à environ 2 milliards de dollars. L’effondrement du marché des junk bonds américains conduira l’économie américaine à une perte de plus de $100 milliards.

 

1997 : Crise de l’immobilier et des actions asiatiques

Compte tenu d’une absence d’opportunités d’investissement au Japon dans les années 1990, les États-Unis et l’Europe se tournèrent vers l’Asie du Sud Est, considérée comme une région prometteuse permettant de produire à bas coût et de manière efficace. Les capitaux y affluèrent rapidement et atteignirent un montant total de $82 milliards entre 1991 et 1996. La Thaïlande, la Malaisie ou encore l’Indonésie étaient perçues comme des économies capables de concurrencer avec succès les tigres asiatiques de l’ancienne génération : Taïwan, la Corée du Sud, Hong Kong ou encore Singapour. Ces pays disposaient d’une politique fiscale attrayante, et ne comptaient aucun précédent de crise financière. La banque mondiale exprimait des avis très positifs sur cette région. Dans un communiqué de 1993, on en parla comme du “East Asian Miracle”.

En 1993, la croissance économique sud-asiatique se matérialisa par le début de la construction des tours jumelles de Kuala Lumpur. La même année, les prix des actions doublèrent dans la plupart des États d’Asie du Sud-Est. Les investissements étrangers entraînèrent un boom de l’immobilier, ce qui permit aux banques locales de prêter à des taux bien plus élevés que ceux dont elles bénéficiaient de la part des banques étrangères.

A la fin de l’année 1996, les banques thaïlandaises commencèrent à essuyer de larges pertes sur leur marché du crédit aux consommateurs. En effet, les emprunteurs ne voulaient plus payer les intérêts, devenus démesurés, ce qui inaugura une perte de confiance. Les crédits et investissements étrangers diminuèrent rapidement. En juillet 1997, la monnaie thaïlandaise se déprécia drastiquement et le pays fit défaut sur sa dette étrangère. Les investisseurs et les banques étrangères eurent alors peur d’une dévaluation similaire dans toute l’Asie du sud-est. De nombreux capitaux quittèrent la région. La roupie indonésienne perdit 80% de sa valeur en un an. Un grand nombre de banques firent faillite. Une crise similaire se répandit en Russie en 1998 puis au Brésil peu de temps après. Le boom immobilier dû à la confiance des investisseurs étrangers dans l’économie locale s’était transformé en une survalorisation de la monnaie locale. Cette situation provoqua une crise financière puis économique lorsque les investisseurs étrangers perdirent confiance.

LA4Lire aussi : Dix ans après la crise : le système financier entre mesure et démesure

La crise islandaise de 2008

L’Islande est un petit pays d’environ 300 000 habitants, devenu indépendant dans le courant du XXème siècle. En 1994, l’Islande rejoignit l’Union Européenne Économique (UEE), ce qui permit à ses banques et autres institutions financières d’ouvrir dans les pays membres des branches et non des filiales. Les activités pouvaient ainsi se développer dans les pays membres de l’UEE sans y apporter de capital.

Les trois banques principales Islandaises : Kaupthing, Landsbanki, et Glitnir profitèrent alors de cette nouvelle opportunité. Elles prêtèrent toutes les trois de manière intensive, dans tous les pays d’Europe du Nord, puis dans tous les pays de l’UEE.

Dans l’objectif d’augmenter la compétitivité des banques islandaises, les régulations islandaises devinrent très flexibles. Elles permirent à ces trois institutions :

  • D’investir dans des secteurs d’activité complètement différents
  • D’investir dans l’immobilier et les entreprises immobilières
  • De prêter de l’argent pour l’achat de leurs propres actions
  • De posséder des parts dans d’autres institutions de crédit

Ces mesures n’étaient pas requises par les directives européennes, mais furent décidées par les législateurs islandais. Entre 2004 et 2007, les trois plus grandes banques islandaises présentèrent une croissance annuelle entre 36% et 66%.

Les banques islandaises attirèrent de plus en plus d’épargnants européens. Le volume de la clientèle anglaise de la banque Lansbanki passa de 0 en octobre 2006 à 4,4 milliards de pounds en octobre 2007. L’offre bancaire islandaise convainquit en deux ans plus de 300 000 clients en Angleterre, et plus de 125 000 clients hollandais en 5 mois. Les taux qu’offraient ces banques surpassaient le reste du marché de l’époque. Pour financer leur expansion, les banques islandaises émirent énormément de bons jusqu’à ce que la situation dégénère et que la valeur totale des actifs de ces banques dépasse la valeur du PIB de l’Islande. Or, en cas d’impossibilité de paiement, c’est l’État ainsi que la banque centrale qui font office de prêteur de dernier recours.

En 2008, la crise des subprimes contamina les places financières du monde entier, et l’Islande ne fut pas épargnée. Les banques du pays virent leur note baisser considérablement, et se retrouvèrent dans l’incapacité d’émettre davantage de bons. Les dettes ne purent être remboursées et les institutions financières islandaises furent alors nationalisées. Cette situation déclencha une crise internationale car les clients européens de ces banques se trouvèrent dans l’incapacité de récupérer leur dû. Pendant plusieurs années, certains clients ne purent accéder à leurs comptes et cela contribua à alimenter une crise diplomatique entre l’Islande et les pays de l’UEE. L’Islande et ses banques n’ont pu à nouveau avoir accès au marché international des bons qu’à partir de 2015.

 

D’une bulle à une autre, un cycle de crises financières

Comprendre et expliquer les crises financières, et en particulier leurs causes fait débat parmi les économistes, historiens et financiers qui s’y intéressent.

Pourquoi les marchés s’emballent-ils ? Est-ce à cause de l’opacité des régulations économiques de certains pays ? Est-ce le manque de transparence de la méthode comptable employée pour les bilans des sociétés ? Est-ce la diversité des acteurs et des produits financiers qui empêche l’anticipation d’une crise ? Est-ce la libéralisation ou la déréglementation systématique de l’économie qui sont en cause ? Peut-on parler de gouvernances monétaires inefficaces et obsolètes ?

Le secteur financier et économique est un monde d’initiés, mais l’histoire des crises financières nous permet de dessiner les grands traits du mécanisme d’une bulle financière. Les prix augmentent, le volume de crédits croît et entraîne un gonflement des achats… qui contribuent à augmenter les prix. Cela participe à la croissance économique du pays et donc à l’attraction de capitaux étrangers. Le manque de régulation ainsi que le caractère gourmand du monde financier participent à stimuler et dynamiser l’ensemble de la mécanique. L’intérêt suscité par une idée partagée par un grand nombre contribue également à mettre sous tension ce système.

Mais pourquoi ces bulles sont-elles si attractives ? Parce que chaque investisseur, bien qu’ayant conscience de la survalorisation d’un indice boursier, désire prendre le train avant qu’il ne soit trop tard. Une bulle permet bien de faire du profit au travers de transactions sur une période déterminée. L’investisseur rationnel saisit cette opportunité.

 

Pour aller plus loin

Olivier Lacoste, Les crises financières histoire mécanismes et enjeux, Eyrolles 2009

Christian Chavagneux, Une brève histoire des crises financières Des tulipes aux subprimes, La découverte 2011

Problèmes économiques, comprendre les crises économiques, numéro 2 La documentation française novembre 2012

Alya Aglan, Michel Margairaz et Philippe Verheyde, Crises financières, crises politiques en Europe dans le second XIXème siècle, La caisse des dépôts et des consignations, Droz 2011

Tomas Piketty, Le Capital au XXIème siècle, Éditions du Seuil 2013

 

Arthur Ribes, étudiant à Sciences Po et contributeur du blog AlumnEye

 


Le rôle des agences de notation

Moody’s, Standard & Poor’s ou encore Fitch Ratings, ces agences de notation financière ont joué un rôle majeur dans les dernières crises monétaires et financières. Celles-ci ont pour vocation d’évaluer le risque de solvabilité d’une entreprise, d’un Etat ou d’une collectivité locale. Depuis les années 1980, ces agences sont devenues des indices de référence aussi bien pour les émetteurs que les investisseurs. Elles influencent donc directement l’avenir des Etats et des entreprises notées, ainsi que le comportement des investisseurs institutionnels. Pourtant, leur réputation est aujourd’hui menacée, leurs méthodes de calcul comme leur rôle sont régulièrement contestés. Dans ce contexte, il apparaît d’autant plus important de décrypter leur système de notation, ses implications et plus globalement le rôle de ces agences.

 

Les grandes agences de notation

Le marché des agences de notation est oligopolistique : trois agences (Moody’s, Standard & Poor’s, Fitch Ratings) seulement se partagent 95% des demandes de notation mondiales. Ce pouvoir de marché est régulièrement contesté puisque ces trois agences sont américaines. Dans les années 2010, des agences non-américaines ont aussi commencé à syndiquer, tentant de former un front alternatif au « Big Three ». L’agence de notation chinoise Dagong Global Credit Rating, fondée en 1994, matérialise cette contestation du leadership américain absolument stratégique.

Standard & Poor’s (S&P) : fondée en 1860, S&P constitue la première agence de notation de l’histoire. Il s’agit désormais d’une filiale de l’entité S&P Global, détenue principalement par des fonds de pension et d’investissement américains. Elle est notamment connue sur le marché américain pour son indice boursier S&P 500. En 2011, l’agence a abaissé la note de la dette publique américaine de « AAA » à « AA+ », une première historique depuis 1917. Néanmoins, cette analyse reposait grandement sur une projection de deux mille milliards de dollars de dette, comptabilisée deux fois par erreur. La crédibilité de l’agence a été également contestée par la notation trompeuse de produits financiers toxiques au moment de la crise des subprimes. Elle reste néanmoins une référence.

Moody’s : l’agence de notation, fondée en 1909 par John Moody (ancien journaliste financier), s’est montrée plusieurs fois novatrice sur le plan de la notation. Aujourd’hui détenue à 13,1% par Berkshire Hathaway, une société d’investissement américaine, elle se compose de Moody’s Analytics (fournisseur de solutions de gestion de risques) et Moody’s Investors Service (analyse d’entreprises commerciales, de sociétés et organismes publics). Elle a été la première à introduire des symboles et des lettres dans sa notation. Avec S&P, Moody’s représente environ 80% du marché des notations. A certains égards, l’oligopole est donc un duopole.

Fitch Ratings : créée en 1913 par John Knowles Fitch, alors sous le nom de Fitch Publishing Company. En 1997, elle fusionne avec IBCA Limited, et passe alors sous le contrôle du holding français Fimalac. Néanmoins en 2006, Fimalac cède 20% du capital au groupe américain Hearst corporation. En 2014, Hearst détient 80% de Fitch Ratings, les 20% du capital restant appartenant encore au holding Fimalac. Son système de notation financière est proche de celui de S&P.

Dagong Global Credit Rating : créée en 1994, l’agence Dagong souhaitait contester le monopole américain sur les agences de notation. Guan Jianzhong, son président et directeur, a déclaré avoir une « mission historique » : réformer les méthodes de notation des agences et mettre fin au « Big Three ». Dagong est principalement connue pour attribuer une note plus faible à la dette souveraine américaine (« A » depuis le 3 août 2011). L’agence demeure en conflit avec la Securities and Exchange Commission (SEC), qui accorde les accréditations aux agences, et a refusé sa demande en octobre 2010. Certains analystes contestent ses méthodes et son manque de transparence. Dagong s’est néanmoins montré précurseur à quelques reprises, par exemple dans le cas français. L’agence a diminué la note de la France en 2010, avant que les autres agences ne le fassent un an plus tard.

LA4Lire aussi : Le Sovereign Advisory en pleine mutation ?

 

Le processus de notation

Auparavant, les agences de notation étaient financées par les investisseurs afin d’obtenir les notes des émetteurs. Aujourd’hui, c’est l’émetteur souhaitant être noté qui rémunère l’agence de notation. Lorsque la notation n’est pas sollicitée, celle-ci est basée sur des informations publiques. A l’inverse dans la notation demandée, l’agence collecte des informations et organise des entretiens afin de fiabiliser ces informations. Le processus global qui accompagne une notation est relativement commun et partagé par les différentes agences. Celui-ci est notamment exprimé par S&P Ratings services dans sa note « le processus de notation et le suivi des notes ». Une fois que la décision du comité de notation a été prise et communiquée à l’émetteur, celui-ci peut faire un appel de la décision, avant la publication d’un communiqué synthétique. En revanche, la méthode précise de notation et les critères de notation diffèrent davantage. Comme le suggère l’économiste François Gilbart : « les agences de notation ne communiquent traditionnellement pas leur modèle d’évaluation afin d’en conserver le monopole ».

 

Source : « Le processus de notation et le suivi des notes », Standard&Poor’s Ratings Services

 

Les critères de notation varient selon les agences, mais surtout selon les secteurs. En effet le risque de non-remboursement s’appréhende différemment dans le secteur bancaire, assurantiel ou étatique. Pour établir un rating souverain (niveau de solvabilité d’un État), les agences de notation s’intéressent à trois grands critères : la solvabilité (souvent mesurée par le ratio dette extérieure totale/PIB), la soutenabilité (maîtrise de l’évolution du poids de la dette) et la liquidité (capacité d’un point de vue de la trésorerie). D’après les travaux de S&P, le rating souverain s’appuie sur cinq piliers : économique, institutionnel, extérieur, budgétaire et monétaire. Les facteurs économiques et institutionnels permettent d’établir un « profil économique et institutionnel ». Les facteurs extérieurs, budgétaires et monétaires, permettent d’établir un « profil de flexibilité et de performance ». Ces deux profils permettent d’aboutir à un niveau indicatif de la note d’un Etat.

Pour prendre un autre secteur majeur, les agences ont par exemple revu leur méthode de notation bancaire suite à la crise de 2008. D’après une note publiée par Moody’s Investor Service, cette notation se décompose en plusieurs aspects :

  • Une évaluation de la solidité intrinsèque de la banque dite « Baseline Credit Assessment », appuyée sur le profil macroéconomique (macro profile), les ratios de solvabilité et de liquidité qui forment le profil financier (financial profile) et des indicateurs plus qualitatifs (qualitative adjustments) ;
  • Un ajustement de la « Baseline Credit Assessment » avec les potentiels soutiens affiliés à la banque ;
  • Une analyse « Loss Given Failure (LGF) » qui détermine les risques des pertes en cas de défaillance ;
  • Une évaluation du soutien potentiel de la part du gouvernement, qui impacte également le risque de défaut.

Les secteurs souverains et bancaires révèlent les divergences d’évaluation entre chacun d’entre eux. L’objectif de la notation reste néanmoins le même : évaluer le risque de défaut. Ce risque est apprécié au regard de la situation économique d’ensemble, des soutiens potentiels mais également des risques encourus pour l’investisseur dans le cas de défauts potentiels. Les notes des agences vont de A à D, avec des échelons intermédiaires selon les agences.

 

Source : « Overall approach to rating bank instruments », Moody’s Investor Service

 

En théorie, la notation n’a pas pour but d’impacter les marchés financiers, néanmoins une dégradation de la note est pratiquement systématiquement suivie d’une baisse du cours du titre visé. Dans le cadre d’une entreprise cherchant à se financer, plus la note est élevée et plus celle-ci bénéficie de conditions de financement favorables, par le biais d’obligations ou d’un refinancement sur le marché bancaire. La note n’est pas figée et peut évoluer tout le long de la vie d’un actif, bien que ces notations demeurent une estimation du risque de solvabilité et non des recommandations d’achat ou de vente.

 

Synthèse des notations des différentes agences

 

    ENTRETIEN EN FINANCE : PRÉPARE LES BRAINTEASERS

Découvre gratuitement les Brainteasers posés en entretien avec les réponses détaillées par un pro de la finance.

 

Une indépendance et des méthodes de calcul contestées

Les agences de notation sont néanmoins extrêmement contestées sur le plan de leurs méthodes de notation, mais aussi au niveau de leur indépendance. Une agence est employée par l’acteur de marché qui souhaite être noté ; elles sont donc dépendantes de leurs émetteurs puisque la rémunération fournie leur est indispensable afin de poursuivre leur activité. De surcroît, les agences sont souvent accusées d’effectuer des activités de conseil en parallèle de leur activité de notation, autre problématique de conflit d’intérêt potentiel. Elles peuvent fournir par exemple des services auxiliaires comme la « pré-notation », qui consiste à informer une entreprise de l’impact qu’aurait une opération sur sa notation (par exemple une fusion-acquisition). Cette « pré-notation » s’apparente à des égards à une activité de conseil, bien que les agences s’en défendent, la pratique étant en effet interdite. La critique majeure demeure sur le principe de l’émetteur-payeur. Le marché croît en l’indépendance des agences, car il part du principe qu’une agence doit préserver sa bonne réputation. Néanmoins, ce principe de réputation est en vérité peu applicable, comme le soulève Kenneth C. Kettering, chercheur à l’American Law Institute. En effet, ces dernières années la réputation des agences de notation s’est détériorée, mais pas leur chiffre d’affaires. Dans le cadre de la crise des subprimes, les agences de notation ont survalorisé des produits structurés.

Or, si elles avaient refusé d’attribuer une bonne notation à ces produits structurés, les agences de notation auraient sans doute perdu bien davantage de clients et de revenus qu’en leur donnant une notation plus mesurée, pourtant plus favorable à leur réputation de moyen et long terme. L’économiste américain Paul Krugman révèle même en 2009 que des messages internes chez Standard and Poor’s expliquent qu’il faut organiser une réunion pour « ajuster les critères de notation » afin d’évaluer des titres hypothécaires « à cause de la menace actuelle de perdre des contrats », lorsqu’un autre message demande que les notes sur les produits financiers subprimes « soient adoucies pour préserver les parts de marchés de l’agence ». En d’autres termes, les agences sont alors incitées à surévaluer positivement les produits financiers subprimes afin de maintenir leurs parts de marché.

La problématique de l’indépendance des agences de notation est donc manifeste. Les agences de notation ont également des difficultés à évaluer avec précision des opérations financières dont la complexité est croissante. Au moment de la bulle internet, les notes attribuées étaient extrêmement positives et incitaient à l’achat. C’est seulement en juin 2002, alors que les indices boursiers avaient déjà perdu 40% en deux ans, que les agences ont commencé à baisser leurs notes des entreprises cotées. Les agences de notation n’ont pratiquement jamais réussi à anticiper les crises, et au contraire modifient leurs notes à retardement. Les mécanismes inhérents à une crise financière (anticipations auto-réalisatrices, surréaction, mimétisme rationnel) sont d’ailleurs très complexes à intégrer à la notation. A l’inverse les actions des agences de notation peuvent avoir par la suite des conséquences procycliques, à l’image de la détérioration de la note d’un Etat dans une situation déjà difficile. Enfin, plusieurs scandales ont nettement porté atteinte à la crédibilité des agences. En 2012, S&P a par exemple été condamnée par la justice australienne en raison des notations trompeuses sur des produits financiers toxiques.

LA4Lire aussi : Le rating souverain : une mesure pertinente du risque des Etats ?

 

Les agences de notation et les dernières crises financières

Ce discrédit trouve principalement son origine dans les dernières crises financières. Les produits structurés liés à la titrisation et aux dérivés de crédit ont joué un rôle majeur dans la crise de 2008. Dans son ouvrage « La crise : Pourquoi en est-on arrivé là ? Comment en sortir ? », l’économiste hétérodoxe Michel Aglietta développe : « Dans le cas des crédits titrisés, les agences de notation notent et sont en même temps parties prenantes de la titrisation. La constitution du produit et la notation sont complètement imbriquées. Sans la notation, le titre n’a pas d’existence ». En notant « AAA » ce type d’opération financière, les agences de notation ont sous-évalué le risque encouru par les investisseurs et ont contribué à la formation d’une bulle de crédit. Elles ont d’abord refusé de dégrader les notes des émetteurs qui apparaissaient déjà peu solvables, mais elles ont ensuite brutalement baissé leurs notes, ce qui a aggravé la crise systémique. Dans un premier temps au moins, les agences n’ont ainsi pas joué leur rôle qui consiste à évaluer le risque réel de défaut. La crise grecque a également été symptomatique. Malgré les difficultés de la Grèce et les scandales, Standard & Poor’s a mis plus de trois mois à abaisser la note. La dégradation de la note souveraine est au contraire à l’origine de l’aggravation de la crise systémique. Les agences de notation ont donc le défaut majeur d’alimenter la spéculation sur le marché financier, alors qu’elles ne peuvent en contenir tous les effets. En 2009, Jean-Pierre Jouyet, Président de l’Autorité des Marchés Financiers l’affirmait, selon lui les agences de notation ont eu « une part de responsabilité dans la crise ». Dans un rapport au Sénat « Agences de notation, une profession réglementée » émis en juin 2012, plusieurs propositions étaient faites afin d’améliorer les mécanismes existants. Afin de contrer ce décalage temporel et éviter la volatilité des notations, les sénateurs proposaient d’instaurer une obligation pour les agences de mettre en place un calendrier de publication des notations souveraines à date fixe, transparent et déterminé à l’avance. Si cette proposition apparaît d’une trop grande rigidité, on observe bien les risques spéculatifs posés par les agences de notation.

 

Quel avenir pour les agences de notation ?

Malgré ces déboires, les agences de notation restent des acteurs fondamentaux dans l’évaluation de la solvabilité. Leur fin ne peut être à l’ordre du jour, néanmoins on peut envisager davantage de concurrence pour les agences dominantes, ou encore une évolution de la réglementation. De leur côté, les agences tentent de mettre en place plus de transparence sur leurs méthodes de notation afin de préserver leur crédibilité. En 2004, la réglementation bancaire des accords Bâle II a autorisé les banques à avoir recours aux agences de notation afin de déterminer leur juste niveau de fonds propres. Pour pouvoir utiliser le rating d’un organisme externe, celui-ci doit être agréé par une agence d’évaluation indépendante et ainsi remplir six critères fondamentaux :

  • La transparence : les notes doivent être accessibles (pas forcément gratuitement) à tous ;
  • L’indépendance : elles ne doivent pas être des institutions publiques, ni compter des banques dans leur actionnariat ;
  • L’objectivité : des méthodes de notation rigoureuses, systématiques et pertinentes ;
  • Un niveau de ressources suffisant pour mener à bien ses missions ;
  • L’information du public ;
  • Une forte crédibilité.

Même si ces critères sont forts et ne favorisent d’ailleurs pas l’émergence de nouveaux acteurs, ils ne sont pas apparus suffisants au moment des dernières crises financières. On pourrait alors imaginer différents modèles alternatifs, comme le retour du système de l’investisseur-payeur en lieu et place de celui de l’émetteur-payeur. Pour plus d’indépendance, la création d’agences de notation publiques a aussi été envisagée mais dans ce cas la collusion avec les gouvernements serait également problématique. Enfin, des chercheurs ont défendu l’interposition d’un tiers indépendant dans la procédure de notation, comme l’Agence des Marchés Financiers (AMF) en France ou la Securities and Exchange Commission (SEC) aux Etats-Unis.

 

Les agences de notation évaluent strictement les risques financiers, elles se limitent donc à des indicateurs dans ce domaine. A l’avenir, on pourrait néanmoins envisager une prise en compte croissante de critères sociaux ou environnementaux, critères habituellement retenus par les agences de notation sociétales. Le réchauffement climatique comporte en effet des risques majeurs, à court comme à long terme, ayant également des impacts sur le plan de la solvabilité. La réforme des agences de notation pourrait donc intervenir de l’extérieur, mais se fait également de l’intérieur. Dans le contexte de la crise économique du Covid-19, les agences ont modifié leur notation en conséquence. Il est possible de le constater sur le plan de la dette souveraine, avec les réajustements des notes britanniques, italiennes ou encore sud-africaines, ou encore les high yield bonds. Steven Maijoor, président de l’ESMA (l’autorité de supervision des marchés financiers) a néanmoins suggéré que le « calendrier des annonces devait être soigneusement calibré ». En abaissant trop rapidement la notation des entreprises et des pays en difficulté, les agences pourraient en effet renforcer la récession liée au Covid-19. Par ce propos, il souligne bien les risques qui entourent l’action des agences de notation, particulièrement en période de crise. L’épisode du coronavirus semble pour l’heure montrer que l’intervention des agences peut conserver toute son utilité, à condition d’en maîtriser les effets pervers.

 

Nathan Granier, étudiant à l’ESCP Europe et contributeur du blog AlumnEye

 


De Blockchain à Holochain : vers une décentralisation complète d’Internet ?

La technologie de Blockchain portait de grosses ambitions pour décentraliser le système monétaire internationale lors de son apparition en 2008. Certains la voyaient même devenir le troisième pilier d’internet après l’invention de l’ordinateur et des smartphones, et son principe majeur de décentralisation a dépassé le périmètre des transactions financières pour atteindre une multitude d’autres domaines déjà existants. Mais la Blockchain est loin d’être une technologie parfaite et elle présente deux défauts principaux qui l’empêcheront certainement de devenir un succès mondial en l’absence d’améliorations : le nombre limité de transactions possibles par minute et l’énorme consommation d’énergie nécessaire au fonctionnement du réseau. Une nouvelle technologie appelée Holochain a récemment fait son apparition pour remédier à ces deux faiblesses, et vient avec des ambitions encore plus titanesques que celles de la Blockchain : décentraliser l’entièreté du réseau internet !

 

Introduction au Bitcoin et à la Blockchain

L’histoire du Bitcoin remonte au 31 octobre 2008 quand un personnage mystérieux, sous le pseudonyme de Satoshi Nakamoto, a révélé pour la première fois au monde l’existence du Bitcoin. Dans un article intitulé « Bitcoin : A peer-to-peer electronic cash system » et publié sur une liste de diffusion secrète, Satoshi décrit un système de transaction entre individus qui repose uniquement sur le calcul cryptographique et non sur la confiance. Le 3 janvier 2009, Satoshi a donné naissance au Bitcoin en minant le bloc de genèse qui a généré 50 Bitcoins pour le créateur. 9 ans plus tard, le 17 décembre 2017, le Bitcoin s’échange partout dans le monde à un prix record de 19 891 dollars l’unité, avec une capitalisation boursière mondiale de 334 milliards de dollars, légèrement supérieure à celle de la banque universelle J.P. Morgan Chase & Co à l’époque. Alors comment un instrument dépourvu d’existence physique peut-il atteindre des prix aussi exorbitants ? Et qu’y a-t-il de si spécial derrière la technologie de Blockchain pour pousser les experts à appeler Bitcoin « l’or numérique » ?

Le Bitcoin est ce que l’on appelle une cryptomonnaie ou une monnaie numérique ; c’est la plus célèbre d’entre elles. Ce n’est rien d’autre qu’une chaîne de signatures numériques ou, dans le langage informatique, une chaîne de bits (0 et 1) dont l’exactitude a été prouvée par une majorité d’utilisateurs d’un réseau « pair-à-pair ». Cette notion de pair-à-pair (peer-to-peer) est au cœur même des motivations derrière les cryptomonnaies. L’une des principales idées présentées par Satoshi dans ses premiers travaux était d’évincer les institutions financières du paysage des transactions financières et de fournir aux individus un moyen d’échanger de l’argent de manière indépendante. Cela signifiait que la communauté mondiale devait remplacer la confiance qu’elle avait dans les institutions financières pour éviter le chaos dans l’économie avec un autre outil. Cet outil réside dans la cryptographie selon Satoshi et il est encore plus puissant qu’un concept abstrait tel que la confiance. C’est là que la technologie de Blockchain, ou chaîne de blocs en français, devient nécessaire. Concrètement, la Blockchain, en tant que chaîne de blocs, est composée de blocs qui forment une chaîne. Voilà ! Plus sérieusement, il s’agit d’une base de données distribuée et sécurisée. La Blockchain sert donc à stocker de l’information de manière « distribuée ». C’est à dire que là où les bases de données traditionnelles, qui sont pour la plupart centralisées, nécessitent d’adresser une requête vers un serveur qui contient toutes les données pour obtenir ou modifier une information, la Blockchain va elle stocker des blocs d’information distribués sur les serveurs de plusieurs de ses utilisateurs.

 

Comment faire pour échanger des Bitcoins ?

Pour que deux personnes puissent effectuer une transaction, le propriétaire doit signer numériquement un hachage (valeur renvoyée par une fonction de hachage, qui est utilisée en cryptographie pour transformer des données de taille arbitraire en données cryptées de taille fixe) de la transaction précédente (celle où il a acquis le Bitcoin) et ajouter une clé publique du prochain propriétaire à la fin de la pièce. C’est ainsi qu’un Bitcoin garde la trace de tous ses propriétaires précédents et l’ordre exact de propriété. Néanmoins, un premier problème majeur surgit. Il s’agit de ce que Satoshi appelle le problème de la double dépense (double-spending problem), qui est contrôlé dans la vie réelle par les banques. Comment empêcher un propriétaire de Bitcoin de signer une transaction avec deux personnes simultanément, et donc de dépenser deux Bitcoins alors qu’il n’en possède qu’un seul ? La solution à ce problème est de révéler publiquement chaque transaction, mais aussi de faire adhérer tout le réseau à la même chronologie afin que les individus s’accordent sur un ordre global de l’historique des transactions. Un serveur d’horodatage (mécanisme consistant à associer une date et une heure à un événement, une information ou une donnée informatique) est utilisé pour conserver cet ordre en prenant un hachage d’un bloc et en l’annonçant publiquement, ce qui prouve que les données de ce bloc existaient bel et bien à ce moment précis. Chaque horodatage inclut ceux qui le précèdent, formant ainsi une chaîne. Ce procédé permet d’éviter qu’un utilisateur malhonnête ne dépense deux fois son Bitcoin, car la deuxième transaction aurait un horodatage ultérieur et serait considérée comme frauduleuse par le réseau.

LA4Lire aussi : Blockchain, crypto, ICO : au-delà du buzz

 

Blockchain : un socle solide contre les attaques

Cette preuve cryptographique, ou preuve de travail (Proof of Work), est ce qui garantit l’exactitude des transactions et évite le chaos et la fraude au sein du réseau. Néanmoins, cette preuve de travail nécessite une puissance de calcul pour résoudre des problèmes mathématiques, et la puissance nécessaire augmente avec la taille de la Blockchain et donc avec le nombre de transactions. Concrètement, il existe un casse-tête mathématique de nature cryptographique qui doit être résolu pour qu’un bloc puisse être validé. La réponse est ensuite transmise au destinataire qui vérifie si elle est correcte pour valider la transaction. C’est le fameux processus de minage qui est à l’origine de l’énorme consommation d’énergie de la technologie de Blockchain. Chaque mineur tente de résoudre un problème mathématique et le premier à réussir annonce publiquement les résultats. Ces blocs résolus sont ajoutés à des chaînes chronologiquement ordonnées et la plus longue d’entre elles est considérée comme la bonne chaîne de blocs. Il est donc presque impossible pour un groupe de personnes malhonnêtes de pirater la Blockchain car elles devraient contrôler collectivement plus de puissance de calcul (CPU power) que la communauté honnête du réseau. Ils doivent également refaire toutes les solutions mathématiques nécessaires pour créer leur propre version frauduleuse de la Blockchain, et dépasser la longueur de la véritable chaîne pour convaincre le réseau que leur Blockchain est la bonne. Dans le 11ème chapitre de son article, Satoshi apporte la preuve mathématique qu’un utilisateur frauduleux ne pourrait presque jamais fournir une chaîne de blocs alternative plus rapidement que les utilisateurs honnêtes. Il représente la course entre les utilisateurs honnêtes et les utilisateurs malhonnêtes pour créer la plus longue chaîne de blocs comme une marche aléatoire binomiale, et il prouve que la probabilité de succès de l’attaquant diminue de manière exponentielle à mesure que le nombre de blocs qu’il doit rattraper augmente, ce qui rend le réseau très robuste contre les attaques.

Nous n’avons pas encore abordé la motivation des nœuds du réseau à faire la preuve de travail. En effet, pourquoi un utilisateur sacrifierait-il son temps et la puissance de son ordinateur pour valider une transaction dans laquelle il n’a absolument aucun intérêt ? Pour résoudre ce problème, Satoshi a pensé à récompenser les mineurs qui réussissent avec de nouveaux Bitcoins (ou frais de transaction) créés spécialement pour l’occasion. Cette solution sert également à maintenir l’honnêteté des utilisateurs ; un pirate informatique qui réussirait à contrôler un nombre important de nœuds au sein du réseau utiliserait naturellement cette puissance de calcul pour la preuve de travail et générerait de nouvelles pièces pour lui-même plutôt que d’essayer d’attaquer le système.

 

Source : Contact Distance

 

Les limites de la Blockchain

Voici donc un résumé des différentes étapes nécessaires au fonctionnement du réseau : tout d’abord, une nouvelle transaction est diffusée à tous les nœuds (ordinateurs) du réseau. Chaque nœud rassemble les nouvelles transactions dans un bloc et tente ensuite de résoudre un puzzle mathématique difficile qui représente la preuve de travail. Le premier nœud à trouver une solution partage son bloc avec tous les nœuds du réseau qui ne l’acceptent que si toutes les transactions de ce bloc sont valables, puis l’ajoute à la chaîne existante.

L’analyse menée précédemment montre les plus grands atouts du Bitcoin et de la Blockchain, et comment cette technologie peut révolutionner non seulement le secteur financier mais aussi presque tous les autres secteurs. Néanmoins, il est difficile de croire en sa capacité à décentraliser le secteur financier et à dépasser notre dépendance vis-à-vis des institutions centrales pour diverses raisons.

 

Une transparence très coûteuse en temps et énergie

Le premier obstacle majeur surgit des fondements du consensus mondial qui maintient le réseau opérationnel. En effet, la Blockchain exige un consensus de la majorité des nœuds du réseau sur chaque transaction qui a eu lieu. Elle exige également la tenue d’une grande chaîne mondiale dont chaque copie doit être exactement la même. Ce processus est extrêmement gourmand en temps et en énergie. Le minage du Bitcoin consomme actuellement environ 71TWh par an, ce qui le place au 39ème rang en termes de consommation d’énergie si c’était un pays ! On estime que le réseau utilise actuellement environ 1% de la consommation mondiale d’énergie pour alimenter moins de 0,001% des actifs financiers mondiaux. Ces exigences de traitement constituent également un obstacle énorme qui limite le nombre possible de transactions par minute et donc la scalabilité de l’ensemble du réseau et sa capacité à servir une communauté mondiale. Le réseau de la Blockchain peut actuellement traiter entre 3 et 7 transactions par seconde. Si l’on prend comme référence le système de paiement VISA, qui peut en traiter 2 000 par seconde (25 000 théoriquement à son pic), nous pouvons facilement constater que le Bitcoin est loin de remplacer les systèmes de paiement existants.

 

    TÉLÉCHARGE LE GUIDE DE LA FINANCE GRATUITEMENT

Rédigé par des pro, ce guide décrit les métiers de la finance et t'aidera à y voir + clair dans ton orientation !

 

Euh, on avait dit décentralisation !

Un autre problème qui s’est imposé avec le temps est la centralisation continue du réseau, qui est en contradiction avec l’essence même du principe de base de décentralisation de la Blockchain. Environ 73% du processus de minage est actuellement réalisé par cinq mineurs, 71-75% est miné en Chine en raison des bas prix de l’électricité, et presque tout le réseau fonctionne sur le service de Cloud d’Amazon (Amazon Web Service). Cela rend le réseau très dépendant de chacun de ces acteurs qui peuvent l’influencer à tout moment. En outre, tout comme le modèle capitaliste actuel, les 0,5% des détenteurs de Bitcoins les plus importants possèdent plus de 87% de tous les Bitcoins en circulation.

 

À 36 ans, les frères Winklevoss sont devenus les premiers milliardaires et les figures de proue de l’univers des cryptomonnaies. Il s’agit des mêmes jumeaux derrière le fameux procès accusant Mark Zuckerberg de leur avoir volé l’idée de Facebook !

Source : Vanity Fair

 

Tous ces défauts constituent un vrai frein pour la technologie de Blockchain et son ambition de décentraliser entièrement l’industrie financière. C’est là où la Holochain rentre en jeu avec des ambitions encore plus audacieuses : la décentralisation d’Internet ! Tout d’abord, pourquoi le réseau Internet aurait-il besoin d’être décentralisé ? N’est-ce pas déjà le cas avec l’absence d’organe central qui le contrôle ? De plus, si nous venons de montrer que la Blockchain, avec toute sa complexité, ne pouvait même pas gérer toute l’industrie financière, comment une autre technologie va-t-elle s’attaquer à l’ensemble de ce qui se passe sur Internet ?

 

Source : Bit Conseil

 

Holochain, le futur d’Internet ?

Il est nécessaire de préciser que la technologie n’en est qu’à ses débuts. Les premiers articles présentant le système ont été publiés en 2017, même si l’équipe affirme que son idée est née avant 2008 et la création du Bitcoin. Elle s’appelle Holochain et cette fois-ci, ses inventeurs sont connus : Arthur Brock et Eric Harris-Braun. L’idée derrière leur projet est absolument fascinante et dépasse le stade purement théorique d’après leur code source et les premières applications qu’ils ont créées. Son architecture s’inspire de la nature et des principes organisationnels des systèmes vivants. Si Blockchain exige un consensus sur tous les blocs qui ont été créés, Holochain, elle, définit un consensus sur la façon de les créer. Elle établit uniquement des protocoles de communication entre les nœuds du réseau, tout en les laissant interagir librement les uns avec les autres sans qu’il soit nécessaire d’obtenir un consensus global sur chaque transaction. L’idée est inspirée des cellules qui forment le corps humain ; il n’existe pas de cellule centrale qui contrôle toutes les autres, mais plutôt le même ensemble d’ADN qui permet à chaque cellule d’agir indépendamment tout en respectant les caractéristiques du corps. Un autre exemple peut être donné par le langage que nous utilisons tous les jours. Il n’existe pas de base de données qui contienne l’ensemble des phrases que nous pouvons utiliser. Nous disposons plutôt d’un dictionnaire de mots existants et d’un ensemble de règles de grammaire pour permettre à chacun de parler et de se faire comprendre. Ce système évite d’avoir besoin d’une phrase absolue, ou d’une chaîne absolue dans le cas de Blockchain, sur laquelle tous les utilisateurs doivent se mettre d’accord, car la même phrase peut être communiquée d’une dizaine de manières différentes qui sont toutes correctes.

Ainsi, avec Holochain, chaque agent et chaque nœud du réseau possèdent les règles communes de fonctionnement : le code source de l’application distribuée, appelé Nucleus. En consultant son exemplaire du Nucleus, le nœud peut vérifier la validité des informations qu’il reçoit des autres nœuds (les signaux). Si l’information est valide, le nœud va la stocker et la propager à son tour à ses voisins (gossip), et seules les données intègres circulent sur le réseau. Il est important de noter aussi que contrairement à la Blockchain, où le stockage de l’information est fait d’un point de vue objectif de la donnée (data-centric), il est fait d’un point de vue subjectif de chaque agent (agent-centric) dans le cas de Holochain.

LA4Lire aussi : Blockchain : les entreprises sont-elles prêtes ?

 

Rendre le pouvoir des données au peuple !

Tout d’abord, il convient de se demander s’il est nécessaire de décentraliser le réseau Internet. Les géants technologiques connus sous le nom de GAFA (Google, Apple, Facebook, Amazon) sont connus pour la portée de leurs pouvoirs et de leurs richesses. Une grande partie de leur force provient des énormes ensembles de bases de données contenant toutes les informations personnelles des utilisateurs qu’ils exploitent. Facebook contrôle plus de 80% des réseaux sociaux du monde entier, tandis que le moteur de recherche de Google est l’outil privilégié de plus de 90% d’entre nous, et plus de 50% des données du Cloud sont hébergées chez AWS (Amazon). Il va sans dire que cette situation est problématique pour les internautes réguliers qui n’ont absolument aucun contrôle sur leurs données, qui peuvent facilement être manipulées comme dans le fameux incident de Cambridge Analytica pour Facebook.

Holochain propose donc de remédier à ce problème, et afin de gérer un domaine aussi énorme qu’Internet, elle fusionne le meilleur d’entre trois technologies : Blockchain, BitTorrent et GitHub. Si BitTorrent est souvent synonyme d’illégal en raison du piratage de contenu facilité par cette méthode, c’est avant tout un protocole de communication pour le partage de fichiers en pair-à-pair (P2P) qui est utilisé pour distribuer des données et des fichiers électroniques sur Internet. On estime qu’il était responsable en 2013 de 3,4% de la bande passante mondiale, ce qui représente plus de la moitié de la bande passante totale consacrée au partage de fichiers. Holochain s’inspire de BitTorrent en utilisant les bases de données distribuées et encodées (Distributed Hash Tables). La différence majeure entre BitTorrent et Holochain est que les fichiers échangés dans le premier sont statiques (films), alors que le deuxième permet d’échanger des données dynamiques, typiquement, la base de données d’une application web qui évolue chaque jour (comme Facebook ou Uber). Dans le réseau Holochain, chaque nœud gère sa propre chaîne sans qu’il soit nécessaire de copier la grande chaîne mondiale. Cette méthode s’inspire de GitHub et de la façon dont elle permet aux développeurs de travailler ensemble sur un même projet, tout en permettant à chacun de développer son code source indépendamment dans sa branche. Enfin, à partir de la technologie Blockchain, Holochain s’inspire du stockage sécurisé des données sans avoir recours à des serveurs centraux.

En combinant ces trois technologies, Holochain utilise quatre principes de base pour résoudre les problèmes détaillés plus tôt :

  1. Des applications scalables
  2. Hébergement d’applications P2P pour des utilisateurs ordinaires
  3. Crypto-comptabilité à double entrée
  4. Exploitation des capacités excédentaires en utilisant les principes de l’économie de partage

Dans son Green Paper, l’équipe du projet définit la technologie comme étant destinée aux personnes qui veulent avoir la possession de leurs propres données, personnaliser leur expérience d’utilisateur, décider avec qui partager leurs informations privées et effectuer des transactions sans dépendre des banques ou des gouvernements. La technologie ne nécessite aucune preuve de travail, aucune énergie gaspillée dans le minage, aucun goulot d’étranglement ni aucun retard global grâce à un traitement immédiat et efficace. Elle est si efficace que nous pouvons faire fonctionner 50 nœuds complets du réseau sur un téléphone portable.

 

Une gestion plus optimale des ressources

En quoi les quatre principes fondamentaux de Holochain diffèrent de ceux de Blockchain et comment cela permet au réseau de dépasser son aîné ? Premièrement, la nature cryptographique du réseau Holochain permet aux utilisateurs d’exécuter des applications à grande échelle sans qu’un consensus mondial soit nécessaire. Cette caractéristique est directement issue de l’approche centrée sur les agents de Holochain, par opposition à l’approche centrée sur les données de Blockchain. Cela signifie que les utilisateurs n’ont pas à travailler en permanence sur la même chaîne partagée, ils peuvent également travailler indépendamment sur leur propre version de la chaîne qu’ils peuvent décider de partager par la suite. La deuxième innovation introduite par Holochain est l’hébergement d’applications P2P pour les utilisateurs grand public. Là où Blockchain demande à ses nœuds de gaspiller des quantités astronomiques d’énergie dans le processus de validation des blocs, Holochain offre en revanche la possibilité à ses nœuds d’héberger des applications sur leurs serveurs respectifs et d’être récompensés pour cela. Comme mesure d’incitation, Holochain a créé une autre forme de cryptomonnaie, Holo, qui est adossée à un actif du monde réel contrairement aux autres cryptomonnaies.

L’approche d’hébergement distribué que propose Holochain est déjà adaptée à de nombreuses applications qui existent aujourd’hui. Plus une application est populaire, plus elle est hébergée par des nœuds qui cherchent à être récompensés pour leurs services. Cela signifie qu’une application comme Wikipedia par exemple n’aurait plus besoin de demander constamment des dons à ses utilisateurs pour continuer à maintenir ses services. Toutes les applications que nous utilisons chaque jour sont actuellement hébergées sur des serveurs centralisés, et la plupart d’entre elles sont des clients du service de Cloud d’Amazon AWS. Cet outil présente de nombreux avantages comme la rapidité d’exécution, le prix et la réduction des risques. Parmi les principaux défauts de ce système, on peut citer la dépendance constante d’une application à un tiers comme Amazon pour son fonctionnement, mais aussi les risques de failles de sécurité, de surveillance et de manipulation des données des utilisateurs en raison du stockage centralisé des données. Si nous revenons au scandale de Cambridge Analytica, une violation massive de millions de données personnelles sur Facebook sans le consentement des utilisateurs n’aurait jamais été possible si ces données étaient stockées dans des millions d’ordinateurs à travers le monde. Enfin, l’innovation clé derrière le réseau Holochain est le système de crypto-comptabilité à double entrée. Alors que l’ensemble du réseau aura toujours une monnaie globale nette de zéro, chaque utilisateur individuel aura un compte positif ou négatif de Holos. Tous ces comptes s’additionnent pour atteindre cette somme nulle, et c’est ce qu’on appelle un système de crédit mutuel.

 

Source : Holo Green Paper, page 6

 

Holochain a certainement un énorme avantage par rapport à Blockchain et cela est principalement dû à son approche centrée sur les agents par rapport à l’approche centrée sur les données du réseau Blockchain. En outre, ses concepts sont loin du stade purement théorique, comme il existe déjà des applications qui fonctionnent sur le réseau Holochain. Néanmoins, nous sommes encore loin de voir cette technologie prendre le dessus sur Internet. Il existe aujourd’hui pour chaque application qui pourrait fonctionner sur le réseau Holochain une entreprise bien établie qui se concentre uniquement sur cette application spécifique (Uber, Airbnb, Spotify, etc.). La communauté Holochain va donc être confrontée à une énorme concurrence sur tous les fronts, et il va falloir être très patient pour voir comment cette technologie va évoluer à l’avenir.

Chadi El Adnani, étudiant à HEC Paris / Télécom Paris et contributeur du blog AlumnEye

 


Pourquoi l’or comme valeur refuge en temps de crise ?

Il a régulièrement été constaté, par le passé, que l’or se met au diapason de nombreuses lèvres lors de périodes plus qu’incertaines. Valeur souvent plébiscitée, gage de sécurité lorsque les marchés ne peuvent offrir de garanties, et ce depuis plusieurs siècles, l’or se distingue du reste des actifs à bien des égards. Pourquoi ce métal précieux suscite tant la convoitise ? Qu’est-ce qui fait sa singularité ?

 

Les paramètres influents sur le cours de l’or

L’or est un métal rare dont l’évolution du cours est régie par plusieurs facteurs dont, généralement, l’influence a pu être distinguée empiriquement. Historiquement, l’or était directement indexé sur le dollar par les accords de Bretton Woods jusqu’à ce que cette convertibilité soit finalement révoquée au cours des années 1970 en raison d’une hausse dangereuse de l’inflation dans de nombreux pays, et de deux dévaluations successives du dollar en 1971 et 1973, rendant le système de parité entre les monnaies insoutenable. Avant ces évènements, le cours de l’or est fixé à 35 $/once, l’once étant la masse de référence utilisée pour les cours officiels (équivalente à 31.104 grammes).

Depuis, il est entre autres observé que le cours de cette matière première suit une évolution négativement corrélée à celle du dollar. Ainsi, une dépréciation de la monnaie américaine pourrait favoriser l’achat d’or ainsi qu’une hausse de son prix. Néanmoins, certains spécialistes incitent à la prudence, comme Paul Wong, gestionnaire de portefeuille chez Sprott Asset Management, qui évoque des politiques de plus en plus agressives de la part des banques centrales, amplifiant la volatilité au niveau des corrélations entre actifs. En effet, ce constat vérifié des années durant semble perdre de sa pertinence sur les dernières années. Ce paramètre n’est donc pas à considérer de façon isolée. Il s’agirait de le conjuguer à celui des taux d’intérêts. Là encore, il a fréquemment été noté une évolution négativement corrélée. Une hausse des taux d’intérêts génère donc assez souvent une tendance baissière sur le cours de l’or (et une psychologie de vente chez les investisseurs), mais quelques exceptions contraires à cette règle ont pu être notées. Ainsi, prédire l’évolution du cours de l’or devrait plutôt reposer sur une analyse conjuguée de ces deux indicateurs.

LA4Lire aussi : Dossier AlumnEye : le trading de commodities

 

Outre ces effets macroéconomiques, le cours de l’or est aussi déterminé par le principe de l’offre et de la demande, d’autant plus que ce matériau se fait de plus en plus rare. La production annuelle d’or est aujourd’hui d’environ 3 000 tonnes (alors qu’elle n’atteignait que 1 000 tonnes au début des années 1980) pour une demande globale supérieure à 4 000 tonnes. Selon certains experts, elle devrait s’éteindre d’ici 20 ans en raison de l’épuisement total des réserves de la planète, d’autant que ses coûts de production ne cessent d’augmenter et que son exploitation devient contestable en matière d’écologie, le tout associé à une hausse de la demande… Il en découle que cette conjoncture pourrait bien avoir son influence sur le prix de l’or d’ici peu. L’inflation exerce également une influence sur le prix de cette matière première. Mécaniquement, une hausse de l’inflation, générée par une augmentation des prix, aboutit in fine a une augmentation du cours de l’or.

Enfin, l’une des causes les plus importantes : la psychologie du marché et notamment le contexte économique et géopolitique mondial, qu’il est nécessaire de bien connaître avant de tenter tout investissement. Et ce qui confère tant d’importance à ce dernier paramètre, c’est une propriété bien particulière inhérente à ce produit de marché.

 

    ENTRETIEN EN FINANCE : PRÉPARE LES BRAINTEASERS

Découvre gratuitement les Brainteasers posés en entretien avec les réponses détaillées par un pro de la finance.

 

L’avantage de l’or en bourse

Dans un contexte classique, c’est-à-dire en l’absence de panique financière, les actions et les obligations demeurent les principaux actifs échangés sur les marchés financiers. Cependant, les premières sont corrélées aux résultats d’une entreprise, aux annonces qui y sont associées, et les secondes aux capacités d’un état à rembourser sa dette par exemple. En somme, cette matière première est indépendante des aléas auxquels sont soumis les actifs évoqués ci-dessus. De plus, l’or, contrairement aux actions et aux obligations, n’offre des profits à ses investisseurs que par la variation de son cours, et ne véhicule pas des flux réguliers tels que les dividendes, les coupons, etc. Ce produit de bourse est donc tout à fait indépendant des marchés financiers.

Des conflits géopolitiques, des tensions économiques, tels que le choc pétrolier de 1979, ou plus récemment la crise économique et financière de 2008, sont autant de facteurs faisant régner l’incertitude sur les marchés et c’est alors que l’or se présente comme une alternative « de repli » pour les investisseurs. Il en résulte alors fréquemment une augmentation de son cours via une demande croissante à l’achat lors de phases de manque de confiance sur les marchés habituels. C’est d’ailleurs en ce sens que le métal jaune se voit attribuer la dénomination de « valeur refuge », un investissement de repli dans lequel se « réfugient » les acheteurs en vue de protéger leur capital dans des circonstances périlleuses.

LA4Lire aussi : Commodities : panorama du marché des matières premières

 

L’or, un produit sûr et peu volatil… est-ce finalement vraiment le cas ?

En partant de l’analyse précédente, ce métal précieux peut être considéré comme la solution miracle à tout aléa boursier et géopolitique. C’est justement tout le crédit que lui porte l’opinion commune. Cependant, trader cette matière première requiert certaines précautions, et de nombreux analystes invitent les acheteurs à la prudence, d’autant plus à l’heure actuelle. L’or atteint en effet des plus-hauts encore jamais répertoriés depuis la fin de son indexation sur le dollar.

David Gandar, gérant d’un cabinet de gestion de patrimoine, affirme lors d’une interview accordée au Républicain Lorrain que « Le potentiel de hausse [de l’or] est très limité, le potentiel de baisse est énorme. […] Quand l’ensemble de la finance mondiale aura réglé ses problèmes, le niveau de l’or va immédiatement baisser de manière conséquente. »

Par ailleurs, au regard de l’augmentation constante du cours de l’or depuis maintenant 20 ans, c’est le phénomène classique de bulle spéculative qui peut inquiéter, par lequel le cours d’un actif (en l’occurrence l’or dans le cas présent) augmente avec une certaine probabilité, mais en laissant place également à une probabilité d’ « éclatement », c’est-à-dire à une chute brutale du cours.

L’existence, aussi, de nos jours, de nombreux produits dérivés sur l’or, en quantités plus importantes que l’or lui-même, contribue à amplifier la volatilité du cours de ce métal, c’est-à-dire ses phases de hausse ou de baisse. De plus, il a été constaté statistiquement que les phases de baisse du cours ont souvent été plus courtes que les phases de hausse (les baisses ont une durée d’environ 4 ans, contre 6 ans pour les hausses en moyenne).

Enfin la corrélation négative entre l’évolution des cours sur les marchés traditionnels et celui de l’or n’est pas absolue, c’est la raison pour laquelle la notion de « valeur refuge » doit être maniée avec précaution. Par exemple, lors du krach de 1998 lié à la chute de la valeur du rouble, l’or a enregistré une baisse de 5 % environ (coté à plus de 300 $ l’once au premier semestre, celui-ci a atteint un plus bas à 282 $ à la fin du mois d’août, suite à la dévaluation du rouble). En outre, si d’une manière générale la valeur du métal jaune a tendance à augmenter en temps de crise, cette observation s’applique essentiellement sur des durées d’investissement importantes, car l’or enregistre des fluctuations sur des intervalles hebdomadaires ou mensuels qui peuvent être baissières, et ce même en période de panique sur les marchés. C’est d’ailleurs ce qui a pu être remarqué lors de la crise récente liée au coronavirus ; notamment, entre le 9 mars (1 675 $/once) et le 19 mars (1 478 $/once), le métal jaune a concédé une baisse de près de 12%, avant de finalement subir une correction une semaine plus tard en revenant à un prix de 1 650 $/once et même de repartir à la hausse pour osciller au-dessus de 1 700 $/once courant avril.

 

Si l’or a fréquemment répondu aux attentes en temps de crise en affichant une tendance inverse à celle observée sur les marchés obligataires ainsi que ceux des actions, l’expérience a révélé qu’il ne fallait pour autant pas en extraire une règle absolue. Ce produit peut certes se présenter comme une option pertinente pour les investisseurs dans ce type de circonstances, mais bien qu’indépendant des marchés traditionnels, l’or ne déroge pas à l’analyse rigoureuse qui se doit d’être réalisée avant tout investissement, notamment d’un point de vue macroéconomique. Un placement relativement sûr, donc, mais nécessitant un minimum de vigilance.

 

Nicolas Liszczynski, étudiant à l’Edhec et contributeur du blog AlumnEye