lundi 6 octobre 2008

SpaceX ou la start-up orbitale



Son lanceur Falcon et sa capsule Dragon transporteront équipages, matériel et sondes entre la Terre, l'ISS, la Lune et d'autres planètes à prix cassés. De quoi bouleverser la donne commerciale et stratégique spatiale.

We could be heroes

A l'ombre du triomphe spatial de la Chine et de ses trois taïkonautes arpentant les cieux, SpaceX faisait démentir tous les Cassandre persuadés qu'une agence spatiale privée ne pouvait atteindre l'orbite basse habitée durant cette décénnie.

Le 28 septembre 2008 à 23H15 GMT, sa fusée mono-booster Falcon 1 propulsée à l'oxygène liquide - qui connut auparavant trois défaillances successives – s'élança de l'atoll militaire de Kwajalein dans le Pacifique Sud (à 4000 km au sud-ouest de l'île de Hawaï), atteignit une orbite elliptique de 500 sur 700 km pour une inclinaison de 9,2 degrés. Le second étage du lanceur transportait une charge neutre expérimentale de 165 kg spécialement conçue pour cette mission. Grâce à de petites caméras fixées sur la coque de la fusée, le vol complet fut diffusé en direct par quelques chaînes câblées américaines et par le site internet de l'entreprise. Forte de ce test remarquablement réussi, Falcon 1 mettra un satellitte malaisien d'observation en orbite géostationnaire et effectuera trois vols supplémentaires au premier semestre 2009.

Avant de se propulser dans son futur orbital, survolons l'histoire de cette agence spatiale privée 360 km plus bas.

Space Exploration Technologies a été fondée en 2002 par le milliardaire Elon Musk, chairman de Tesla Motors et co-fondateur de Paypal et de Zip2. Le visionnaire et brillant manager a investi plus de 100 millions de dollars de sa cassette personnelle dans cette entreprise développant des véhicules récupérables de transport et de ravitaillement entre la Terre et l'orbite basse habitée - notamment vers la Station Spatiale Internationale - et de catapultage de missions lunaires et interplanétaires. L'entreprise dispose de 550 salariés répartis entre l'atelier de conception à Hawthorne (Californie), le centre de test à Mc Gregor (Texas), des bureaux à Washington DC et deux sites de lancement (Cape Canaveral et Kwajalein) maintenus par une trentaine d'opérateurs flexibles. Ces maigres ressources tous azimuts – comparées à celles pantagruéliques des agences gouvernementales - expliquent en grande partie les coûts du Falcon 1 : 12 millions de dollars pour le développement, 7 millions de dollars pour le vol inaugural de l'automne 2008 !

La start-up doit également beaucoup à la NASA qui émit en 2006 le programme COTS (Services Commerciaux de Transport Orbital) appuyant financièrement et normativement les transporteurs spatiaux privés. Les compagnies Orbital Sciences et SpaceX forgèrent des concepts suffisamment probants pour damer le pion à leur concurrent Boeing et rafler le premier tour de financement (COTS-A : 450 millions de dollars) par l'agence gouvernementale.

En plus du Falcon 1, SpaceX développe le Falcon 9 à neuf boosters décliné en trois variantes :

  • Falcon 9 Light coûtant 20 millions de dollars et transportant jusqu'à 9 tonnes de charge en orbite basse,

  • Falcon 9 Medium : 35 millions de dollars, 12 tonnes de charge en orbite basse,

  • Falcon 9 Heavy : 78 millions de dollars, 27,5 tonnes de charge en orbite basse et 12 tonnes en orbite haute, pour un vol orbital chiffré au maximum à 28 millions de dollars.

Plus d'une quinzaine de tests seront indispensables à l'agence privée afin de prouver la validité technique de ses lanceurs Falcon 9, la version Medium ouvrant sa session d'essais au second trimestre 2009. Space X compte vertement concurrencer les lanceurs Delta IV et Atlas V en effectuant 15 à 20 lancements annuels à partir de 2010-2011 pour le compte de la NASA, du Pentagone, de centres de recherche et de maints acteurs commerciaux de par le monde.

Son autre projet phare est la capsule spatiale Dragon qui fera office :

  • de transporteur orbital pour 6 à 7 personnes, parfaitement compatible avec les systèmes d'arrimage du segment Harmony de l'ISS,

  • de cargo spatial ou ATV (véhicule automatisé de transfert) d'une capacité d'emport de 3 tonnes, destiné au ravitaillement de l'ISS et au déploiement de satellittes ou de sondes interplanétaires,

  • de laboratoire scientifique grâce au module amovible Dragonlab. Pré-équipé et reconfigurable à la demande, il offre 10 m3 pressurisés à 14 m3 non-pressurisés dédiés aux expérimentations scientifiques en microgravité.

Cet engin polyvalent et récupérable devrait simultanément ou successivement remplir deux de ces fonctions lors d'une seule mission s'étendant d'une semaine à deux ans. À ce titre, la NASA eut un droit de regard plus prononcé sur son développement et soumit le Dragon à son drastique Systems Requirement Review. Logée dans la coiffe du lanceur Falcon 9, la capsule effectuera son premier vol habité au troisième ou quatrième trimestre 2009. À ce jour, l'entreprise n'a guère précisé si des astronautes de la NASA ou des siens propres (formés par l'agence gouvernementale) embarqueront dans ce vol inaugural.

Paré au lancement en quelques semaines à des prix défiant toute concurrence, l'ensemble Falcon-Dragon introduira inéluctablement une toute nouvelle donne dans le secteur aérospatial.

Et pourquoi pas nous ?

À 28 millions de dollars prix maximum le transport orbital c'est-à-dire à peine plus cher qu'un chasseur F-16, les généraux yankee ont toutes les raisons de fantasmer. En effet, les armées américaines reposent énormément sur leurs propres satellittes d'observation, de télécommunications, de géolocalisation, d'espionnage, d'alerte avancée, et last but not least, de radiopilotage de drones aériens opérant sur des théâtres d'opérations lointains : Irak, Afghanistan, Golfe d'Aden, mers des Caraïbes, etc. Les uniformes ont longtemps souhaité remplacer rapidement et à moindre coût les éléments en orbite de leur « architecture transversale convergente » en cas de défaillance, d'obsolescence ou de destruction par une arme anti-satellitte (missile, laser, projectile déguisé, etc)... Utilisée par quelque puissance confirmée ou émergente ?

Malheureusement, le Pentagone a toujours été confronté au sacro-saint « 10 000 dollars par kilogramme en orbite basse » et au cauchemar logistique inhérent à la multiplication de fournisseurs, deux facteurs majeurs d'inertie dans ses programmes satellittaires. Avec ses lanceurs Falcon, SpaceX abaisse ce tarif à 2900 dollars/kg et vise les 1000 dollars/kg pour 2010-2011 ! Rien d'étonnant donc à ce que l'US Air Force et le DARPA investissent plus de 100 millions de dollars dans SpaceX et dans Orbital Sciences : ces low cost des étoiles leur permettent de renouveller leur constellation satellittaire en phases plus rapprochées - quelques semestres ou années plutôt que cinq ou quinze ans – et de mettre plus souvent en orbite plusieurs micro-satellittes robustes, ready-to-go et bon marché.

Faisons un bref détour chez Orbital Sciences, autre finaliste du COTS-A, afin de mieux appréhender l'évolution prochaine du marché satellittaire. Fondée en 1982 conformément aux standards de l'industrie spatiale, cette société fut une pionnière presque trop précoce du « prêt-à-satelliser ». Largué à 12 000 mètres d'altitude par un B-52/MD-9/B-707, son lanceur Pegasus active son booster après cinq secondes de chute libre, adopte un angle de 45 degrés, franchit rapidement la vitesse hypersonique, atteint une orbite circulaire avant de satelliser sa charge. Confiné aux petits engins, cet ingénieux concept n'en est pas moins notablement efficace : depuis 1990, Pegasus a mis en orbite plus d'une quarantaine de satellittes d'environ 400 kg. Orbital Sciences planche sur le Taurus II, successeur du Pegasus, et sur l'ATV Cygnus de 2,3 tonnes de capacité. Premiers tests prévus pour 2010-2011.

Rêvons un peu. Du fait de l'expansion très probable du prêt-à-satelliser et de la pollution orbitale conséquente, verra-t-on des voiries spatiales - financées par COTS et par d'éventuelles émules européennes et asiatiques - éliminer l'actuelle et dangereuse prolifération de débris et pièces satellittaires flottant à 25 000 km/h ? Sur les écrans de communication des éboueurs célestes, clignote une restriction bassement terrestre : « Ne pas toucher aux éléments de satellittes militaires ».

Perdue entre ciel et terre

À l'automne 2010, les trois navettes spatiales prendront leur retraite car trop usées, trop complexes, trop peu fiables et incroyablement onéreuses. D'où le développement de la capsule spatiale Orion : construite par Lockheed Martin, deux fois et demi plus grosse qu'une capsule Apollo dont elle a passablement hérité du design, elle transportera sept astronautes vers l'ISS et quatre vers la Lune. Orion sera à la fois la pièce maîtresse du programme Constellation - sonnant le grand retour d'Oncle Sam sur notre satellitte naturel – et le vecteur principal des missions habitées et/ou robotiques vers Mars. Cette capsule sera catapultée par le lanceur Ares d'une capacité d'emport de 29 tonnes vers l'orbite basse et de 27 tonnes vers la Lune. Avec un budget annuel de 17 milliards de dollars, la NASA ne peut simultanément entretenir ses vieux shuttles et peaufiner l'ensemble Ares-Orion qui ne sera opérationnel qu'en 2014-2015.

Entretemps, la Roskosmos détiendra le monopole planétaire des vols spatiaux habités. Dès lors, l'agence américaine achètera des « tickets Soyouz » à son homologue russe, comme elle le fit en 2003 après l'accident fatal de la navette Columbia l'obligeant à suspendre provisoirement ses vols. En filigrane, la Maison Blanche, le Congrès et maints think tanks craignent que la Russie instrumentalise cette dépendance à des fins géopolitiques : la crise géorgienne et le déploiement du bouclier anti-missile américain en Europe centrale sont passées par là. Pour peu que l'agence russe connaisse quelque incident grave, elle serait à son tour clouée au sol, NASA et ESA avec. Dans de telles circonstances, comment entretenir, ravitailler et même secourir l'ISS et son équipage ? Aux yeux des cadres de la NASA, ce risque technique et ses conséquences logistiques sont de loin plus réels que des réprésailles russes.

En 2005, Michael Griffin avait ouvertement estimé « que la NASA s'est égarée en mettant fin au programme Apollo au profit de la navette spatiale et de l'ISS ». Pour l'actuel directeur de l'agence, navette spatiale et ISS sont tout simplement « des erreurs colossales », l'une comme l'autre ayant absorbé respectivement plus de 150 milliards et 170 milliards de dollars. Dans un e-mail interne obtenu par Orlando Sentinel à l'automne 2008, Griffin enfonce le clou : « dans un monde rationnel, nous aurions été autorisés à coordonner la retraite des navettes spatiales avec l'entrée en service de Ares-Orion le plus tôt possible et en disposant du budget adéquat [...] Mon voeu, c'est qu'il y ait une longue période sans équipage américain à bord de l'ISS à partir de 2011. Sinon, aucun budget supplémentaire ne sera alloué au développement accéléré de Ares-Orion. Même dans ce cas, nous n'y parviendrons guère avant au moins 2014. Certes, des solutions commerciales émergeront entretemps mais pas avant que Ares-Orion ne soit prêt. L'alternative serait d'étendre l'usage de la navette ou de mettre fin à la présence américaine dans l'ISS.»

Le boss de la NASA est persuadé qu'une telle alternative serait inacceptable pour le prochain président américain, qu'il s'agisse de Barack Obama ou de John McCain : « ils (la Maison Blanche) nous diront d'étendre l'usage de la navette car elle cause des dommages dont ils n'ont que faire et qu'ils ne comptabiliseront pas comme un coût. Ils n'en verront pas les conséquences à long terme pour le leadership américain dans l'espace [...] Nous pourrions entreprendre des actions afin de prendre la gestion de l'ISS en otage ou d'empêcher les Russes d'y accéder. Mais, nous ne le ferons pas car ils peuvent très bien entretenir l'ISS sans nous, pour peu que nous les sabotions pas. Nous avons besoin d'eux, ils n'ont pas besoin de nous. »

Griffin conclut sur une note pessimiste : « Je pense qu'ils ordonneront à la NASA de maintenir les vols des navettes vers l'ISS sans lui fournir les fonds nécéssaires. Ce qui retardera l'ensemble Ares-Orion et les programmes lunaires et martiens pendant que nos concurrents russes et chinoises presseront le pas ». Cependant, doutant ardemment de la justesse et de la portée du programme Constellation, de nombreux spécialistes de l'espace se demandent comment la NASA s'est fourrée à l'aveuglette dans un tel pétrin. Mais, ceci est une histoire ici réactualisée, déjà longuement abordée dans Guerre froide en orbite.

Un privé qui tombe presqu'à pic

En outre, dans ses projets lunaires et martiens, la NASA adopte peu à peu une approche plus opportuniste et plus ingénieuse que celle régnant lors du programme Apollo. Elle doit cette philosophie à Carolyn Porco, directrice de la mission Cassini qui imagea la planète Saturne, chercheuse senior à l'Institut des Sciences Spatiales de Boulder (Colorado) et chairwoman de Diamond Sky, une compagnie spécialisée dans l'imagerie satellittaire et la documentation-vulgarisation scientifique. Ses féroces sarcasmes envers la navette spatiale et l'ISS – « Les navettes iront à la retraite en 2010. Hourra ! [...] L'ISS ? Quel superbe gâchis ! » - n'ont point terni son aura auprès des plus hauts cadres de la NASA. Aujourd'hui, c'est littéralement elle qui fait la loi au sein du Mars Observer Recovery Study Team et du Solar System Road Map Development Team.

Porco estime « qu'au lieu de tournoyer autour de la Terre pour 170 milliards de dollars, on devrait plutôt explorer le système solaire [...] La sonde Cassini ne pesait que 5 tonnes et a parcouru des millions et des millions de km. Au total, sa mission n'a coûté que 3 milliards de dollars ». Disposant chacun d'une capacité d'emport six fois supérieure à celle d'une navette spatiale, les ensembles Ares-Orion et Falcon-Dragon permettront effectivement d'envoyer plus de missions interplanétaires et d'obtenir consécutivement plus de résultats. Sur la Lune comme sur Mars, « les robots devront toujours précéder les humains. Ils n'ont point besoin de manger, de respirer, d'être entretenus ou de rentrer à la maison [...] Mettons donc fin au sempiternel débat robots contre humains. Laissons les deux parties l'emporter ».

Carolyn Porco bénéficie du soutien affiché de Scott Horowitz, directeur de la division exploration de la NASA. Espérant vivement que SpaceX fasse des émules, l'ex-astronaute prône la conduite simultanée de plusieurs missions lunaires et martiennes bon marché plutôt que d'une ou de deux missions lourdes et onéreuses. Il donna son feu vert à la mission lunaire LCROSS dont l'ensemble fut assemblé en 30 mois pour la bagatelle de 79 millions de dollars (cf. Bombarder la Lune).

L'agence gouvernementale n'entend guère confier des petites besognes à SpaceX et à Orbital Sciences. En effet, la NASA a finalisé son VASIMR, ravitailleur automatisé à moteur plasma qui atteindrait l'ISS en quelques minutes, la Lune en quelques heures et Mars en 39 jours. Couramment utilisé pour le transfert ou le maintien en orbite de satellites et la propulsion de sondes spatiales, le moteur à plasma stationnaire ne peut extirper un vaisseau de l'attraction gravitationnelle terrestre. Celui-ci doit donc être catapulté à une altitude orbitale par un lanceur comme le Falcon 9 ou le Taurus II prioritairement pressenti pour cette mission, en concurrence avec l'ATV européen Jules Vernes et celui japonais H-2.

Disposer de ses propres vecteurs spatiaux multiples, c'est comme disposer de plusieurs préservatifs : mieux vaut toujours en avoir sous la main en cas de besoin. Pour la NASA, le premier succès de SpaceX et le concept éprouvé de Orbital Sciences tombent à point nommé. De fait, la gullivérienne agence gouvernementale sera certainement une cliente privilégiée des lilliputiennes agences privées. Néanmoins, tout porte à croire que ces dernières ne seront fin prêtes qu'en 2012-2013 - soit peu avant Ares-Orion - et qu'elle se consacreront d'abord à leurs contrats commerciaux afin d'assurer d'emblée leur rentabilité.

Heureusement pour la NASA, Elon Musk ne compte guère s'arrêter en si bon chemin et se déclare prêt à « adapter la capsule Dragon pour des voyages lunaires à des prix imbattables. » La jeune pousse à propulsion liquide n'a pas fini de nous surprendre...

D'une certaine façon, si les agences spatiales gouvernementales sont les IBM de l'espace, les agences privées seront peut-être les Google des étoiles.

Articles connexes :

  1. Wired : SpaceX did it

  2. SpaceX : SpaceX Successfully Launches Falcon 1 to Orbit

  3. Wikipedia : SpaceX

  4. Wikipedia : Falcon 9

  5. Flight Global : SpaceX launches DragonLab for recoverable scientific payload service

  6. Alain de Neve : The Importance of Space from a Security and Defence Perspective, Military Applications of Space Technologies and Expected Technological Developments (PDF)

  7. Carolyn Porco, parcours et profil

  8. Carolyn Porco : NASA goes deep

  9. Wired : Use Big Robots and Big Rockets, par Carolyn Porco

  10. Orlando Sentinel : Frustrated NASA chief vents in internal e-mail over fate of agency

Article publié et commenté dans Agoravox

mardi 30 septembre 2008

Krach flow


Telle une grenade dégoupillée dans un pétrolier, l'analyse-gestion simplifiée des risques inhérents aux produits (financiers) dérivés trop complexes a enflammé le système financier mondial.

Finance low-fi

À mesure que le monde s'enfonce un peu plus dans une crise probablement historique, de nombreux observateurs omettent grandement des facteurs primordiaux : entre des produits dérivés extrêmement sophistiqués et une évaluation des risques dangereusement simpliste, l'analyse-gestion financière high tech devient nettement moins efficace que le simple bon sens d'un conseiller bancaire de banlieue.

Du fait de leur sophistication intrèsèque, les systèmes d'analyse-gestion des risques financiers déclenchent perpétuellement des alarmes à fortiori lorsqu'elles concernent des volumes stratosphériques d'emprunts sécurisés et de produits dérivés infiniment complexes. Afin de minimiser les alertes (justifiées ou non) à répétition, les sociétés financières préfèrent très souvent paramétrer leurs systèmes en « mode simplifié » ou « optimistic mode » dans le jargon financier anglo-saxon. En plus clair, emprunts sécurisés et produits dérivés sont régulièrement inputés/outputés après lissage ou élimination d'une pléthore d'incidences jugées peu probables. En phase terminale, leur inhérente analyse-gestion des risques est à peine plus poussée que celle d'un bon à taux et à durée fixes.

Peut-on humainement blâmer de telles pratiques ? Derrière les merveilleuses machines, sont assises de pauvres entités biologiques qui n'auraient guère le temps de farfouiller minutieusement autant de données, à fortiori dans un marché financier où les taureaux prennent vite de l'avance sur les ours en empruntant davantage pour maximiser les profits; amplifiant consécutivement les risques d'erreurs ou de biais dans leurs analyses-gestions à moyen/court terme. Espérant optimiser ces mêmes profits à travers des produits de plus en plus dérivés, les établissements financiers enlèvent de facto tout sens à l'expression « emprunts sécurisés ».

Tant que les marchés demeurent aussi stables ou résilients qu'ils le furent en 1998-2006, le système financier perdure avec autant de vices de forme dans une relative tranquilité. Ces simplications analytiques accumulées ont significativement contribué à l'attractivité croissante du marché des subprimes. Mais quand les choses se détériorent comme en 2007-2008, impossible aux docteurs financiers d'établir des diagnostics fiables quand leurs patients ont triché depuis belle lurette avec leurs propres santés... Pour peu qu'ils sachent encore de quoi ils souffrent.

Chaque crise financière n'a-t-elle pas eu sa faille critique ? En 1987, les logiciels de trading automatisé accélérèrent les erratiques mouvements du marché et généralisèrent la panique au nez et à la barbe de leurs donneurs d'ordres. En 1998, le derivative trading mena le génialissime LTCM au bord de la faillite : au départ fort de positions équivalentes à 1200 milliards de dollars (la moitié du PIB français de l'époque !) et réalisant des gains nets entre 17% et 40% pour la seule période 1994-1997, son plan de sauvetage engloutit 110 milliards de dollars et menaça sérieusement les marchés d'une crise systémique heureusement évitée de justesse.
Désormais, simplification computationnelle dans l'analyse-gestion des risques et sophistication constante des produits dérivés composent les cocktails molotov autrefois réservés aux spéculateurs patentés, aujourd'hui dissimulés derrière les écrans plats de l'investisseur et de l'assureur.

Déflagrants délires
« Par définition, les nouveaux produits dérivés comportent de nouveaux risques supplémentaires. Les modèles analytiques devront pénaliser les produits trop complexes, trop incompréhensibles et trop peu négociés », explique Leslie Rahl, présidente de Capital Market Risk Advisors, vivant depuis l'été 2007 entre deux aéroports. Au coeur du cyclone financier, un surnombre d'institutions financières sollicite activement les services de son cabinet de consulting afin de maîtriser des produits incessamment dérivés en leurs seins.

Un exemple typique de « dérivé de dérivés » : les CDO (collateralized debt obligations) ou titres garantis par des créances. Selon le dictionnaire financier Lexinter, « il s'agit de produits de crédits structurés, composés d'un portefeuille d'actifs à revenus fixes ou variables. Ces actifs sont divisés en diverses tranches hierarchisées (notées AAA), mezzanine tranches (AA to BB) and equity tranches (unrated). [...] Les CDO ont pour objet de vendre à l'investisseur un produit à risque qui serait déterminé, découplé de celui des actifs sous-jacents, avec une palette de produits. Les actifs sous-jacents sont des prêts divers consentis à des particuliers ou à des entreprises par des banques ou d'autres investisseurs. Des prêts de risque de défaut divers peuvent être mélangés, les moins risqués tonifiant les plus risqués [...] Diverses catégories de CDO ont été crées : cash CDO, synthetic CDO, hybrid CDO. »

Traduisons et réactualisons cette brillante et barbare définition. L'emballage : un mix d' emprunts sécurisés et d'emprunts non-sécurisés, le contenu : un pack d'emprunts contractés dans l'immobilier, dans l'automobile et dans des secteurs plus orthodoxes comme la production cinématographique, le marché des arts et les locations d'avions commerciaux. Étroitement associés à la crise des subprimes car très prisés par les fonds de pension, les fonds d'investissement et les compagnies d'assurances : les CDO de CDO de CDO ! Selon Securities Industry and Financial Markets Association, 249,3 milliards et 448,6 milliards de CDO de différents niveaux ont été émis respectivement en 2005 et 2006 dans le monde entier. Ce marché fut d'abord alimenté par les hedge funds alléchés par ces produits peu risqués aux gains élevés, puis par les banques qui s'engouffrèrent aussitôt dans la spirale, tous persuadés par leurs systèmes high tech d'analyse-gestion que le marché des emprunts ne les embusquerait point.

Question : comment des concepts aussi inbuvables ont-ils essaimé sur les marchés ? Réponse : à cause des quants. Ach ! Was ist das ?

Physiciens des marchés

Dans le jargon financier, le « quant » est d'abord un technicien d'arrière-garde pourvoyant massivement les banques en analyses quantitatives. Celui-ci perçoit le marché à travers une lentille purement mathématique et hautement numérique. D'une certaine façon, si le trader est plutôt flamboyant et intuitif, le quant est plutôt maîtrisé et réservé; il est à la finance ce que le geek est à l'informatique. Son obsession : compiler et analyser des années de données boursières et financières afin de produire des algorithmes de trading exécutables en quelques millisecondes. Émigrée des plus prestigieuses universités scientifiques (mathématiques, physique quantique, physique des fluides, microbiologie, stochastique, Harvard, Yale, Oxford, Stanford, etc) la première grosse vague de quants déferla sur les berges bancaires au début des années 80. À l'ère du reaganisme triomphant, le MIT bâtit son usine à quants : le MIT Financial Engineering Laboratory.

Dans cet immense club plutôt austère voire mystérieux – les établissements financiers veillant jalousement à ce qu'ils en soient ainsi – on y trouve quelques cash stars comme James Simons, mathématicien et physicien de classe mondiale issu des rangs de Berkeley, très connu dans les milieux scientifiques pour ses immenses contributions dans la géométrie différentielle et dans la théorie des cordes (cf. la théorie de Chern-Simons). Une bête de science dans toute sa splendeur. Depuis sa création à la fin des années 80, Janes Simons Renaissance Technologies détient plus de 30 milliards de dollars d'actifs et réalisait en 2007 des gains nets annuels d'environ 30%, son président-fondateur a déjà accumulé plus de 1,7 milliard de dollars de fortune personnelle.

Parmi les associés dirigeants de LTCM, trônent les prix Nobel d'Economie Myron Scholes et Robert Merton. Ancien élève de l'économiste nobelisé Paul Samuelson au MIT, ensuite professeur dans ce même établissement puis à Harvard, Robert Merton est lui aussi un quant de renom qui appliqua les mathématiques aléatoires en temps continu (le calcul d'Itô) à l'analyse financière. Son binôme Scholes et lui obtiendront leur récompense en 1997 pour leurs nouvelles méthodes d'évaluation des produits dérivés. Avec leur trinôme Fischer Black - mathématicien et actionnaire à Goldman Sachs qui aurait du être nobelisé avec ses compagnons mais mourut peu avant l'attribution du prix – ils élaborèrent le fameux modèle de Black-Scholes, grandement inspiré du mouvement brownien décrivant le mouvement aléatoire des particules et partant du principe suivant : la valeur d'un titre varie pour des raisons prévisibles d'une part, et à cause de circonstances aléatoires d'autre part (St : valeur initiale du titre, dSt : variation du prix du titre, μStdt = valeur du titre après variations prévisibles et aléatoires); le facteur aléatoire étant désigné par « volatilité ».

La valeur du titre est d'autant plus sujette à une chute brutale lorsque les facteurs aléatoires afférents et donc sa volatilité sont élevées. Dès lors, ce titre représente une option onéreuse et/ou risquée. Depuis, le modèle de Black-Scholes a été perfectionné et raffiné grâce à la puissance computationnelle indéfiniment accrue des modélisations financières, fournissant ainsi de meilleures évaluations des fluctuations de titres sur les marchés réels. Il ne restait plus qu'aux quants à intégrer des éléments additionnels comme les variations sur le marché des changes et maints facteurs macroéconomiques.

Du fait de ces modélisations drastiquement améliorées, l'innovation en produits dérivés a littéralement explosé depuis la seconde moitié des années 90, drainant investisseurs et spéculateurs vers les CDO – purs produits de quants - à flots continus. Malheureusement, les subprimes entraînèrent immédiatemment les CDO dans leurs descentes aux enfers. Les investissements massifs dans ces dérivés de dérivés ont coûté très cher à AIG... Autrefois compagnie d'assurances ?

Tel un météore s'écrasant dans le Yucatan, l'onde de choc s'étendit rapidement aux titres financiers de sociétés (equities), envoyant ensuite le système financier mondial au tapis et infligeant un sévère KO à la communauté des quants. Au final, en plus de brouiller les radars ultra-perfectionnés des sociétés financières, la complexité croissante des produits dérivés a sournoisement interconnecté des marchés auparavant séparés, et irrémédiablement déconnecté prêteurs et emprunteurs... Ces derniers payant toujours leur innocence ou leur distance au prix fort, surtout lorsqu'il s'agit de simples propriétaires immobiliers.

Quelles premières leçons éclair tirer de tout cela ? Primo : le comportement humain n'est guère quantifiable ou prédictible en termes mathématiques. Secundo : ne placez pas votre argent (ou celui de votre client) dans un produit financier auquel vous ne comprenez pas grand-chose.

En savoir plus :
  1. Agoravox : Année noire, épilogue, par Forest Ent
  2. Financial Times : The boring is biting with vengeance
  3. Bits : How Wall Street Lied to Its Computers
  4. Telos-eu : Crise financière : Achille et la tortue, par Marc Onado
  5. Le Figaro : Ce que nous révèle la financiarisation sur l'économie, par Philippe Lentschener, Yann Moulier-Boutang et Antoine Rebiscoul
  6. L'expansion : Ce petit génie a perdu 600 milliards

vendredi 19 septembre 2008

Détecter un essai nucléaire


Futurs chocs

La veille nucléaire fit ses premiers pas en 1949 lors du premier test nucléaire soviétique dans le Kazakhstan, détecté par l'aviation américaine grâce à un échantillonnage aérien à très haute sensibilité isotopique au-dessus du Pacifique. Depuis, différents procédés ont été développés pour « renifler » la radioactivité consécutive à une explosion atomique, détecter son « flash » et percevoir ses vibrations dans le sous-sol, dans les airs et dans l'eau.

Dans le cadre du Comprehensive Nuclear Test Ban Treaty négocié dans les années 90, un réseau mondial de 500 stations de veille simisque effectuent également la veille nucléaire. A cette fin, les scientifiques ont développé des techniques permettant de distinguer une explosion atomique d'une secousse sismique.

Une explosion atomique se propage omnidirectionnellement dans le sous-sol en générant une puissante onde de compression, tandis qu'une secousse sismique est produite par des roches glissant les unes sur les autres le long d'une ligne de faille, produisant une forte onde de cisaillement. Plus rapides - 6 km/s près de la surface, 13 km/s près du noyau - et caractérisées par un grondement sourd, les ondes de compression (ou ondes P) sont les premières à être enregistrées par les sismogrammes, suivies par les ondes de cisaillement (ou ondes S) absorbées par le manteau terrestre et ne se propageant pas dans les milieux liquides.

Tels trois satellittes GPS indiquant votre position sur la surface terrestre, un trio de sismogrammes établit la différence des temps d'arrivée entre les ondes P et S, calcule leurs vitesses respectives et de facto localise l'épicentre de la secousse sismique. La fréquence spectrale et la distance parcourue par ces ondes dans le manteau terrestre complètent et affinent d'autant les données précédentes.

En général, si l'onde de compression P se révèle plus puissante que l'onde de cisaillement S, une explosion nucléaire (ou conventionnelle de très forte intensité) a eu lieu quelque part.

La sensibilité sismographique et la localisation géographique d'une station entrent également en jeu, d'où la nécéssité d'en multiplier. Selon le National Academy of Sciences, les stations sismiques principalement situées en Asie, en Afrique et en Europe détectent régulièrement des explosions équivalentes à plusieurs dizaines de tonnes de TNT. A titre de comparaison, le test nucléaire nord-coréen de l'automne 2006 fut précisément estimé à un kilotonne, le premier essai du projet Manhattan en 1945 à 21 kilotonnes.

Toutefois, plusieurs techniques plutôt complexes permettent de leurrer la veille nucléaire sismique. Le « leurrage minier » consiste à camoufler l'explosion atomique en détonant simultanément de très nombreux explosifs utilisés dans l'extraction minière. Le « découplage » déclenche l'engin nucléaire dans une cavité souterraine spécialement conçue à cette fin. Ainsi, au lieu de pulvériser les structures rocheuses immédiates, l'explosion compresse d'abord les gaz underground, réduisant son signal sismique d'environ 75%.

Les ratios d'isotopes radioactifs, notamment de particules de xénon dans l'atmosphère, constituent également « l'odeur typique » d'une explosion atomique. Les tests nucléaires effectués dans les profondeurs océaniques produisent des ondes de pression infrasoniques jusque dans les airs, aisément décelables par les 11 stations hydroacoustiques et les 60 stations infrasoniques du International Monitoring System. Enfin, des satellittes ou des sondes bardés de capteurs électromagnétiques peuvent détecter la signature rayons-X d'une explosion d'un kilotonne même à une distance équivalente à celle Terre-Soleil.

Chroniques atomiques

L'humanité devra longtemps faire avec les armes nucléaires. Cependant, on peut se féliciter de leur réduction quantitative depuis la fin de la guerre froide : 31 000 têtes nucléaires aux Etats-Unis en 1966, 45 000 en Russie en 1986, environ 5400 pour l'aigle et 5200 pour l'ours en 2007 selon le Bulletin of Atomic Scientists. Malheureusement, l'un comme l'autre développent des missiles balistiques disposant de têtes multiples, chacune programmée pour viser une cible particulière.

Le fameux Strategic Arms Reduction Treaty (START) expirant en 2009, tout semble indiquer que Russie et Etats-Unis dépasseront leurs récentes tensions géopolitiques – du fait de l'implantation du bouclier antimissile américain en Europe centrale et de la crise géorgienne – afin de renégocier ce traité. Qu'en sera-t-il lorsque de nombreux pays plus ou moins émergents auront à leur tour acquis l'arme atomique ?

Le Général de Gaulle fut très peu dupe de la nature illusoire des traités de non-prolifération : « un concile avait bien condamné l'arbalète mais sans résultat ». Sarah Connor aurait apprécié...

En savoir plus :

  1. Comprehensive Nuclear Test Ban Treaty

  2. Wall Street Journal : US weighs halt to talks with Russia on nuclear arms curbs

Article publié et commenté dans Agoravox

mercredi 16 janvier 2008

Un nuage d'hydrogène bientôt près de chez vous

Contenant suffisamment d'hydrogène pour créer des millions d'étoiles massives, l'immense nuage de Smith entrera sous peu en collision avec notre Voie Lactée.

Actuellement situé à 8000 années-lumières de notre galaxie, il fonce sur elle à une vitesse moyenne de 250 Km/s; impact prévu dans une quarantaine de millions d'années. Le nuage de Smith est suffisamment volumineux pour générer une spectaculaire interaction avec la Voie Lactée : en effet, il mesure 11 000 années-lumières de long et 2500 de large (soit 15 degrés dans le ciel).

Selon Felix J. Lockman du National Radio Astronomy Observatory, « de la tête à la queue, il couvre presque autant de surface céleste que la constellation d'Orion. Sa forme similaire à celle d'une comète suggère que ses gaz périphériques soient déjà en contact avec la banlieue de la Voie Lactée. En outre, il subit l'attraction gravitationnelle galactique qui le tordra dans tous les sens. Dans une vingtaine ou une quarantaine de millions d'années, son noyau heurtera de plein fouet la galaxie. »

Lockman ajoute : « il s'agit très probablement d'une masse de gaz éjectée par une galaxie voisine en formation. Quand elle téléscopera la Voie Lactée, elle engendrera une énorme flambée d'étoiles en formation. Beaucoup de ces étoiles seront massives et mèneront une existence très brève avant d'exploser comme des supernovas. Dans plusieurs millions d'années, la zone d'impact ressemblera aux feux d'artifice d'un Nouvel An. »

Si notre système solaire était situé dans cette zone d'impact, il ne survivrait certainement pas à d'aussi intenses et perpétuels bombardements gazeux, radioélectriques et thermonucléaires. Bref, la totale en matière physique... Les plus angoissés pour le sort des générations futures peuvent donc laisser Bruce Willis dormir tranquille : la collision aura lieu à des dizaines de milliers d'années-lumières de notre Soleil (voir ce montage réalisé à partir des images du NRAO). Néanmoins, ce type de phénomènes joue également un rôle moteur dans la formation de nouvelles étoiles et de nouveaux systèmes solaires.

Dans une quarantaine de millions d'années, y aura-t-il encore des post-humains sur Terre ou ailleurs pour assister en léger différé à ce meeting astronomique ? Auront-ils (enfin) commis leur suicide biosphérique programmé ou auront-ils été balayés par quelque méchant astéroïde depuis belle lurette ?

Pour ma part, je m'engagerais à vie dans l'Enterprise ou dans Battlestar Galactica... après avoir ramassé tous les paris, pauvres mortels !


Source : National Radio Astronomy Observatory

Article publié et commenté sur Agoravox