mardi 30 septembre 2008

Krach flow


Telle une grenade dégoupillée dans un pétrolier, l'analyse-gestion simplifiée des risques inhérents aux produits (financiers) dérivés trop complexes a enflammé le système financier mondial.

Finance low-fi

À mesure que le monde s'enfonce un peu plus dans une crise probablement historique, de nombreux observateurs omettent grandement des facteurs primordiaux : entre des produits dérivés extrêmement sophistiqués et une évaluation des risques dangereusement simpliste, l'analyse-gestion financière high tech devient nettement moins efficace que le simple bon sens d'un conseiller bancaire de banlieue.

Du fait de leur sophistication intrèsèque, les systèmes d'analyse-gestion des risques financiers déclenchent perpétuellement des alarmes à fortiori lorsqu'elles concernent des volumes stratosphériques d'emprunts sécurisés et de produits dérivés infiniment complexes. Afin de minimiser les alertes (justifiées ou non) à répétition, les sociétés financières préfèrent très souvent paramétrer leurs systèmes en « mode simplifié » ou « optimistic mode » dans le jargon financier anglo-saxon. En plus clair, emprunts sécurisés et produits dérivés sont régulièrement inputés/outputés après lissage ou élimination d'une pléthore d'incidences jugées peu probables. En phase terminale, leur inhérente analyse-gestion des risques est à peine plus poussée que celle d'un bon à taux et à durée fixes.

Peut-on humainement blâmer de telles pratiques ? Derrière les merveilleuses machines, sont assises de pauvres entités biologiques qui n'auraient guère le temps de farfouiller minutieusement autant de données, à fortiori dans un marché financier où les taureaux prennent vite de l'avance sur les ours en empruntant davantage pour maximiser les profits; amplifiant consécutivement les risques d'erreurs ou de biais dans leurs analyses-gestions à moyen/court terme. Espérant optimiser ces mêmes profits à travers des produits de plus en plus dérivés, les établissements financiers enlèvent de facto tout sens à l'expression « emprunts sécurisés ».

Tant que les marchés demeurent aussi stables ou résilients qu'ils le furent en 1998-2006, le système financier perdure avec autant de vices de forme dans une relative tranquilité. Ces simplications analytiques accumulées ont significativement contribué à l'attractivité croissante du marché des subprimes. Mais quand les choses se détériorent comme en 2007-2008, impossible aux docteurs financiers d'établir des diagnostics fiables quand leurs patients ont triché depuis belle lurette avec leurs propres santés... Pour peu qu'ils sachent encore de quoi ils souffrent.

Chaque crise financière n'a-t-elle pas eu sa faille critique ? En 1987, les logiciels de trading automatisé accélérèrent les erratiques mouvements du marché et généralisèrent la panique au nez et à la barbe de leurs donneurs d'ordres. En 1998, le derivative trading mena le génialissime LTCM au bord de la faillite : au départ fort de positions équivalentes à 1200 milliards de dollars (la moitié du PIB français de l'époque !) et réalisant des gains nets entre 17% et 40% pour la seule période 1994-1997, son plan de sauvetage engloutit 110 milliards de dollars et menaça sérieusement les marchés d'une crise systémique heureusement évitée de justesse.
Désormais, simplification computationnelle dans l'analyse-gestion des risques et sophistication constante des produits dérivés composent les cocktails molotov autrefois réservés aux spéculateurs patentés, aujourd'hui dissimulés derrière les écrans plats de l'investisseur et de l'assureur.

Déflagrants délires
« Par définition, les nouveaux produits dérivés comportent de nouveaux risques supplémentaires. Les modèles analytiques devront pénaliser les produits trop complexes, trop incompréhensibles et trop peu négociés », explique Leslie Rahl, présidente de Capital Market Risk Advisors, vivant depuis l'été 2007 entre deux aéroports. Au coeur du cyclone financier, un surnombre d'institutions financières sollicite activement les services de son cabinet de consulting afin de maîtriser des produits incessamment dérivés en leurs seins.

Un exemple typique de « dérivé de dérivés » : les CDO (collateralized debt obligations) ou titres garantis par des créances. Selon le dictionnaire financier Lexinter, « il s'agit de produits de crédits structurés, composés d'un portefeuille d'actifs à revenus fixes ou variables. Ces actifs sont divisés en diverses tranches hierarchisées (notées AAA), mezzanine tranches (AA to BB) and equity tranches (unrated). [...] Les CDO ont pour objet de vendre à l'investisseur un produit à risque qui serait déterminé, découplé de celui des actifs sous-jacents, avec une palette de produits. Les actifs sous-jacents sont des prêts divers consentis à des particuliers ou à des entreprises par des banques ou d'autres investisseurs. Des prêts de risque de défaut divers peuvent être mélangés, les moins risqués tonifiant les plus risqués [...] Diverses catégories de CDO ont été crées : cash CDO, synthetic CDO, hybrid CDO. »

Traduisons et réactualisons cette brillante et barbare définition. L'emballage : un mix d' emprunts sécurisés et d'emprunts non-sécurisés, le contenu : un pack d'emprunts contractés dans l'immobilier, dans l'automobile et dans des secteurs plus orthodoxes comme la production cinématographique, le marché des arts et les locations d'avions commerciaux. Étroitement associés à la crise des subprimes car très prisés par les fonds de pension, les fonds d'investissement et les compagnies d'assurances : les CDO de CDO de CDO ! Selon Securities Industry and Financial Markets Association, 249,3 milliards et 448,6 milliards de CDO de différents niveaux ont été émis respectivement en 2005 et 2006 dans le monde entier. Ce marché fut d'abord alimenté par les hedge funds alléchés par ces produits peu risqués aux gains élevés, puis par les banques qui s'engouffrèrent aussitôt dans la spirale, tous persuadés par leurs systèmes high tech d'analyse-gestion que le marché des emprunts ne les embusquerait point.

Question : comment des concepts aussi inbuvables ont-ils essaimé sur les marchés ? Réponse : à cause des quants. Ach ! Was ist das ?

Physiciens des marchés

Dans le jargon financier, le « quant » est d'abord un technicien d'arrière-garde pourvoyant massivement les banques en analyses quantitatives. Celui-ci perçoit le marché à travers une lentille purement mathématique et hautement numérique. D'une certaine façon, si le trader est plutôt flamboyant et intuitif, le quant est plutôt maîtrisé et réservé; il est à la finance ce que le geek est à l'informatique. Son obsession : compiler et analyser des années de données boursières et financières afin de produire des algorithmes de trading exécutables en quelques millisecondes. Émigrée des plus prestigieuses universités scientifiques (mathématiques, physique quantique, physique des fluides, microbiologie, stochastique, Harvard, Yale, Oxford, Stanford, etc) la première grosse vague de quants déferla sur les berges bancaires au début des années 80. À l'ère du reaganisme triomphant, le MIT bâtit son usine à quants : le MIT Financial Engineering Laboratory.

Dans cet immense club plutôt austère voire mystérieux – les établissements financiers veillant jalousement à ce qu'ils en soient ainsi – on y trouve quelques cash stars comme James Simons, mathématicien et physicien de classe mondiale issu des rangs de Berkeley, très connu dans les milieux scientifiques pour ses immenses contributions dans la géométrie différentielle et dans la théorie des cordes (cf. la théorie de Chern-Simons). Une bête de science dans toute sa splendeur. Depuis sa création à la fin des années 80, Janes Simons Renaissance Technologies détient plus de 30 milliards de dollars d'actifs et réalisait en 2007 des gains nets annuels d'environ 30%, son président-fondateur a déjà accumulé plus de 1,7 milliard de dollars de fortune personnelle.

Parmi les associés dirigeants de LTCM, trônent les prix Nobel d'Economie Myron Scholes et Robert Merton. Ancien élève de l'économiste nobelisé Paul Samuelson au MIT, ensuite professeur dans ce même établissement puis à Harvard, Robert Merton est lui aussi un quant de renom qui appliqua les mathématiques aléatoires en temps continu (le calcul d'Itô) à l'analyse financière. Son binôme Scholes et lui obtiendront leur récompense en 1997 pour leurs nouvelles méthodes d'évaluation des produits dérivés. Avec leur trinôme Fischer Black - mathématicien et actionnaire à Goldman Sachs qui aurait du être nobelisé avec ses compagnons mais mourut peu avant l'attribution du prix – ils élaborèrent le fameux modèle de Black-Scholes, grandement inspiré du mouvement brownien décrivant le mouvement aléatoire des particules et partant du principe suivant : la valeur d'un titre varie pour des raisons prévisibles d'une part, et à cause de circonstances aléatoires d'autre part (St : valeur initiale du titre, dSt : variation du prix du titre, μStdt = valeur du titre après variations prévisibles et aléatoires); le facteur aléatoire étant désigné par « volatilité ».

La valeur du titre est d'autant plus sujette à une chute brutale lorsque les facteurs aléatoires afférents et donc sa volatilité sont élevées. Dès lors, ce titre représente une option onéreuse et/ou risquée. Depuis, le modèle de Black-Scholes a été perfectionné et raffiné grâce à la puissance computationnelle indéfiniment accrue des modélisations financières, fournissant ainsi de meilleures évaluations des fluctuations de titres sur les marchés réels. Il ne restait plus qu'aux quants à intégrer des éléments additionnels comme les variations sur le marché des changes et maints facteurs macroéconomiques.

Du fait de ces modélisations drastiquement améliorées, l'innovation en produits dérivés a littéralement explosé depuis la seconde moitié des années 90, drainant investisseurs et spéculateurs vers les CDO – purs produits de quants - à flots continus. Malheureusement, les subprimes entraînèrent immédiatemment les CDO dans leurs descentes aux enfers. Les investissements massifs dans ces dérivés de dérivés ont coûté très cher à AIG... Autrefois compagnie d'assurances ?

Tel un météore s'écrasant dans le Yucatan, l'onde de choc s'étendit rapidement aux titres financiers de sociétés (equities), envoyant ensuite le système financier mondial au tapis et infligeant un sévère KO à la communauté des quants. Au final, en plus de brouiller les radars ultra-perfectionnés des sociétés financières, la complexité croissante des produits dérivés a sournoisement interconnecté des marchés auparavant séparés, et irrémédiablement déconnecté prêteurs et emprunteurs... Ces derniers payant toujours leur innocence ou leur distance au prix fort, surtout lorsqu'il s'agit de simples propriétaires immobiliers.

Quelles premières leçons éclair tirer de tout cela ? Primo : le comportement humain n'est guère quantifiable ou prédictible en termes mathématiques. Secundo : ne placez pas votre argent (ou celui de votre client) dans un produit financier auquel vous ne comprenez pas grand-chose.

En savoir plus :
  1. Agoravox : Année noire, épilogue, par Forest Ent
  2. Financial Times : The boring is biting with vengeance
  3. Bits : How Wall Street Lied to Its Computers
  4. Telos-eu : Crise financière : Achille et la tortue, par Marc Onado
  5. Le Figaro : Ce que nous révèle la financiarisation sur l'économie, par Philippe Lentschener, Yann Moulier-Boutang et Antoine Rebiscoul
  6. L'expansion : Ce petit génie a perdu 600 milliards

samedi 27 septembre 2008

Comment les médias forment et déforment notre réalité


Auparavant journaliste à Cyberpresse.ca et actuelle rédactrice-en-chef de Alterheros.com, Julie-Maude Beauchesne nous explique comment et pourquoi "notre perception de la réalité est beaucoup plus celle des autres, voir des médias, que la nôtre. Et c’est là que les dérives les plus graves peuvent survenir. Si les médias jouent un rôle des plus utiles dans notre société assoiffée d’information, n’oublions pas que sans les médias, il n’y aurait jamais eu l’Holocauste, il n’y aurait jamais eu de génocide au Rwanda, il n’y aurait jamais eu de guerre en Irak, lesquels ont nécessité une mobilisation incroyable de l’opinion publique."

Avec une argumentation implacable et un style extrêmement efficace, Beauchesne enfonce le clou : "Cela ne nous vient pas nécessairement à l’esprit, mais comme les médias nous offrent leur information de façon pratiquement gratuite, c’est nous qui sommes en réalité le « produit », lequel est vendu aux annonceurs en quête de visibilité, d’un auditoire, d’un lectorat."

Un article publié dans Agoravox, à consommer sans modération...

vendredi 26 septembre 2008

Google Phone contre iPhone



Des objets nomades à l'Internet mobile via les systèmes d'exploitation, tout laisse présager d'intenses fleurets mouchetés ou un choc de titans entre Google et Apple.

Alien versus Predator

Réponse directe et très prometteuse au iPhone, le premier Android - ou G1 signé Google , T-Mobile et HTC - devra faire nettement mieux pour concurrencer le bijou techno made by Steve Jobs. Analyse comparative des deux super-gadgets.

Le clavier virtuel du iPhone et sa sensibilité intelligente sont certes une merveille d'innovation mais les claviers classiques du Blackberry, du Treo et du G1 sont nettement plus confortables à fortiori pour les dégénérés du jeu vidéo mobile... Du calme, ce n'est qu'un sarcasme. Prêts ? Combattez ! Ce confort digital a un prix : le G1 est beaucoup moins compact que le iPhone dans la poche frontale de votre jean. Un pouce levé pour la batterie du G1 aisément plus remplaçable que celle propriétaire du iPhone.

Ce dernier dispose d'une mémoire intégrée de 8 ou 16 Go – à quand une version 32 Go ? - tandis que le G1 n'a qu'une mémoire initiale de 192 Mo heureusement livrée avec une carte SD d'un 1 Go... Hissant son prix final à une altitude « quasi-iphonique » : 179 $ contre 199 $ pour le bébé d'Apple. Si Google et HTC veulent réellement faire d'Android un omniphone digne de ce nom, une mémoire nettement plus étendue avec un meilleur rapport qualité-prix sera indispensable.

Le G1 fournit d'emblée les services googléens GPS (Maps, Street View) associés à une boussole interne qui n'a certes aucune ûtilité immédiate pour le nomade urbain, mais le deviendrait s'il se trouve en territoire plus ou moins inconnu. Nul doute que plusieurs geeks dériveront ingénieusement son usage à l'image des mash-up dans la géolocalisation. L'application Shopsavvy du G1 offre une interactivité sans pareil : en photographiant le code-barre d'un produit avec la caméra 3 millions de pixels, Android ouvre un onglet d'arrière-plan et propose des liens Web commerciaux offrant ce même produit à différents prix ainsi que la géolocalisation des points de vente les plus proches. Ici, le lien commercial contextuel qui fait la force de Google a été raffiné en hyperlien physique commercial inspiré du code QR nippon. Magistral.

La quasi-totalité des applications Google en ligne sont accessibles hors ligne au G1 (sauf Google Maps du fait de sa configuration netware inhérente). Le calendrier intégré d'Android n'est qu'une stricte reproduction du très apprécié Google Calendar. En outre, l'utilisateur peut synchroniser à volonté ses données Google Apps (courrier, traitement de texte, tableur, etc) dans son mobile et sur le Web. Une fonctionnalité très pratique en cas de rupture/d'indisponibilité du réseau. Avec son Macintosh, Apple fut le pionnier des ordinateurs personnels multi-tâches. Apparemment, cette philosophie n'imprègne que très peu son iPhone. Basculer d'une application à l'autre et copier/coller des données deviennent un jeu enfant avec Android. Sur ce point, Windows Mobile et Apple devront prendre de la graine.

À ce jour et ce quoiqu'on en dise, le iPhone est une solide pôle position et le sex symbol du mobile multimédia. Rien de tel côté Android qui propose néanmoins un lien direct vers la boutique e-musicale d'Amazon. Reposant complètement sur de l'open source, le gPhone aura donc tôt ou tard son lecteur multimédia polyvalent (type VLC ?). De quoi en finir avec la préalable conversion de fichiers audio/vidéo avant transfert vers le iPhone...

Télécodes

En fait, Android ce n'est pas seulement un produit Google + HTC + T-Mobile, c'est d'abord le coeur du consortium Open Handset Alliance initié certes par Google mais fédérant une trentaine de sociétés de téléphonie et de technologie dont Audience, Broadcom, China Mobile, Intel, eBay, KDDI, Motorola, NTT DoCoMo, NVIDIA, Qualcomm, Samsung, Sprint Nextel, Synaptics, Telecom Italia, T-Mobile et Texas Instruments, pour ne citer qu'eux. C'est surtout une plate-forme open source dont l'atout-maître réside dans les multiples innovations qu'en feront les développeurs libres.

Android connaîtra-t-il une croissance explosive à la iPhone ou une robuste expansion organique ? Dans tous les cas, Google a toutes les ressources financières et technologiques pour patienter et se repositionner. Avec ce modèle mobile open source, drastique rupture dans le monde plutôt austère des télécoms, la firme de Mountain View vise simultanément Windows Mobile, Java Mobile Edition, Apple, Nokia et RIM (concepteur du Blackberry). Vaste programme.

LG et Samsung manufacturant respectivement les « pseudo-iphoniques » Vu et Instinct rattraperont difficilement Apple en focalisant sur les interfaces et en délaissant les couches logicielles. Google a vite compris que la bataille contre Apple (et Windows Mobile) se gagnera surtout sur le terrain du code et a complètement renové sa machine virtuelle Dalvik et son compilateur bytecode « qui a un gros air, une saveur et une odeur de Java sans pour autant cloner Java », ceci afin de s'éviter les foudres de Sun Microsystems et d'orienter les développeurs en terre connue. En investissant seulement 10 millions de dollars dans le premier championnat Android de programmation et développement (thèmes 2008 : applications GPS et hardware open source), Big White inflige une leçon d'ingéniosité et d'ouverture à Big Apple versant dans une approche plus onéreuse, plus sophistiquée et plus hermétique des applications mobiles

Les équipementiers pourraient facilement dériver la plate-forme Android pour leur propre compte. Cependant, tout porte à croire que la firme de Mountain View veut essentiellement acquérir une domination cognitive dans la conception de mobiles multimédia et reproduire son hégémonie publicitaire du Web dans l'Internet mobile; des statistiques récentes de l'Union Internationale des Télécommunications montrant que les services de données représentent actuellement plus de 20% des revenus des opérateurs mobiles de par le monde. Deus ex machina : Google Brother mobile tombe à point nommé...

Les opérateurs télécoms n'ont qu'à bien se tenir : entre Youtube et Picasa, leur plafond mensuel à 1 Go de données provoquera bientôt quelques éruptions volcaniques auprès de leurs abonnés. Ce n'est guère un hasard si T-Mobile - membre de l'Open Handset Alliance et premier démonstrateur du G1 - a récemment aboli ce plafond, estimant que ses clients doivent pleinement disposer des capacités de leurs mobiles Android et de son réseau 3G.

D'une certaine façon, si le iPhone fut le Spoutnik des mobiles multimédia, Android pourrait bien devenir le Soyouz...

Articles liés :

  1. Électrosphère : Autour du Google Phone

  2. Media Tech : Google veut éclipser la licence Mobile Java de Sun, par Didier Durand

  3. Youvox Tech : HTC sous Google Androïd, c’est parti avec T Mobile pour 179$, les premières photos, par Christian Jegourel

  4. Bits : T-Mobile Lifts Bandwidth Cap for Google Phone

Article publié et commenté dans Agoravox

lundi 22 septembre 2008

Les vautours du décibel



À coup de clauses carnassières, l'industrie phonographique saigne à vif les nouveaux entrants du marché e-musical et veille jalousement sur ses rentes de situation.

La boîte de Pandora

Une quelconque relation télépathique spéciale lierait-elle Steve Ballmer et Steve Jobs ? Microsoft et Apple ont simultanément tilté sur la « découverte musicale assistée par ordinateur ». Ma nomenclature personnelle remplace cette barbare expression par « playlist intelligente », concept qui concurrencera vite le mode shuffle ou random basculant de Madonna à Sparklehorse via Mozart et Françoiz Breut.

Connectés aux nuages de données d'Apple et de Microsoft, les dernières versions de iTunes et de Zune analysent algorithmiquement vos morceaux préférés puis suggèrent automatiquement de nouveaux titres « que vous aimerez »... À télécharger pour quelques micro-dollars. Les deux firmes ont puisé leur inspiration auprès de la radio IP Pandora, pur produit du Music Genome Project dans lequel analyses algorithmiques et humaines permettent de trier, classifier et sélectionner les titres sur la base de 400 critères. Grâce à ses approbations/rejets et notations des morceaux diffusés, l'audionaute fournit de précieuses indications sur sa typologie musicale. Ainsi, les serveurs de la station réactualisent régulièrement sa bande-son personnelle avec une précision constamment accrue.

Tout irait pour le mieux dans le meilleur des mondes si la RIAA ne s'activait pas autant sous la table du législateur...

La diffusion musicale par les stations américaines est considérée comme une activité purement promotionnelle. Fortes d'un lobby radiophonique très persuasif depuis les années 40, les FM n'ont donc pas de royalties à reverser à l'industrie phonographique. Par contre, les radios Internet/satellittaires sont soumises à un régime plutôt féodal :

  • une royalty de 0,0019 centimes par auditeur par titre instaurée en 2007 par le Copyright Royalty Board,

  • une royalty rétroactive de 0,008 centimes pour les années fiscales 2005-2006,

  • ainsi que sur les titres rejetés ou évités par leurs auditeurs.


Des sommes plutôt infimes à première vue. Mais lorsque des milliers voire des millions d'audionautes écoutent un firmament d'oeuvres musicales, les montants à reverser prennent des proportions gargantuesques, au point d'axphysier rapidement les radios Internet/satellittaires : celles-ci devront payer entre 100 et 300% de leurs médiocres profits ! Stagnant dans une rentabilité très relative, elles perçoivent déjà d'énormes parasites dans leurs fréquences : le CRB a planifié l'augmentation des royalties de 6% et 8% respectivement pour 2010 et 2012. Comment en est-on arrivé là ? A cause de l'impossibilité des radios satellittaires/Internet et des majors musicales de parvenir à un accord, les secondes bénéficiant des oreilles et des bras longs des sénateurs.

Au départ, Pandora requérait une inscription payante afin que les audionautes accède à ses playlists intelligentes. Sans succès. L'intégration d'un modèle économique gratuit mais financé par la publicité draina rapidement plus de 16 millions d'abonnés, la station proposant de surcroît – comme beaucoup d'autres - le téléchargement des morceaux streamés sur les sites payants iTunes, Amazon, etc. Dès lors, les radios 2.0 ne remplissent-elles pas une fonction promotionnelle plus directe que celle des radios hertziennes du fait de l'immédiateté des hyperliens commerciaux ? A peine adolescents, les juke-box virtuels ne survivront-ils que dans l'antre d'un dragon de la Toile (Microsoft, Apple, Google, Amazon, etc) ?

Musique légale = suicide commercial

Considéré auparavant comme une infâmie, le peer-to-peer est devenu un modèle technologique prometteur. Rien de surprenant à ce que BBC iPlayer et 4OD (Channel 4) intègrent « un moteur Bittorrent », leur faramineux succès causant même quelques clashs avec les FAI britanniques confrontées à la voracité de ces catch-up TV envers la bande passante royale. Les majors ont passablement compris qu'il s'agit d'abord et surtout d'une technologie et non d'un vaisseau cyberpirate. Toutefois, où sont les plate-formes P2P commerciales dignes de ce nom ?

Certaines plate-formes P2P ou classiques ont signé des contrats avec les majors en toute intégrité et leur reversent des millions de royalties : Liquid Audio, a2b, Lala, Qtrax, Mashboxx, Pandora et Comes With Music (Nokia). Malgré une bonne presse, elles volent toujours au ras des pâquerettes. D'autres ont plus ou moins réussi - légalement ou clandestinement - avant de céder aux pressions judiciaires et aux clauses carnassières : MP3.com, Myspace Music, Imeem et l'historique Napster ne sont plus que des vaches à lait pour l'industrie phonographique; MP3tunes, Veoh, Multiply et Seeqpod agonisent littéralement. Apparemment, à moins de s'appeler iTunes, Amazon ou de figurer parmi de rares exceptions comme eMusic, dur d'émerger significativement en partenariat avec les majors dans le marché e-musical.

Première ligne du P2P légal, pas cher et sans DRM, « Wippit mort d'avoir voulu respecter les maisons de disques », explique Guillaume Champeau (Numérama). Ennemi juré d'antan de l'industrie phonographique quand il dirigeait Grokster et aujourd'hui ex-patron de Wippit, Wayne Rosso reproche aux majors d'exiger « des avances scandaleuses qu'aucun investisseur ne tolèrerait, donc en étant aussi difficiles elles font fuir les investisseurs ». De plus, il ne voit aucun futur viable pour la musique commerciale en ligne : « Il n'y a pas d'argent à gagner dans la vente de contenu. Le contenu est un moyen pour une fin. En fin de compte ça sera financé par la publicité et gratuit ».

Flibusterie.MP3

L'hésitation voire la hantise du secteur phonographique pour le publi-financement – comme pour la licence globale autrefois - s'explique aisément : les clauses royaltivores, les taxations distributives évoquées précédemment et les taxations progressives des objets nomades (taxes sur les baladeurs, les téléphones mobiles, les mémoires USB, les boîtiers multimédia, etc) garantissent ses colossales rentes de situation, et ce, peu importe l'usage qu'en fera ou non le cybernaute. Les majors veulent bien que les choses bougent en surface mais s'emploient activement à ce que rien ne change en profondeur. Professeur de droit à Temple University et spécialiste du copyright, David G. Post affirme à juste titre que « les grands groupes qui traquent impitoyablement tout signe d'infraction ont la loi pour eux. Doit-on les laisser faire ? »

Quelques années plus tôt, lors du boom biotech, la société civile mondiale dénonça vivement l'inflation des brevets privés sur le vivant. Inspirés par l'open source et les Creative Commons, des biolinuxes émergèrent peu à peu afin de contrecarrer cette « gloutonnerie du brevetage privé » (cf. Danielle Auffray, Fiorello Cortiana et Alain Lipietz dans Le Monde du 15 mars 2005). Copyrights perpétuellement étendus, droits d'auteurs renforcés à outrance, clauses carnassières et royalties pantagruéliques : mêmes modes opératoires, mêmes finalités. Pour ma part, l'audiopiraterie des maisons de disques est à la culture musicale ce que la biopiraterie des firmes biotech est aux sciences du vivant : un racket haute fidélité en mode repeat.

Aux yeux des majors, la gratuité apparente dévalue leur offre musicale d'où leur lenteur opérationnelle et stratégique dans le cyberepsace. Elles ont tort : le défi majeur du cybermarketing culturel repose beaucoup plus dans le choix élargi et/ou personnalisé que dans la valeur marchande, à fortiori dans un marché de niches par myriades. La preuve flagrante par Pandora et les diverses radios 2.0.

Actuellement, partage, découverte, diversité, interactivité, « égocasting » et contenus multimédia enrichis sont au rendez-vous dans les blogs, les podcasts et les réseaux sociaux. Les hyperliens gratuits et légaux de la musique abondent, qu'ils s'agissent d'artistes indépendants ou de popstars en rebellion contre « le système ». Ne voit-on pas les audionautes se ruer vers les offres promotionnelles en ligne (Portishead, REM, Radiohead, etc) précédant les sorties officielles et vers les places de concerts ? Une fois de plus, l'industrie phonographique a plusieurs années-lumières de retard : Napster d'abord, le peer-to-peer ensuite et enfin le Web 2.0, elle semble complètement aveugle et sourde aux rapides évolutions de la consommation musicale. Tant pis pour elle, la migration des herbivores n'attendra pas.

Cependant, les vieux lions blessés peuvent encore asséner quelques coups de patte meurtriers et n'hésitent guère à assassiner plusieurs progénitures rivales avant de sombrer...

Articles liés :

  1. Techcrunch : The music industry’s new extortion scheme

  2. Electrosphère : L'illusoire et mensongère cyberpolice culturelle

  3. Numérama : Wippit mort d'avoir voulu respecter les maisons de disques

  4. Techcrunch : The inevitable march of recorded music towards free

  5. Electrosphère : Introduction à la freeconomie

  6. Electrosphère : Des biolinuxes contre la biopiraterie

  7. Electrosphère : La décadence de l'industrie phonographique


Article publié et commenté dans Agoravox

vendredi 19 septembre 2008

Détecter un essai nucléaire


Futurs chocs

La veille nucléaire fit ses premiers pas en 1949 lors du premier test nucléaire soviétique dans le Kazakhstan, détecté par l'aviation américaine grâce à un échantillonnage aérien à très haute sensibilité isotopique au-dessus du Pacifique. Depuis, différents procédés ont été développés pour « renifler » la radioactivité consécutive à une explosion atomique, détecter son « flash » et percevoir ses vibrations dans le sous-sol, dans les airs et dans l'eau.

Dans le cadre du Comprehensive Nuclear Test Ban Treaty négocié dans les années 90, un réseau mondial de 500 stations de veille simisque effectuent également la veille nucléaire. A cette fin, les scientifiques ont développé des techniques permettant de distinguer une explosion atomique d'une secousse sismique.

Une explosion atomique se propage omnidirectionnellement dans le sous-sol en générant une puissante onde de compression, tandis qu'une secousse sismique est produite par des roches glissant les unes sur les autres le long d'une ligne de faille, produisant une forte onde de cisaillement. Plus rapides - 6 km/s près de la surface, 13 km/s près du noyau - et caractérisées par un grondement sourd, les ondes de compression (ou ondes P) sont les premières à être enregistrées par les sismogrammes, suivies par les ondes de cisaillement (ou ondes S) absorbées par le manteau terrestre et ne se propageant pas dans les milieux liquides.

Tels trois satellittes GPS indiquant votre position sur la surface terrestre, un trio de sismogrammes établit la différence des temps d'arrivée entre les ondes P et S, calcule leurs vitesses respectives et de facto localise l'épicentre de la secousse sismique. La fréquence spectrale et la distance parcourue par ces ondes dans le manteau terrestre complètent et affinent d'autant les données précédentes.

En général, si l'onde de compression P se révèle plus puissante que l'onde de cisaillement S, une explosion nucléaire (ou conventionnelle de très forte intensité) a eu lieu quelque part.

La sensibilité sismographique et la localisation géographique d'une station entrent également en jeu, d'où la nécéssité d'en multiplier. Selon le National Academy of Sciences, les stations sismiques principalement situées en Asie, en Afrique et en Europe détectent régulièrement des explosions équivalentes à plusieurs dizaines de tonnes de TNT. A titre de comparaison, le test nucléaire nord-coréen de l'automne 2006 fut précisément estimé à un kilotonne, le premier essai du projet Manhattan en 1945 à 21 kilotonnes.

Toutefois, plusieurs techniques plutôt complexes permettent de leurrer la veille nucléaire sismique. Le « leurrage minier » consiste à camoufler l'explosion atomique en détonant simultanément de très nombreux explosifs utilisés dans l'extraction minière. Le « découplage » déclenche l'engin nucléaire dans une cavité souterraine spécialement conçue à cette fin. Ainsi, au lieu de pulvériser les structures rocheuses immédiates, l'explosion compresse d'abord les gaz underground, réduisant son signal sismique d'environ 75%.

Les ratios d'isotopes radioactifs, notamment de particules de xénon dans l'atmosphère, constituent également « l'odeur typique » d'une explosion atomique. Les tests nucléaires effectués dans les profondeurs océaniques produisent des ondes de pression infrasoniques jusque dans les airs, aisément décelables par les 11 stations hydroacoustiques et les 60 stations infrasoniques du International Monitoring System. Enfin, des satellittes ou des sondes bardés de capteurs électromagnétiques peuvent détecter la signature rayons-X d'une explosion d'un kilotonne même à une distance équivalente à celle Terre-Soleil.

Chroniques atomiques

L'humanité devra longtemps faire avec les armes nucléaires. Cependant, on peut se féliciter de leur réduction quantitative depuis la fin de la guerre froide : 31 000 têtes nucléaires aux Etats-Unis en 1966, 45 000 en Russie en 1986, environ 5400 pour l'aigle et 5200 pour l'ours en 2007 selon le Bulletin of Atomic Scientists. Malheureusement, l'un comme l'autre développent des missiles balistiques disposant de têtes multiples, chacune programmée pour viser une cible particulière.

Le fameux Strategic Arms Reduction Treaty (START) expirant en 2009, tout semble indiquer que Russie et Etats-Unis dépasseront leurs récentes tensions géopolitiques – du fait de l'implantation du bouclier antimissile américain en Europe centrale et de la crise géorgienne – afin de renégocier ce traité. Qu'en sera-t-il lorsque de nombreux pays plus ou moins émergents auront à leur tour acquis l'arme atomique ?

Le Général de Gaulle fut très peu dupe de la nature illusoire des traités de non-prolifération : « un concile avait bien condamné l'arbalète mais sans résultat ». Sarah Connor aurait apprécié...

En savoir plus :

  1. Comprehensive Nuclear Test Ban Treaty

  2. Wall Street Journal : US weighs halt to talks with Russia on nuclear arms curbs

Article publié et commenté dans Agoravox

mardi 16 septembre 2008

Google offshore

Des super-serveurs de Big White embarqueront dans des tankers en eaux internationales reliés aux câbles transocéaniques de télécommunications et alimentés par l’énergie des vagues.

Ô sombres hérauts de la mer

La firme de Mountain View aurait décidé de porter sa conquête virtuelle sur les fronts marins en déposant un brevet pour le moins percutant auprès de l'US Patent and Trademark Office (USPTO).

Des tankers mouilleront à bonne distance des eaux territoriales américaines (8 miles nautiques soit environ 11 km), affranchissant la compagnie des taxes nationales usuelles sur ses activités computationnelles. A bord, une grosse dizaine de « containers datacenterisés » hautement automatisés, aisément reconfigurables, commandés à distance et ne nécéssitant que quelques employés - « hébergeront et projeteront » les applications virtuellement distribuées actuelles et futures (Gmail, Youtube, Apps, Desktop, Earth, Maps, Street View, etc) de Big White à des milliards d'ordinateurs par-delà les océans, connectés qu'ils seront à des câbles sous-marins de télécommunications. Au premier trimestre 2008, la firme avait engagé un partenariat avec cinq compagnies de câblage sous-marin afin de relier ses datacenters dans la zone Asie-Pacifique.

Les embarcations intégreront 30 à 40 unités Pelamis Wave Energy Converter convertissant l'énergie des vagues en électricité à hauteur d'un mégawatt par unité. Enfin, des pompes hydrauliques transformeront l'eau de mer en liquide de refroidissement pour les super-serveurs embarqués. L'exploitation de ces Google offshore sera flexibilisée en fonction de la réglementation maritime, de l'activité Internet/télécoms, des conditions météorologiques et des évolutions technologiques.

Big White ne fut guère la pionnière en la matière, elle a simplement amélioré un concept d'abord forgé par International Data Security (IDS) : 50 pétroliers et cargos reconvertis en datacenters flottants – dont 22 ancrant au large de la Californie - et alimentés au biodiesel.

The rebirth of cool

Supports physiques primaires de l'informatique nuageuse (cloud computing), des grilles computationnelles (grid computing) et de l'informatique-service (software-as-a-service), les datacenters deviennent de véritables ogres énergétiques du fait d'une demande exponentielle d'applications en ligne. Le seul refroidissement des super-serveurs googléens consomme autant d'électricité qu'une ville de 300 000 habitants. Constituant 1% de la consommation électrique mondiale, grandes comme plusieurs terrains de football, les fermes terrestres de super-serveurs sont la hantise de leurs exploitants (Google, IBM, HP, Microsoft, Sun, etc) et des environnementalistes. Selon le cabinet de consulting McKinsey et le think tank Uptime Institute, l'empreinte carbonique de notre activité réseautique égalera celle actuelle de la navigation aérienne à l'horizon 2020, flambée des coûts énergétiques en sus. Surfer sur Internet n'est donc pas très écologique...

Dans la même veine, Microsoft envisage de construire des fermes techno en Sibérie, Sun Microsystems lorgne vers une mine désaffectée du Japon où les eaux souterraines seront transformées en liquide de refroidissement pour ses super-serveurs. Ainsi, ces deux géants diminueraient leurs consommations énergétiques de plus de 50%.

Google offshore relèverait-il d'un quelconque « infocapitalisme écologique » ? Last but not least, Big White planche déjà sur une question incontournable : que faire de ses datacenters flottants en cas de cyclone ou de tsunami ? Pourquoi ne pas développer Google Earthquake, alerte en ligne avancée reposant sur un réseau de capteurs sismiques en profondeur ?

Article liés :

  1. Data Center Knowledge : Google Planning Offshore Data Barges

  2. Times : Google search finds seafaring solution

  3. US Patent and Trademark Office : the Google patent

  4. Électrosphère : L'entreprise virtuelle agile

Article publié et commenté dans Agoravox

vendredi 12 septembre 2008

3 Septembre 2058 : Oeil bionique pour tous


Composé de biomatériaux intelligents et nanoélectroniques, « le troisième oeil » se généralise auprès des polices nord-américaines, asiatiques et européennes. Portée à l’oeil gauche, cette lentille ultra-souple fournit à son porteur une réalité virtuelle augmentée.

Lire la suite dans Youvox Avenir


jeudi 11 septembre 2008

Un million de terroristes


Pendant que les listes noires d'Oncle Sam - incluant Nelson Mandela et Edward Kennedy – franchissent la barre du million, les services secrets de Sa Majesté dévoilent l'extrême difficulté à établir un profil terroriste.

Punishment Park

Consécutivement aux attentats du 11 septembre 2001, l'administration Bush Jr recourut massivement aux listes noires d'individus « suspectés » de quelconques liens avec le terrorisme ou le trafic de drogue. Pour peu qu'un citoyen américain ou un ressortissant étranger figure que dans les bases de données du Terrorist Identities Datamart Environment (TIDE), du Office of Foreign Asset Control (OFAC) ou du Transportation Security Administration (TSA), le cauchemar américain s'abattra froidement sur le nouvel ennemi public numéro X : il sera bipé par tous les portiques aéroportuaires voire reçu par le SWAT après l'atterrissage, aura toutes les peines du monde pour obtenir un prêt bancaire, louer un appartement ou une voiture, réserver un billet d'avion, etc. A moins d'être une Very VIP, il ne pourra espérer être retiré de cette terrorist watchlist, héritage jurisprudentiel des années 60-70 durant lesquelles les autorités américaines photographiaient et mettaient sur écoute tout ce qui militait pour la cause noire, protestait contre la guerre du Viêtnam ou portait une barbe et des sandales...

Au sein des administrations concernées, tout retrait d'un blacklisté amoindrit les perspectives de promotion et implique souvent une sanction disciplinaire pour le fonctionnaire contrevenant... Le moindre agent immobilier, loueur de véhicules ou conseiller bancaire outrepassant ces listes noires encoure une peine de 30 ans de prison et une amende de 10 millions de dollars.

En 2003, ces listes noires cumulées à huit autres élaborées par le FBI, le Département de la Justice, le Département à la Sécurité Intérieure, la DEA, l'ATF, etc, comptabilisaient environ 300 000 terroristes potentiels dont 5% de citoyens américains, le reste ne résidant pas ou ne s'étant jamais rendu aux Etats-Unis. A l'été 2008, elles ont franchi la barre symbolique du million, inscrivant mensuellement entre 20 000 à 30 000 individus supplémentaires sur les cinq dernières années selon le American Civil Liberties Union.

Les sénateurs et congressmen Robert Johnson, Gary Smith et Edward M. « Ted » Kennedy furent interceptés et interrogés à plusieurs reprises lors de leurs départs/arrivées dans les aéroports de leur propre pays. Même en requérant une réservation chez d'autres compagnies aériennes, ils se virent opposés une fin de non-recevoir. Motif : ils figurent dans la no-fly list. Chacun d'entre eux mettra plus d'un mois pour échapper à ce fichage aussi arbitraire qu'absurde.

Quelle ne fut pas la surprise des autorités américaines lorsqu'elles réalisèrent que Nelson Mandela, prix Nobel de la paix, ex-président de l'Afrique du sud, et ses compagnons anti-apartheid de l'African National Congress – alors désigné comme organisation terroriste par Oncle Sam dans les 70-80's – devaient préalablement obtenir des autorisations spéciales du Département d'Etat pour se rendre sur le territoire américain. Seul l'accès aux bâtiments des Nations-Unies à New York leur étant autorisé. Le quart de siècle passé derrière les barreaux du grand-père rêvé n'a certainement arrangé son cas auprès des ordinateurs de la sécurité nationale américaine. Ambassadrice d'Afrique du sud aux US en 2002-2006, Barbara Masekela ne put rendre visite à sa famille outre-Atlantique, motif : « Lady, you are no-fly listed ». L'intervention de Condoleeza Rice lèvera rapidement la restriction ciblant Nelson Mandela et ses anciens camarades de l'ANC.

D'autres n'auront probablement jamais cette chance. Des citoyens américains ou étrangers originaires d'Afrique du nord, du Moyen-Orient et d'Asie centrale/méridionale et/ou portant des patronymes à consonnance islamique, de nombreux opposants à la politique de l'administration Bush Jr résidant aux Etats-Unis, au Canada et en Europe, des membres d'ONG, d'associations religieuses, des militants de la gauche américaine, d'anciens hauts fonctionnaires de l'administration Clinton, des procureurs et des substituts de divers états, plusieurs salariés du Congrès et du Sénat, des experts en technosécurité, des air marshalls (censés neutraliser d'éventuels pirates de l'air à bord d'un jet commercial) et des myriades de citoyens lambda se battent encore contre une machine administrative proprement kafkaïenne...

...Qui, depuis peu, s'est également arrogée le droit de saisir ad nutum le matériel électronique des passagers – ordinateurs portables, téléphones mobiles, appareils photo, etc – de copier intégralement leurs données personnelles et professionnelles et les distribuer à autant de services que possible (cf Passeport, mot de passe et code pin, SVP !). Pour peu que le Coran côtoie Windows ou qu’un chapelet enlace un PDA dans votre bagage à main, le golgothe du TSA ou des US Customs vous priera « de bien vouloir le suivre ».

L'URSS s'écroule à l'est... Et renaît à l'ouest ?

Sur tous ces points, Canadiens et Européens feraient bien de ne pas trop vite régler leurs comptes avec l’Oncle Sam : des dispositions tacites ou formelles quasiment identiques à celles américaines existent déjà ou bourgeonnent au sein de leurs administrations. Morphobiométrie bientôt à tous les étages et fichiers type EDVIGE, pour ne citer que cela, démontrent à quel point Amérique du nord et Europe sont méticuleusement alignés en matières d'hypersurveillance.

De telles pratiques en disent long sur la dérive cyberprétorienne des démocraties post-industrialisées au sein desquelles le citoyen et l’étranger deviennent des ennemis potentiels. Doit-on appréhender cette permanente suspicion généralisée comme un inéluctable dégât colatéral de la sécurité nationale aussi longtemps qu’on n’en est point victime ou qu'on n'ait rien à se reprocher ? Ici, loin de moi toute idée visant à éluder ou à minimiser les menaces bien réelles de notre sulfureux siècle...

Par ailleurs, l’hypersurveillance intérieure et frontalière ne recrée-t-elle pas sournoisement les conditions de la vulnérabilité nationale : obésité informationnelle, ultra-complexité organisationnelle, dégradation des libertés individuelles, nuisances pour la conduite des affaires, les relations diplomatiques, les activités touristiques, les échanges culturels et universitaires, la coopération scientifique et technologique ? Comporte-t-elle des risques cachés de bunkérisation géoéconomique et sociale voire de néo-soviétisation rampante à mesure que citoyens et voyageurs l’intériorisent par paliers ?

Expert en infosécurité, Bruce Schneier affirmait quelques années plus tôt que cet addictif cyberflicage tous azimuts normalisera surtout les fausses alertes, et qu’en plus, tout système prétendant identifier le risque posé par chaque individu génère d’abord ses propres bogues puis son abyssal déficit budgétaire.

En janvier 2008, un enfant moyen-oriental de cinq ans voyageant en mineur accompagné fut accueilli à sa sortie de l’avion par une brigade du SWAT puis placé en garde à vue. Sa tante américaine ne put même pas le réconforter, lui donner un verre d’eau ou un sandwich pour la simple et bonne raison qu’il représentait « un risque pour la sécurité nationale » ! Il fallut huit heures au TSA pour réaliser que le petit garçon derrière la vitre sans teint n’était que l’homonyme d’un individu blacklisté. Tout aussi cocasse et tragique : les parents de Sam Adams (= Saddam ?!), cinq ans, eurent toutes les peines du monde à lui obtenir un passeport, le garçonnet vit systématiquement un calvaire à chaque checkpoint aéroportuaire de son pays. Devra-t-on s’habituer à cet effacement du bon sens derrière la technologie ?

L'impossible profil terroriste

Outre-Atlantique, les autorités britanniques envisagèrent d'effectuer des contrôles aux frontières « en sélectionnant des gens aux comportements suspects, qui font des trajets inhabituels, ou, de façon plus controversée, qui ont certaines origines ethniques ou religieuses » (cf. Times). Dans la réalité, cela aboutit à extraire des passagers à la physionomie nord-africaine, moyen-orientale ou centre/sud-asiatique des files d'attente. Ex-lieutenant à Scotland Yard, Lord Stevens proposa ouvertement de focaliser les contrôles sur « de jeunes individus musulmans ». En plus clair, jeune + musulman = agent dormant ou terroriste. « De quoi s'aliéner des communautés dont le gouvernement aurait peut-être besoin pour combattre le terrorisme », a indiqué le Muslim Council of Britain.

Dans un document interne paru en août 2008, le Mi-5 conclua « qu'il est impossible d'établir un profil type du terroriste britannique », et qu'en outre, « beaucoup de groupuscules extrêmistes au Royaume-Uni n'ont rien à voir avec l'islam ».

A partir d'une analyse longitudinale menée sur plusieurs centaines de cas réels, les services de sécurité de Sa Majesté démolissent les clichés usuels associant islam et terrorisme :

  • on ne peut établir quelque suspicion en se basant simplement sur la nationalité, l'origine ethnique ou la confession religieuse,

  • la très grande majorité des citoyens ou des résidents musulmans en Grande-Bretagne sont des novices religieux qui ne sont « ni fous, ni mauvais »,

  • contrairement à de nombreux à-prioris, une identité religieuse bien établie éloigne de la dérive extrémiste ou terroriste,

  • l'influence des clercs musulmans radicaux dans les communautés britanniques est extrêmement réduite,

  • une pratique fondamentaliste n'implique que trop rarement l'adhésion à une idéologie violente ou terroriste,

  • l'idée selon laquelle le terrorisme islamiste serait dû à la frustration sexuelle, mu par une quête du martyr et/ou guidé par « le fantasme paradisiaque d'une quarantaine de vierges » n'a aucun sens,

  • ceux impliqués dans quelque mouvance extrémiste ou violente ne correspondent à aucun profil spécifique ou à aucune typologie particulière sur les plans culturel, socioéconomique ou démographique,

  • de nombreux citoyens britanniques non-originaires d'Afrique du nord, du Moyen-Orient ou d'Asie centrale/méridionale se sont convertis à l'islam depuis plusieurs décénnies.

Dans un article précédent, j'avais signalé que la notion de famille dans les communautés issues des régions précitées est beaucoup plus élargie que celle typiquement occidentale, justifiant des déplacements réguliers vers les terres natales. La veille et la lutte anti-terroriste ne doivent donc pas verser dans un balayage discriminatoire – perçu par certains comme un « réajustement d'efficacité » - qui pénaliserait lourdement son fine tuning à fortiori dans une nation traditionnellement et fortement multiethnique comme le Royaume-Uni, la France, les Etats-Unis, le Canada ou l'Australie.

Malgré tout, les démocraties post-industrialisées ont foncé à la vitesse TGV dans un fétichisme ultra-sécuritaire, sujet à aucune évaluation et à aucun débat public. Comment donc savoir si enlever ses chaussures et sa ceinture, franchir le portique de sécurité en tenant péniblement son pantalon et abandonner sa bouteille d'eau minérale relèvent d'une réelle sécurisation de son prochain vol ?

Dans quelques années, devra-t-on se déshabiller complètement, se voir prêter une combinaison orange ou bleu rayé dépourvue de toute poche et de tout artifice pour embarquer dans un avion ?

  1. ACLU : Terrorist watchlist hits one million names

  2. Propublica : Million on terrorist watchlist

  3. USA Today : US has Mandela on terrorist list

  4. Washington Post : Sen. Kennedy Flagged by No-Fly List

  5. The Guardian : No single pathway to extremism

Article publié et commenté dans Agoravox

mercredi 10 septembre 2008

Le tardigrade défie le cosmos

Petit, pas beau mais costaud, le minuscule et très populaire invertébré a survécu pendant douze jours à de fortes radiations solaires et cosmiques lors d'une expérience en orbite.

Second Life

Très proche des arthropodes, entre 0,1 et 1,5 mm de cuticule segmentée affublée d'yeux et de huit pattes griffues, phylum tardigrada était déjà la superstar des sciences de la vie : qu'il s'agisse des 8000 mètres de l'Himalaya, de 4000 mètres d'eau profonde, des terres polaires, des forêts équatoriales, des toundras canadiennes, des taïgas russes, des sols sablonneux, des sédiments salins ou de votre toîture humide, « l'ourson d'eau » fait comme chez lui c'est-à-dire partout.

Mieux : il survit durablement à des radiations 1100 fois supérieures à celle que le corps humain supporterait et résiste un certain temps à des températures oscillant de -270°C (zéro degré Kelvin ou le zéro degré absolu !) à +150°C ! Il le doit à une exceptionnelle faculté appelée « cryptobiose ». Quand les conditions de vie se durcissent, il abaisse son activité vitale à 0,01% de la normale, rétracte ses pattes dans son corps, s'auto-désydrate complètement, substitue sa teneur corporelle en eau par des sucres synthétiques préservant sa structure multicellulaire – telle « une mémoire biochimique » - et enrobe sa cuticule d'une infime couche de cire appelée tonnelet du fait de sa forme.

Au vu de toutes ces capacités, les biologistes parièrent leur argent sur les chances de survie de phylum tardigrada dans l'environnement spatial. Les départements de biologie, de microbiologie, de génétique et de toxicologie des universités de Stockholm, de Kristianstad, de Cologne, de Stuttgart et le Centre Aérospatial d'Allemagne bénéficièrent du soutien financier de trois fondations suédoises et allemandes (Crafoord Foundation, Carl Trygger Foundation, Kristianstad University) dans le seul but d'infliger une expérience traumatisante à l'increvable.... Intra ou extra-terrestre ?

Microcosmonautes

A l'été 2007, plusieurs racks expérimentaux contenant des tardigrades rejoignirent la mission spatiale Foton-M3. Une quarantaine d'expériences scientifiques (physiques des fluides, microbiologie, protéinologie, radiologie, etc) initiée par l'Allemagne, la Suède, la France, la Belgique, l'Italie, le Canada et la Russie, furent menées pendant 12 jours dans les conditions orbitales.

Le 14 septembre, le lanceur Soyouz-U quitta le Cosmodrome de Baïkonour avec tout ce beau monde à son bord. Une fois la capsule Foton-M3 en orbite, son module semi-externe Biopan exposa une dizaine de racks expérimentaux – dont ceux contenant 4 espèces de tardigrades – au vide spatial, à de faibles et hauts niveaux de radiations cosmiques et de rayonnements solaires non-filtrés. Le 26 septembre, la capsule Foton-M3 atterrit sans encombres dans les steppes kazakhes proches de la frontière russe. Le 4 octobre, les fameux microcosmonautes furent de retour dans les laboratoires suédois, parfaitement inconscients des attentes qu'ils suscitaient.

Plus des deux tiers (68%) des échantillons avaient survécu à cette aventure orbitale extrême. Sortis de leur léthargie, les survivants avaient rapidement restauré leurs ADN et leurs structures cellulaires avec plus ou moins d'erreurs. Selon le chef de projet K. Ingemar Jönsson de l'université de Kristianstad, bon nombre d'entre eux semblait n'avoir subi aucun dommage cellulaire ou génétique. Depuis, les chercheurs essaient de percer le secret des aptitudes auto-réparatrices de cette millimétrique VIP.

Il n'en fallut pas plus pour réveiller les exobiologistes patentés ou en herbe. En effet, le tardigrade réunit des caractéristiques optimales de survie tant pour un voyage intersidéral dans une météorite que pour un éventuel crash de celle-ci dans quelque environnement favorable, à l'image des surprenantes nanobactéries aux origines mystérieuses. Malgré d'extraordinaires résistances tous azimuts, l'ourson d'eau a besoin d'or transparent et ne survivrait pas longtemps sur les sols lunaires ou martiens. Les investigations scientifiques germano-suédoises nous en diront plus long sur cette arrogante et coriace espèce.

PS : Depuis peu, l'auteur de ces lignes connaît de sérieux litiges avec son fournisseur de solutions cryogéniques...

En savoir plus :

  1. ESA : Lift-off for Foton microgravity mission

  2. Current Biology : Tardigrades survive exposure to space in low Earth orbit, par K. Ingemar Jönsson (PDF, 31 $)

  3. TARDIS : Tardigrades in space (blog dédié)

  4. Wired : Invertebrate astronautes make space history

  5. Agoravox : Evolutionnisme : la bestiole qui défie Darwin

Article publié et commenté dans Agoravox