mardi 9 juillet 2013

La peur irrationnelle des drones intelligents

En décembre 2012, Human Rights Watch avait publié un rapport titré Losing Humanity : The Case Against Killer Robots dans lequel il prônait l'interdiction du développement, de la production et de l'usage « d'armes autonomes » (autonomous weapons) car « fondamentalement dépourvues des capacités humaines à effectuer des contrôles légaux et non-légaux concernant le meurtre de civils » et constituant de facto un risque accru pour les populations civiles en cas de conflit.



Selon le blogueur, journaliste et analyste de défense Joshua Foust (American Security Project) dans The False Fear of Autonomous Weapons, aucun pays n'a entrepris de développer ou d'utiliser des robots armés complètement autonomes à ce jour. Par ailleurs, le Pentagone avait émis une directive incitant les commandants et les opérateurs (de drones) à « exercer des niveaux adéquats d'appréciation humaine dans l'usage de force. »

Dès lors, la vision alarmiste de HRW est tout simplement à côté de la plaque. Selon Foust, la peur des robots armés est grandement imprégnée par la science-fiction hollywoodienne qui les dépeint comme un risque létal ou une menace existentielle pour l'humanité. Les aficionados de Terminator, de Matrix et de Battlestar Galactica en savent quelque chose...

Contrairement aux clichés trop souvent répandus, les états-majors et les ingénieurs en armement sont très réticents à l'idée de déléguer la décision de faire feu à la machine seule - aussi intelligente soit-elle, tant par obsession du contrôle ou de la discipline que par crainte d'un bogue.

En outre, les frappes aériennes (de chasseurs/bombardiers comme de drones) relèvent en arrière-plan d’un véritable processus impliquant des états-majors, des conseillers politiques et des conseillers juridiques; ceci afin d'assurer la coordination opérationnelle des armes (infanterie, artillerie, véhicules, aviation, marine) lors d'une campagne militaire, d’affiner l’efficacité des attaques au sol, de veiller à leur conformité aux règles d’engagement, et d’éviter autant que possible de tragiques bavures et donc de fâcheux incidents sur le plan politique comme médiatique.

Bon nombre des pourfendeurs de drones ignorent cette réalité d'arrière-garde et omettent trop souvent (et volontairement ?) ce fait incontestable : un bombardier ou un chasseur cause beaucoup plus de victimes et dégâts collatéraux qu'un drone.



Jetez un oeil à n'importe quel documentaire TV du dimanche soir sur la guerre du Vietnam, du Golfe ou d'Afghanistan...

Dès lors, je m'interroge sur la sincérité des militants anti-drones : pourquoi sont-ils aussi incisifs envers des machines de mort radiocommandées (ou supervisées) et plutôt cléments envers des machines de mort pilotées ? Seraient-ils satisfaits si les Etats-Unis recouraient à des bombardiers (B-2, B-52) ou à des chasseurs (F-16, F-18) plutôt qu'à des drones Predator contre les huiles d'Al-Qaïda ? Comment discriminent-ils les drones des nombreux systèmes d'armes (missiles, torpilles, anti-missile Patriot, anti-roquettes Iron Dome) qui fonctionnent à l'identique depuis belle lurette c-à-d traquent automatiquement leurs cibles dès leur mise à feu par des opérateurs humains ? Leur féroce opposition aux drones (américains) dissimulerait-elle quelque règlement de comptes avec la politique étrangère ou contre-terroriste d'Oncle Sam ?

Au-delà de ces psychologismes, le drone n'est que la continuation à l'ère informationnelle d'une quête commencée à l'âge de la pierre taillée : celle consistant à atteindre l'ennemi sans s'exposer ou en conservant / augmentant la distance. La preuve par la lance, l'arc & la flèche, la catapulte, l'obus, l'avion, le missile... et la cyberattaque ?
 

4 commentaires:

Kouak a dit…

"un bombardier ou un chasseur cause beaucoup plus de victimes et dégâts collatéraux qu'un drone."

Les destructions dépendent du nombre et de la qualité des munitions, pas de l'aéronef tireur. Si un tapis de bombes peut être plus meurtrier qu'un seul Hellfire, une salve de canon ou le largage d'une bombe inerte l'est encore moins.

De plus, la comparaison du potentiel de destruction nie le fait que les couples aéronef/armement remplissent des missions différentes. Les 4 Hellfire d'un Predator font bien palle figure face à une floppée de bombe de 250kg non guidées, quand il s'agit d'écraser des positions adverses.

Electrosphère a dit…

@Kouak,

Ces détails, je les connais, étant très versé dans l'aviation civile/militaire. J'aurais du préciser que les chasseurs et bombardiers sont le plus souvent utilisés et armés pour l'attaque au sol, et les drones contre des cibles particulières précisément en partie fait de leur armement, et donc posent des risques moindres de pertes collatérales.

Cordialement

Anonyme a dit…

pour dire que je désapprouve votre analyse,
d'une, erreur dans les faits : jetez un coup d'oeil sur le "techwin sgr-a1" c'est un robot sentinelle capable de détécter et faire feu sur une cible humaine de manière autonome. Donc les robots militaires autonomes existent déjà. D'autres part, savez vous ce que sont "les niveaux adéquats d'appréciation"? C'est un standard de l'armée américaine. Mais si elle change d'avis, elle peut changer cette directive et développer des robots de combat autonomes, légalement. En effet, il n'y a a l'heure actuelle aucune règle spécifique applicable aux robots militaires en droit international. Or la technologie se développe rapidement. Il parait donc légitime que HRW milite pour fixer une limite à ce développement. A moins réclamer le lancement de robots tueurs autonomes, on ne peut pas soutenir J FOUST.

Anonyme a dit…

Les missiles robotisés sont très cher et très peu utilisés. Les bombardiers sont très encadrés par le droit international. Pas les drones.
Les drones eux sont de moins en moins cher et très utilisés. Il est raisonnablement envisageable que d'ici une 20aine d'années, on puisse produire des robots tueurs intelligents capable de décider de tuer de manière autonome. Or le droit international. Ne prévoit pas du tout l'hypothèse des robots tueurs autonomes. c'est pourquoi il faut tracer une claire "redline". L'article de FOUST est très intelligent mais sur le plan des idées, ca n'est que du baratin. Il est d'ailleurs très critiqué, entre autres par les robotistes (voir http://icrac.net/), qui eux pensent ~comme URW.