Quand les robots-tueurs sèment le trouble

Ces vieux rêves de la science-fiction pourraient devenir nos pires cauchemars d’ici à cinq ans… Le débat est aujourd’hui engagé et nous montre que les questions soulevées par la future « intelligence » des armes autonomes posent autant de problèmes techniques que moraux. Allons-nous vers des guerres de plus en plus « inhumaines » ?
par Cyril Fiévet

Genève, mai 2014. Un étonnant débat vient de s’engager au siège des Nations unies. Cette réunion à laquelle participent des représentants d’une trentaine de pays exprimant les opinions nationales, a notamment pour but d’entendre des experts indépendants, qu’il s’agisse de spécialistes de l’intelligence artificielle, de militaires ou de militants, sur un sujet épineux : les « Systèmes d’armes létaux autonomes » – surnommés quelque peu ironiquement Laws, « lois » en anglais, pour Lethal Autonomous Weapons Systems. Autrement dit, les « robots tueurs ».

À partir de quand estime-t-on qu’un système est réellement autonome et ne se contente plus uniquement d’appliquer des algorithmes imaginés par l’humain ?

Cyril Fiévet

Les militants, au premier rang desquels l’Icrac (International Commitee for Robot Arms Control), avaient d’ailleurs saisi l’occasion pour se faire entendre et exiger, une fois de plus, un moratoire interdisant ces armes issues d’un cauchemar de science-fiction : dès 2013, en partenariat avec une cinquantaine d’autres ONG internationales, ils avaient déjà lancé le mouvement « Stop Killer Robots » pour interdire purement et simplement l’usage de ces armes. Son président, Noel Sharkey, souligne avec force, pendant cette réunion à Genève, combien « des systèmes d’armes autonomes présenteraient des dangers pressants pour la paix et la sécurité globale», ajoutant que nul ne pouvant garantir que ces systèmes « soient respectueux des lois humanitaires internationales et des droits de l’homme ». Un rapport corédigé par l’ONG Human Rights Watch et la faculté de droit de l’université Harvard, présenté la veille de ce débat multilatéral, récapitulait les failles juridiques entourant ces armes. En cas de dysfonctionnement ou d’erreurs de cible, en effet, qui serait responsable : le propriétaire, le fabricant, le programmeur, ou le règlement ?

web-texte-orbs3-robotstueurs-1

Découvrez l'intégralité de cet article dans Orbs #3