Le combat ardu contre les robots tueurs

Droit internationalToute la semaine, les Etats discutent à Genève des robots au service de la guerre. Un débat fondamental.

Image: Capture d'écran

Signaler une erreur

Vous voulez communiquer un renseignement ou vous avez repéré une erreur ?

Imaginez une machine apte à décider, sans supervision humaine, quelle cible, quand et pour quelle raison stratégique elle va frapper dans le cadre d’un conflit armé. Une machine programmée pour détenir un pouvoir absolu, le droit de vie ou de mort sur des êtres humains. Ou imaginez encore des Robocops armés et dotés d’une intelligence artificielle, lancés sur le champ de bataille.

Avec l’explosion du marché de la robotique de guerre, dont les drones incarnent aujourd’hui la réalité la plus tangible, les experts s’accordent à dire que cette évolution ne relève plus de la science-fiction: d’ici trente, vingt ou même dix ans, les Etats les plus puissants de la planète auront la capacité technologique de mettre au point de telles armes, suffisamment intelligentes pour être autonomes. Ceux qui les défendent y voient la perspective de combats sans pertes humaines dans leurs rangs, budgétairement moins lourds et beaucoup plus efficaces.

Ce développement, déjà en marche, soulève évidemment maintes questions éthiques, relatives au droit humanitaire, et occupe l’ONU. Depuis deux ans, la communauté internationale débat concrètement de l’opportunité de dresser les contours d’une réglementation des armes létales automatisées dans le cadre de la Convention sur certaines armes classiques, laquelle siège à Genève. Avec un panel d’options: adopter des règles de conduite, un moratoire ou une interdiction pure et simple. Cette semaine, les représentants de 87 pays se penchent sur la question à Genève. Des experts y sont invités à présenter l’état du développement technologique dans ce domaine et la question de savoir quels équipements pourraient rentrer dans la définition juridique des armes létales automatisées.

Aucune décision ne sera prise à la fin de la semaine, mais à chaque avancée des travaux, les ONG regroupées au sein de la campagne «Stop Killer Robots» se font entendre en marge des débats. Car comment accepter que les robots de guerre puissent se substituer à la pesée morale, éthique, de toute décision militaire? Et qui serait responsable juridiquement en cas d’attaque illicite, comme interroge l’ONG Human Rights Watch dans un récent rapport?

Les ONG réclament d’urgence un traité international permettant de prohiber spécifiquement le développement, la production et l’usage de robots tueurs. Et elles s’impatientent. Pour la professeure américaine Jody Williams, nobélisée en 1997 pour son combat contre les mines antipersonnel, il est incompréhensible qu’une poignée d’Etats temporisent sur ces questions, alors qu’une majorité de pays sont favorables à une réglementation immédiate. «Les robots tueurs vont changer le visage de la guerre, on se situe dans un développement aussi révolutionnaire que la bombe nucléaire. Les Etats-Unis et le Royaume-Uni diraient que c’est un progrès; en réalité, moralement, éthiquement, c’est un énorme bond en arrière», a-t-elle fait valoir lundi à Genève, en marge des discussions.

De fait, le combat des ONG pour une interdiction des armes létales entièrement automatisées se présente comme ardu. A défaut d’une interdiction spécifique, une réglementation stipulant que l’emploi de toute arme doit se faire sous monitoring humain est l’une des pistes que suivent aussi les ONG. Une position à laquelle semblent adhérer nombre d’Etats présents cette semaine à la conférence. C’est le cas des deux tiers des 30 pays ayant pris la parole lundi, selon Thomas Nash, de l’ONG britannique Article 36.

Mais au vu des enjeux militaires et économiques, il est difficile d’imaginer que les grandes puissances renoncent à la course à l’armement robotisé. Le Royaume-Uni a fait savoir lundi qu’il était contre toute interdiction, arguant que le droit humanitaire international était suffisant pour réguler ces questions. Il y a une semaine, l’armée américaine a annoncé préparer pour janvier 2016 une doctrine réglementant l’usage des systèmes militaires inhabités et robotiques, doctrine jusqu’ici inexistante. En précisant qu’il n’était pas prévu de doter les systèmes terrestres inhabités d’une capacité létale autonome. Mais les Etats-Unis avaient dit l’an dernier qu’il était trop tôt pour envisager toute interdiction ou moratoire sur ce type d’armement.

Créé: 14.04.2015, 19h06

Articles en relation

Craints ou séduisants, les robots déferlent

Technologies Jadis utilitaire et fonctionnelle, la robotique prend un virage important: les machines revêtent toujours davantage des formes humaines. Plus...

Les ONG font campagne contre les «robots tueurs»

Genève internationale A la veille de la tenue mardi à l’ONU, Human Rights Watch vient de rendre public les conclusions d’un rapport qui évalue en détail les risques présentés par ces armes. Plus...

Publier un nouveau commentaire

Nous vous invitons ici à donner votre point de vue, vos informations, vos arguments. Nous vous prions d’utiliser votre nom complet, la discussion est plus authentique ainsi. Vous pouvez vous connecter via Facebook ou créer un compte utilisateur, selon votre choix. Les fausses identités seront bannies. Nous refusons les messages haineux, diffamatoires, racistes ou xénophobes, les menaces, incitations à la violence ou autres injures. Merci de garder un ton respectueux et de penser que de nombreuses personnes vous lisent.
La rédaction

Caractères restants:

J'ai lu et j'accepte la Charte des commentaires.

No connection to facebook possible. Please try again. There was a problem while transmitting your comment. Please try again.