Genève à l'avant-garde du combat contre les robots tueurs

Aucun projet de traité n’est encore sur la table. La société civile met la pression sur les États qui semblent surtout pressés de gagner du temps.

Le X-47B de l'armée américaine est capable d'attaquer des cibles sans aucune intervention humaine.

Le X-47B de l'armée américaine est capable d'attaquer des cibles sans aucune intervention humaine. Image: Keystone (archives)

Signaler une erreur

Vous voulez communiquer un renseignement ou vous avez repéré une erreur?

Beaucoup de chemin reste à faire avant que les États ne s’entendent pour se doter d’une législation commune sur les systèmes d’armes létales autonomes (SALA). Depuis lundi, des experts représentants plus de 70 pays sont réunis à Genève pour participer à des pourparlers organisés par l’ONU dans le cadre de la Convention sur certaines armes classiques (CCW). Fin 2013, les États parties y ont créé une commission de travail sur le sujet. Mais le débat n’avance pas vite. L'ambassadeur indien au désarmement, Amandeep Gill, qui préside cette réunion a prévenu qu’aucun traité d’interdiction n’était sur la table pour le moment. «Il serait très facile de légiférer mais je pense que… se précipiter sur un sujet très complexe n'est pas sage», a-t-il déclaré avant que le groupe d’experts ne démarre ses travaux prévus pour durer jusqu’à vendredi.

Les progrès en matière d’intelligence artificielle posent de gigantesques défis. Aujourd’hui, la réalité dépasse la fiction. Des machines programmées par des humains vont être en capacité de décider par elles-mêmes, à partir d’algorithmes, de tuer des humains. Effrayant! Les représentants de la société civile ont tiré la sonnette d’alarme à plusieurs reprises. «Le problème est tellement complexe que des scientifiques et des chefs d’entreprise tels que le patron de Tesla disent aux États qu’ils doivent arrêter cette folie», relève Gabriel Galice, président de l'Institut international de recherches pour la paix de Genève (Gipri) basé à Genève.

Les ONG pour une interdiction

«Vous rendez-vous compte qu’un seul individu peut programmer des milliers d’appareils pour tuer. C’est terrible. Si nous ne faisons rien, l’avenir de l’humanité sera sombre», prévient le professeur Toby Walsh. Cet expert en intelligence artificielle de l’Université de New South Wales de Sydney s’est exprimé à l’occasion d’une conférence organisée par le collectif «Campaign to stop Killer Robots» en marge de la réunion de la CCW.

Les ONG à l’origine de cette mobilisation (parmi lesquelles Pax, Human Rights Watch, Article 36, International Committee for Robot Arms Control) militent pour une interdiction pure et simple de ces armes alors que les gouvernements en sont encore à discuter d’une définition des SALA. Certains se disent en outre en faveur d’une régulation au prétexte que ces nouvelles technologies offrent aussi quelques avantages tandis que d’autres se disent prêts à adopter un traité d’interdiction mais avec des critères tels qu’ils laisseraient une porte entrouverte à l’usage de ces machines.

Éviter de confier la décision de tuer à des algorithmes

Les représentants de «Campaign to stop Killer Robots» craignent que le débat ne passe à côté du sujet en se focalisant sur des aspects techniques liés aux nouveaux développements qu’offre l’intelligence artificielle. «Au lieu d'élargir ce débat et le perdre de vue, les Etats devraient se concentrer sur la promotion d' une compréhension politique commune et tracer les limites nécessaires de l’autonomie des systèmes d'armes», prévient Richard Moyes de l’ONG «l’article 36» membre du collectif «Campaign to stop Killer Robots».

Pour les ONG et les défenseurs des droits de l’homme, il s’agit de tout mettre en œuvre pour éviter que les gouvernements ne confient à un algorithme la décision finale de tuer ou de détruire. La plupart des Etats se disent d’accord et affirment qu’il n’est pas question de soustraire l’homme au processus de décision. Pourtant, le recours à des armes de plus en plus autonomes comme les drones militaires atteste du contraire. «Une fois encore, comme ils l’ont fait avec l’Economie, nous risquons de voir les responsables politiques se défausser de leurs responsabilités au prétexte que ce sont les ordinateurs qui décident», redoute Gabriel Galice. Et si l’homme s’éloigne de la chaîne de décision, qui aura à rendre des comptes lorsque les règles du droit international humanitaire (DIH) auront été bafouées? La machine? Ce débat n’a pas fini d’agiter Genève.

(TDG)

Créé: 14.11.2017, 12h26

Publier un nouveau commentaire

Nous vous invitons ici à donner votre point de vue, vos informations, vos arguments. Nous vous prions d’utiliser votre nom complet, la discussion est plus authentique ainsi. Vous pouvez vous connecter via Facebook ou créer un compte utilisateur, selon votre choix. Les fausses identités seront bannies. Nous refusons les messages haineux, diffamatoires, racistes ou xénophobes, les menaces, incitations à la violence ou autres injures. Merci de garder un ton respectueux et de penser que de nombreuses personnes vous lisent.
La rédaction

Caractères restants:

J'ai lu et j'accepte la Charte des commentaires.

No connection to facebook possible. Please try again. There was a problem while transmitting your comment. Please try again.

Caricatures

De nombreux morts dans un attentat en Egypte
Plus...