Armes autonomes: géants de la tech dans le viseur

Intelligence artificielleLe rôle d'Amazon, Microsoft et Intel est pointé du doigt dans le développement des armes autonomes grâce à l'intelligence artificielle.

Image d'illustration.

Image d'illustration. Image: AFP

Signaler une erreur

Vous voulez communiquer un renseignement ou vous avez repéré une erreur ?

Les américains Amazon, Microsoft et Intel font partie des géants technologiques qui pourraient mener une gigantesque course aux armements dans le secteur de l'intelligence artificielle, selon un rapport d'une ONG sur les armes de destruction autonomes.

L'organisation néerlandaise PAX a sondé les principaux acteurs de ce secteur hautement stratégique et a classé 50 entreprises selon trois critères: développent-elles des technologies permettant de créer des «robots tueurs»? Travaillent-elles sur des projets militaires liés à ces technologies? Ont-elles promis de s'abstenir d'y contribuer dans le futur?

L'usage de l'intelligence artificielle pour permettre à des systèmes d'armement de choisir automatiquement et d'attaquer des cibles a provoqué d'importants débats éthiques au cours des dernières années. Pour certains critiques, on pourrait même assister à la troisième révolution de l'art de la guerre après les inventions de la poudre et de la bombe nucléaire.

«Armes hautement controversées»

«Pourquoi est-ce que les entreprises comme Microsoft et Amazon ne nient pas qu'elles sont actuellement en train de développer ces armes hautement controversées qui pourraient décider d'elles-mêmes de tuer, sans implication humaine?», demande Frank Slijper, principal auteur du rapport publié lundi.

Vingt-deux entreprises représentent une «inquiétude moyenne» pour les auteurs du rapport, dont l'analyse se porte sur 12 pays à travers le monde. Parmi elles, le japonais SoftBank, notamment connu pour son robot humanoïde Pepper.

La catégorie «haute inquiétude» compte 21 entreprises, dont Amazon et Microsoft, qui essaient tous les deux de passer un contrat avec le Pentagone pour fournir à l'armée américaine l'infrastructure de son «cloud» (service de stockage de données en ligne).

«Les armes autonomes deviendront inévitablement des armes de destruction massive», prédit à l'AFP Stuart Russell, professeur de sciences informatiques à l'université californienne de Berkeley. «Des travaux sont actuellement entrepris pour que tout ce qui constitue actuellement une arme - chars, avions de chasse, sous-marins - ait sa version autonome», ajoute-t-il.

Google bon élève

Google et six autres entreprises sont dans la catégorie «bonne pratique». L'année dernière, Google a renoncé à candidater pour le contrat du Pentagone sur le «cloud», car il pourrait être en contradiction avec ses «principes» en matière d'intelligence artificielle.

Le géant californien avait expliqué ne pas vouloir s'impliquer dans des «technologies qui sont ou pourraient être nocives» et «des armes ou d'autres technologies dont le but principal ou la mise en oeuvre causeraient ou faciliteraient l'atteinte physique aux personnes».

Pas de consensus

Mardi, aux Nations unies à Genève, un panel d'experts gouvernementaux a débattu des options politiques pour encadrer les armes autonomes, même s'il s'est avéré jusqu'ici très difficile de parvenir à un consensus autour de cette question.

Selon le rapport de l'ONG PAX, des employés de Microsoft ont également signalé leur opposition à un contrat avec l'armée américaine concernant des lunettes de réalité augmentée HoloLens destinées à l'entraînement et au combat.

Beaucoup d'inquiétudes entourent également le futur de l'armement autonome, des armes qui n'ont pas encore été inventées mais sont présentées dans certains films de science-fiction, comme les mini-drones.

Règles éthiques

«Avec ce genre d'armes, vous pourriez en envoyer un million dans un container ou un avion-cargo et elles auraient la capacité destructrice d'une bombe nucléaire, mais laisseraient tous les immeubles intacts derrière elles», notamment grâce à la reconnaissance faciale, explique Stuart Russell.

En avril, la Commission européenne a proposé une série de règles éthiques pour le secteur de l'intelligence artificielle. La liste de propositions fournie rappelait le besoin de placer «l'humain» au coeur des technologies liées à l'IA et la nécessité de favoriser la «non-discrimination», ainsi que le «bien-être de la société et l'environnement».

Pour Stuart Russell, la prochaine étape est une interdiction internationale des intelligences artificielles tueuses. «Les machines qui peuvent décider de tuer des humains ne doivent pas être développées, déployées ou utilisées», résume-t-il. (afp/nxp)

Créé: 22.08.2019, 03h09

Publier un nouveau commentaire

Nous vous invitons ici à donner votre point de vue, vos informations, vos arguments. Nous vous prions d’utiliser votre nom complet, la discussion est plus authentique ainsi. Vous pouvez vous connecter via Facebook ou créer un compte utilisateur, selon votre choix. Les fausses identités seront bannies. Nous refusons les messages haineux, diffamatoires, racistes ou xénophobes, les menaces, incitations à la violence ou autres injures. Merci de garder un ton respectueux et de penser que de nombreuses personnes vous lisent.
La rédaction

Caractères restants:

J'ai lu et j'accepte la Charte des commentaires.

No connection to facebook possible. Please try again. There was a problem while transmitting your comment. Please try again.

Caricatures

Dons d'organes: le Conseil Fédéral veut le consentement des proches
Plus...