Gare au côté obscur de l’intelligence artificielle!

CybersécuritéLes technologies du futur sont déjà là. Une aubaine pour le crime, le terrorisme, la répression ou la propagande, selon 26 universitaires.

L'intelligence artificielle met à portée de tous ce qui nécessitait autrefois des compétences ou une grande efficacité. Image: Reuters

Signaler une erreur

Vous voulez communiquer un renseignement ou vous avez repéré une erreur ?

Les vidéos de surveillance le confirment: c’est par le parking souterrain que s’est introduit, au milieu de la nuit, un robot de nettoyage du même modèle que ceux utilisés par le ministère. Pour accéder à l’ascenseur de service, il s’est joint à deux appareils qui finissaient leur tournée. Il les a suivis au local technique et s’est garé avec les autres robots. Le jour de l’attentat, il s’est mis en marche et a balayé les sols, aspiré la saleté, nettoyé les taches… Mais quand son système de reconnaissance faciale a repéré le visage de la ministre, il s’est dirigé vers elle et a déclenché la charge explosive dissimulée dans son boîtier, tuant sa cible et blessant l’entourage.


Lire aussi l’éditorial: Robots tueurs et cybercrimes


Scénario de science-fiction? Pas du tout! Selon 26 experts issus de grandes universités (Yale, Oxford, Cambridge) et du monde de l’industrie, le bond en avant de la recherche en matière d’intelligence artificielle permet de mettre sur le marché – aujourd’hui ou dans les cinq ans à venir – de nouveaux outils redoutablement efficaces. Pour le meilleur, bien sûr, mais aussi pour le pire. Utilisés à mauvais escient, ils font la joie des groupes terroristes, réseaux de cybercriminalité, États autoritaires et manipulateurs d’opinion. Publié en février, le rapport «The Malicious Use of Artificial Intelligence» réclame des mesures d’urgence pour contrer des scénarios alarmants. Sombre florilège.

Une nuée de drones

Prenez un drone, pas forcément militaire. Un simple appareil commercial peut faire l’affaire, surtout un modèle développé pour la livraison de paquets. Muni d’un logiciel de reconnaissance faciale et d’instructions sur la zone à surveiller, il peut servir de robot tueur. Or, un système d’intelligence artificielle peut mettre en réseau une nuée de ces drones, navigant dans l’espace de manière autonome et concertée! Une telle attaque dépasse les capacités humaines de coordination et elle peut être menée hors connexion, dans des zones jadis hors de portée.

Autre type de menace: l’intelligence artificielle a amélioré la capacité à repérer des vulnérabilités des logiciels, pour mieux protéger le software. Mais cet outil peut être utilisé par des acteurs malveillants pour trouver les accès à un système à pirater. Imaginez que vous vous déplaciez à bord d’une voiture sans conducteur et qu’elle aille soudain s’écraser à pleine vitesse contre un individu, un bâtiment, un véhicule… Imaginez que cela se produise simultanément pour toutes les voitures sans chauffeur dans une ville!

La criminalité pour les nuls

De bien des manières, l’intelligence artificielle met à portée de tous ce qui nécessitait autrefois des compétences ou une grande efficacité. Par exemple, en analysant les comportements d’usagers sur les réseaux sociaux, des logiciels peuvent sélectionner les meilleures proies potentielles pour une cyberescroquerie, il devient plus facile de trouver une victime susceptible de confier ses données personnelles (mot de passe, numéro de carte de crédit, photocopie de carte d’identité, date de naissance, etc.) en croyant communiquer avec une personne de confiance. Une telle opération de phishing (hameçonnage) peut être carrément automatisée, un robot composant des messages sur mesure et capable de mener une conversation bien plus sophistiquée que jusqu’à présent. Cerise sur le gâteau: la machine peut démarcher une multitude de victimes en même temps!

Répression et manipulation

L’intelligence artificielle est aussi une mine d’or pour un État répressif. L’analyse des comportements sur les réseaux sociaux permet de repérer très tôt les usagers qui influencent le plus l’opinion publique – ou les vidéos qui attisent la colère contre le régime. La reconnaissance faciale permet ensuite de les identifier sur les images de n’importe quelle caméra de surveillance. Actuellement, la police chinoise teste des lunettes augmentées qui repèrent les individus figurant sur des listes de suspects ou d’individus recherchés, dès que ceux-ci entrent dans le champ de vision de l’agent.

Dernier scénario choc: les campagnes de désinformation, par exemple pour discréditer un candidat présidentiel. Imaginez l’effet qu’aurait eu sur l’électorat noir aux États-Unis la diffusion d’une vidéo de Hillary Clinton tenant des propos racistes! Les progrès de l’intelligence artificielle permettent la fabrication de vidéos plus vraies que nature, les images de synthèse devenant hyperréalistes. De même, les logiciels de reconnaissance sonore peuvent imiter une voix à la perfection ou presque. Ces fake videos seront particulièrement efficaces si elles sont envoyées à une multitude de cibles identifiées automatiquement comme susceptibles de changer d’opinion sur une candidature.

Bref, pour les 26 experts internationaux en matière d’intelligence artificielle, il est urgent de sortir du fantasme hollywoodien (la révolte des robots) et d’encadrer plus sérieusement les nouveaux progrès technologiques.


«La riposte, c’est plus de technologie»

Professeur à l’EPFL, Boi Faltings enseigne l’intelligence artificielle depuis 35 ans.

Faut-il vraiment prendre au sérieux ces menaces?

L’avancement technologique permet en effet, par exemple, de réaliser des fausses vidéos très réalistes ou de mieux choisir ses cibles pour influencer l’opinion publique. Évidemment, il y a là des dangers. La question, c’est comment affronter ces menaces. Plutôt que de légiférer en tentant de brider l’intelligence artificielle, il faut au contraire développer cette technologie pour pouvoir mieux combattre les usages malveillants. Ce qui implique par exemple des fonds pour la recherche universitaire…

Si les voleurs ont une voiture de course, il faut un bolide pour les traquer, c’est ça?

L’image est bonne. Dans notre laboratoire, nous avons par exemple créé la compagnie NextLink, qui repère les vols de comptes. Ses centaines d’employés fournissent des services à bien des entreprises. Pour ce qui est des fake news, on l’a vu, elles peuvent être combattues en identifiant les sources qui les diffusent. Mais cette traque-là, justement, sera plus efficace si elle est automatisée!

Mais ne peut-on vraiment instaurer aucun garde-fou?

Là où les politiciens peuvent légiférer, c’est sur les violations de la sphère privée. Les données personnelles ne sont pas assez protégées. Et les géants du Net concentrent trop de pouvoir. L’Europe commence à réglementer. C’est un début. A.A. (TDG)

Créé: 08.03.2018, 18h55

Articles en relation

Robots tueurs et cybercrimes

L’éditorial Plus...

Publier un nouveau commentaire

Nous vous invitons ici à donner votre point de vue, vos informations, vos arguments. Nous vous prions d’utiliser votre nom complet, la discussion est plus authentique ainsi. Vous pouvez vous connecter via Facebook ou créer un compte utilisateur, selon votre choix. Les fausses identités seront bannies. Nous refusons les messages haineux, diffamatoires, racistes ou xénophobes, les menaces, incitations à la violence ou autres injures. Merci de garder un ton respectueux et de penser que de nombreuses personnes vous lisent.
La rédaction

Caractères restants:

J'ai lu et j'accepte la Charte des commentaires.

No connection to facebook possible. Please try again. There was a problem while transmitting your comment. Please try again.

Caricatures

Conférence sur le climat de Katowice
Plus...