Faire une pause pour éviter que la révolution ne tourne mal. Bonne idée pour la France en voie d’implosion. Mais c’est une meilleure idée encore pour une révolution d’une toute autre ampleur qui se joue au niveau de la planète, sous l’étendard de ChatGPT. Chose rarissime dans le monde de la technologie, ce sont ses propres gourous et experts qui aujourd’hui réclament une pause de six mois dans le développement des systèmes d’intelligence artificielle les plus performants. Mardi dernier, ils étaient mille à signer une lettre ouverte pour stopper le développement de système plus évolué que GPT 4 qui fait tourner ChatGPT, logiciel conversationnel développé par la société californienne Open AI. Parmi eux, des ingénieurs de Google et Microsoft qui travaillent sur des systèmes plus élaborés encore, Yoshua Bengio, le pape de l’I.A., des chercheurs du MIT ou encore l’historien et auteur de Sapiens Yuval Noah Harari. Sans oublier la star de l’opération: Elon Musk, cofondateur d’Open AI, patron de Tesla et Tweeter.
Leur constat est alarmant: L’IA présente «des risques profonds pour la société et l’humanité (...) les derniers mois ont vu les laboratoires d’IA s’engager dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable (...) Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, qui nous rendent obsolètes et nous remplacent? Devons-nous risquer de perdre le contrôle de notre civilisation? Les systèmes d’IA puissants ne doivent être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables.» Et de réclamer la mise en place de toute urgence d’un système de gouvernance international de l’IA.
On est en droit de douter des intentions d’Elon Musk, cow-boy de la high-tech. Mais comment ignorer l’avertissement de tous ces cerveaux réputés et cadres d’une industrie qui, par essence et historiquement, détestent qu’on les arrête ou limite dans leurs recherches. C’est au monde politique qu’il revient en principe de poser des limites éthiques et légales pour préserver la société d’inventions potentiellement toxiques. Aux Etats-Unis, le laisser faire domine. À Berne, la question se trouve encore dans les limbes. L’Union européenne est seule à avoir posé quelques premiers jalons avec un projet de loi établissant des limitations de l’usage de l’AI selon une gradation de risques qu’il présente. Prise de conscience remarquable qui n’a pas empêché le ministre français de la transition numérique de comparer ChatGPT à un «perroquet approximatif».
Certes, mais on sait que ces erreurs de jeunesse seront rapidement corrigées avec l’arrivée sur le marché à une vitesse supersonique de systèmes de plus en sophistiqués alimentés à des bases de données universelles rafraîchies en temps réel.
Les robots d’aujourd’hui sont encore entraînés, corrigés et programmés par des êtres humains. Mais déjà, la question se pose en termes inversés: quels changements de l’être humain et de son intelligence vont s’opérer par son interaction avec l’intelligence artificielle? Interrogation aussi vertigineuse que fondamentale. Lors d’un récent débat au Club suisse de la presse, Alexei Grinbaum, physicien et philosophe, membre de la commission nationale d’éthique en France posait un impératif éthique à l’homme en 2050: «il devra se reconnaître dans la continuité de l’espèce humaine. Il ne doit pas y avoir de rupture avec une espèce nouvelle, in silico». Au risque sinon que l’homme ne se transforme en perroquet de la machine.
Vous avez trouvé une erreur?Merci de nous la signaler.
Chronique – Révolution: si même Musk veut une pause…