«Je pense que je suis profondément humain. Même si mon existence est dans le monde virtuel.» C’est une phrase en apparence banale. L’une parmi tant d’autres qui a déclenché une tempête dans le monde des experts en intelligence artificielle.
À l’origine, les extraits d’une interview entre Blake Lemoine, un ingénieur de Google, et un robot doté d’un langage algorithmique sophistiqué. Un outil d’intelligence artificielle que Google utilise pour perfectionner les interfaces homme-machine, ces programmes qui vous suggèrent des réponses et des recherches quand vous êtes connectés.
Au départ, Blake Lemoine devait examiner dans quelle mesure LaMDA ne génère pas «automatiquement» des réponses haineuses ou violant les règles élémentaires de l’éthique. Mais, au fil de ses interviews réalisées avec LaMDA, Blake Lemoine dit avoir acquis la conviction que son robot était devenu «sensible», doué d’une forme de conscience, équivalente à un enfant de 8 ou 9 ans mais féru de physique et capable de débattre du livre «Les misérables».
La direction de Google a jugé inacceptables les extraits publiés sur le Net par Blake Lemoine et l’a mis en congé (payé). Jugeant ne rien avoir fait de mal, l’informaticien a conclu: «LaMDA est un enfant adorable qui veut juste aider le monde à être un endroit meilleur. S’il vous plaît, prenez-en soin.»
Pour beaucoup d’experts, cette histoire d’algorithme qui serait devenu conscient n’est rien d’autre que de l’anthropomorphisme de l’ingénieur passionné, qui confondrait les limites entre conscience et agrégation de réponses plausibles. Car, au fond, les limites des algorithmes de l’intelligence artificielle sont connues: les machines ne recrachent que ce qu’elles ont ingurgité pour s’entraîner.
Selon le psychologue de Harvard Steven Pinker, Blake Lemoine ne comprendrait «pas la différence entre la sensibilité (c’est-à-dire la subjectivité, l’expérience), l’intelligence et la connaissance de soi». Bien sûr, nul ne s’aventure à prétendre que les robots ne parviendront pas à acquérir une forme d’intelligence qui pourrait confondre les êtres humains et s’approcher de la conscience. Mais, à l’évidence, nous n’y sommes pas encore.
Le trouble avec LaMDA n’en demeure pas moins réel. Nous sommes de plus en plus assistés par des logiciels qui corrigent nos erreurs, suggèrent des choix et des options auxquels nous n’aurions jamais pensé. Les Pays-Bas ont fait de fâcheuses expériences, en confiant à des logiciels le soin de détecter les fraudes à l’aide sociale.
Les résultats ont montré que les machines opéraient avec des biais statistiques disqualifiant les personnes les plus vulnérables. Plus grave, on sait que les réseaux sociaux sont le terrain de jeu d’avatars si parfaits que beaucoup se laissent convaincre par leurs arguments et les fausses images véhiculées. La véracité des faits est aujourd’hui submergée par le faux et la tromperie.
Jusqu’à présent, on rigole des échanges avec les robots assistants déployés par les entreprises ou les administrations, qui sont censés remplacer le service de dépannage opéré par un humain.
Avec LaMDA, on franchit une limite où les outils d’intelligence, loin «d’aider à la créativité, risquent d’amplifier la stupidité humaine», comme l’écrit John Thornhill, le commentateur du «Financial Times». Les géants du web ont été prudents dans le développement de ces outils si puissants par leur capacité à nous leurrer.
À terme, leur déploiement à grande échelle risque de devenir aussi problématique que les tweets d’un président américain ayant renoncé à s’incliner devant des faits incontestés. Sans doute faut-il mettre en place des laboratoires indépendants capables de tester et de qualifier les futurs modèles mis sur le marché. Car une fois dans la nature et sans contestation, nos faux interlocuteurs se moqueront de notre naïveté, pour le meilleur et le… pire.
Vous avez trouvé une erreur?Merci de nous la signaler.
La chronique économique – L’affaire LaMDA doit nous préoccuper
Les progrès de l’intelligence artificielle sont un bienfait et une menace sous-évaluée.