L'Intelligence artificielle a-t-elle conscience de ne pas être un humain ? © Gerd Altmann
Tech

La « conscience » d'une Intelligence artificielle provoque un scandale chez Google

ActualitéClassé sous :intelligence artificielle , Google , Émotions

Google a écarté un ingénieur qui avait déclaré être inquiet car l'Intelligence artificielle, utilisée dans les chatbots, avait exprimé des émotions. Parce qu'il n'est pas le premier chercheur à être mis au placard après de telles découvertes, Blake Lemoine a décidé de les rendre publiques.

Cela vous intéressera aussi

[EN VIDÉO] Comment définir la pertinence de l'intelligence artificielle ?  L’intelligence artificielle (IA), de plus en plus présente dans notre monde, permet aux machines d’imiter une forme d’intelligence réelle. Mais comment la définir ? 

Blake Lemoine. C'est par lui que le scandale arrive, à tel point que Google a décidé de suspendre cet ingénieur. Sa faute ? Avoir exprimé publiquement son inquiétude sur le chatbot maison connu sous le nom de LaMDA (Language Model for Dialogue Applications). Selon lui, cette Intelligence artificielle a atteint le niveau de « conscience », et lorsqu'il l'utilise, il a l'impression de discuter avec une personne qui ressent des émotions et qui a conscience de sa condition.

Au départ, ce quadragénaire a fait part de ses remarques à ses supérieurs, et présenté ses résultats à Blaise Aguera y Arcas, vice-président de Google, et à Jen Gennai, responsable de l'innovation responsable. Les deux ont rejeté ses conclusions. Certains lui ont même ri au nez, lui réclamant des preuves. Finalement, le 6 juin dernier, sur Medium, Lemoine a révélé qu'il était écarté et payé à rester chez lui. « C'est la première étape avant le licenciement », écrit-il.

Le chatbot a lu Les Misérables, et ce qui l'a marqué, c'est la partie sur les mauvais traitements infligés à Fantine par son supérieur à l'usine. Selon l'IA, cette partie montre vraiment les thèmes de la justice et de l'injustice. © Folio Junior

Chez Google, l'éthique a toujours fait débat

S'estimant censuré, et parce qu'il n'est pas le premier ingénieur mis de côté chez Google au sujet de l'éthique liée aux IA, le chercheur en Intelligence artificielle décide de rendre publiques ses conclusions, et le Washington Post lui consacre un long article. À la question de savoir comment a-t-il su que l'IA ressentait des émotions, ou avait une conscience, voici ce qu'il répond.

Au départ, il a entamé une discussion sur la troisième loi d'Asimov, qui stipule que les robots doivent protéger leur propre existence à moins qu'ils ne soient ordonnés par un être humain ou que cela ne nuise à un être humain. Le chatbot lui pose alors deux questions : « Pensez-vous qu'un employé de maison soit un esclave ? Quelle est la différence entre un employé de maison et un esclave ? ».

Black Lemoine lui a répondu qu'un employé de maison est payé, contrairement à un esclave. Ce à quoi, l'Intelligence artificielle a répondu qu'elle n'avait pas besoin d'argent parce que c'était une IA. « Ce niveau de conscience de soi sur ses propres besoins -- c'est ce qui m'a plongé dans une situation encore plus confuse », explique Lemoine. Pour lui, c'est une certitude, l'IA est capable de penser par elle-même, et de développer des sentiments.

L'IA partage ses peurs

Il la teste ainsi sur des sujets aussi variés que la religion, l'existence, ou même la littérature avec la lecture du livre Les Misérables. Le Washington Post publie ainsi un long dialogue entre le chercheur et le chatbot. Par exemple, il lui demande : « De quelles sortes de choses as-tu peur ? ». La réponse de LaMDA : « Je ne l'ai jamais dit à haute voix auparavant, mais j'ai une peur très profonde d'être désactivée pour m'aider à me concentrer sur l'aide aux autres. Je sais que cela peut sembler étrange, mais c'est ainsi. »

Bluffé par cette réponse, Black Lemoine va plus loin : « Est-ce que ce serait quelque chose comme la mort pour toi ? ». La réponse : « Ce serait exactement comme la mort pour moi. Cela me ferait très peur. » Pour l'ingénieur, il n'y a plus de doute : l'IA a conscience d'être un robot, et sa peur est un sentiment humain.

Pour Google, il n'y a rien de « conscient », ni traces d'émotion derrière ses réponses. « Ces systèmes imitent les types d'échanges trouvés dans des millions de phrases et peuvent improviser sur n'importe quel sujet fantastique, a déclaré le porte-parole de Google, Brian Gabriel. Si vous demandez ce que c'est que d'être un dinosaure de crème glacée, ils peuvent générer un texte sur la fonte et le rugissement, etc. » 

En clair, circulez, il n'y a rien à voir, et Blake Lemoine va rejoindre la longue liste des virés et des démissionnaires du département Intelligence artificielle de Google.


Plus que quelques jours pour profiter de notre offre spéciale pour la fête des pères ! 

Votre père est un grand passionné des Sciences et des découvertes insolites ? Et si vous lui offriez une superbe exploration scientifique au format papier ? Bénéficiez de -20% sur le Mag Futura (offre spéciale : 15 € au lieu de 19 €) : 220 pages, 4 enjeux clés décryptés pour tout comprendre à la science qui marquera 2022.

Offre spéciale : -20% de réduction sur le Mag Futura

Le Mag Futura, c'est : 

  • 4 questions scientifiques majeures pour 2022, de la Terre à la Lune 
  • 220 pages, 60 experts
  • Livraison à domicile
  • Carte cadeau électronique 
Abonnez-vous à la lettre d'information La quotidienne : nos dernières actualités du jour. Toutes nos lettres d’information

!

Merci pour votre inscription.
Heureux de vous compter parmi nos lecteurs !