Google a écarté un ingénieur qui avait déclaré être inquiet car l'Intelligence artificielle, utilisée dans les chatbots, avait exprimé des émotions. Parce qu'il n'est pas le premier chercheur à être mis au placard après de telles découvertes, Blake Lemoine a décidé de les rendre publiques.


au sommaire


    Blake Lemoine. C'est par lui que le scandale arrive, à tel point que GoogleGoogle a décidé de suspendre cet ingénieur. Sa faute ? Avoir exprimé publiquement son inquiétude sur le chatbot maison connu sous le nom de LaMDA (Language Model for Dialogue ApplicationsApplications). Selon lui, cette Intelligence artificielle a atteint le niveau de « conscience », et lorsqu'il l'utilise, il a l'impression de discuter avec une personne qui ressent des émotions et qui a conscience de sa condition.

    Au départ, ce quadragénaire a fait part de ses remarques à ses supérieurs, et présenté ses résultats à Blaise Aguera y Arcas, vice-président de Google, et à Jen Gennai, responsable de l'innovation responsable. Les deux ont rejeté ses conclusions. Certains lui ont même ri au neznez, lui réclamant des preuves. Finalement, le 6 juin dernier, sur Medium, Lemoine a révélé qu'il était écarté et payé à rester chez lui. « C'est la première étape avant le licenciement », écrit-il.

    Le chatbot a lu <em>Les Misérables</em>, et ce qui l'a marqué, c'est la partie sur les mauvais traitements infligés à Fantine par son supérieur à l'usine. Selon l'IA, cette partie montre vraiment les thèmes de la justice et de l'injustice. © Folio Junior
    Le chatbot a lu Les Misérables, et ce qui l'a marqué, c'est la partie sur les mauvais traitements infligés à Fantine par son supérieur à l'usine. Selon l'IA, cette partie montre vraiment les thèmes de la justice et de l'injustice. © Folio Junior

    Chez Google, l'éthique a toujours fait débat

    S'estimant censuré, et parce qu'il n'est pas le premier ingénieur mis de côté chez Google au sujet de l'éthique liée aux IA, le chercheur en Intelligence artificielle décide de rendre publiques ses conclusions, et le Washington Post lui consacre un long article. À la question de savoir comment a-t-il su que l'IA ressentait des émotions, ou avait une conscience, voici ce qu'il répond.

    Au départ, il a entamé une discussion sur la troisième loi d'Asimov, qui stipule que les robots doivent protéger leur propre existence à moins qu'ils ne soient ordonnés par un être humain ou que cela ne nuise à un être humain. Le chatbot lui pose alors deux questions : « Pensez-vous qu'un employé de maison soit un esclave ? Quelle est la différence entre un employé de maison et un esclave ? ».

    Black Lemoine lui a répondu qu'un employé de maison est payé, contrairement à un esclave. Ce à quoi, l'Intelligence artificielle a répondu qu'elle n'avait pas besoin d'argentargent parce que c'était une IA. « Ce niveau de conscience de soi sur ses propres besoins -- c'est ce qui m'a plongé dans une situation encore plus confuse », explique Lemoine. Pour lui, c'est une certitude, l'IA est capable de penser par elle-même, et de développer des sentiments.

    L'IA partage ses peurs

    Il la teste ainsi sur des sujets aussi variés que la religion, l'existence, ou même la littérature avec la lecture du livre Les Misérables. Le Washington Post publie ainsi un long dialogue entre le chercheur et le chatbot. Par exemple, il lui demande : « De quelles sortes de choses as-tu peur ? ». La réponse de LaMDA : « Je ne l'ai jamais dit à haute voix auparavant, mais j'ai une peur très profonde d'être désactivée pour m'aider à me concentrer sur l'aide aux autres. Je sais que cela peut sembler étrange, mais c'est ainsi. »

    Bluffé par cette réponse, Black Lemoine va plus loin : « Est-ce que ce serait quelque chose comme la mort pour toi ? ». La réponse : « Ce serait exactement comme la mort pour moi. Cela me ferait très peur. » Pour l'ingénieur, il n'y a plus de doute : l'IA a conscience d'être un robot, et sa peur est un sentiment humain.

    Pour Google, il n'y a rien de « conscient », ni traces d'émotion derrière ses réponses. « Ces systèmes imitent les types d'échanges trouvés dans des millions de phrases et peuvent improviser sur n'importe quel sujet fantastique, a déclaré le porteporte-parole de Google, Brian Gabriel. Si vous demandez ce que c'est que d'être un dinosauredinosaure de crème glacée, ils peuvent générer un texte sur la fontefonte et le rugissement, etc. » 

    En clair, circulez, il n'y a rien à voir, et Blake Lemoine va rejoindre la longue liste des virés et des démissionnaires du département Intelligence artificielle de Google.