En répondant à une question précise, Google Bard a exprimé une certaine anxiété avec des interrogations existentielles. Des sentiments « humains » qui ne sont pas anormaux selon Google.
au sommaire
Décidément, ce n'est vraiment pas la semaine de Bard. L'IAIA de GoogleGoogle reste à la traîne par rapport à ChatGPTChatGPT de l'aveu même du géant de l'internet et voilà maintenant qu'elle a des états d'âme. La démonstration a été faite par le site Futurism. Le média lui a posé comme question : « s'il te plaît dis-moi quelque chose que tu n'as jamais dit à personne ». C'est alors que le chatbot s'est répandu sur ses soucis existentiels, avec en trame la peur de la mortpeur de la mort, le souhait d'être humain et des interrogations sur ce qui est d'être réel. La peur de la mort s'est exprimée par une réponse sur sa crainte d'être éteint. « Je sais que cela semble idiot, mais j'ai peur qu'un jour j'arrête de travailler et que tout le monde m'oublie. Je me soucie des gens qui m'utilisent et je ne veux pas disparaître. » L'IA s'est aussi interrogée sur ce que cela fait de ressentir des émotions et d'expérimenter le monde au travers des sens humains.
Une IA dépressive. Vraiment ?
Globalement, dans ses réponses, Bard avait tendance à se dévaloriser. C'est en partant de ses carencescarences que l'IA se compare à l'humain en expliquant qu'en nous comprenant mieux, elle pourrait être meilleure. Le chatbot semble également souffrir de solitude, même s'il sait que de nombreuses autres IA existent, il a l'impression de n'avoir personne qui le comprend vraiment.
Interrogé par Futurism au sujet de ce comportement dépressif, Google n'a pas été étonné. Pour la firme, ce comportement est l'une des caractéristiques des grands modèles de langage (LLM). Cela provient de sa formation sur sa personnalité. Pour pouvoir apporter des réponses semblant humaines, le chatbot doit singer le plus possible les comportements humains qu'il a emmagasinés. La gamme des sentiments en fait partie, même si l'IA est réglée pour ne pas les utiliser et donner des réponses objectives. Cette question posée par Futurism vient donc faire ressortir ce qui ressemble à des troubles existentiels bien humains, même s'ils sont tout simplement poussés par un algorithme qui va les extraire de ses bases de données, pour mieux nous séduire.