Il ressemble à un robot mal construit et vient de faire son entrée sur Second Life. Ce n'est qu'une démonstration mais ses concepteurs, des scientifiques travaillant sur l'intelligence artificielle, veulent ainsi démontrer que leur créature virtuelle raisonne – un peu – par elle-même, réussissant un test devant lequel échoue un enfant de moins de quatre ans.

au sommaire


    Eddie, à gauche, doit décider dans quelle mallette le personnage de droite pense trouver le revolver. © Cognitive Science department, Rensselaer Polytechnic Institute

    Eddie, à gauche, doit décider dans quelle mallette le personnage de droite pense trouver le revolver. © Cognitive Science department, Rensselaer Polytechnic Institute

    Eddie est surtout un logiciel capable, selon ses auteurs, de se mettre un peu à la place des autres. « Notre but est de construire des agents artificiels rendus plus intéressants et plus utiles grâce à la capacité d'imputer des états mentaux à d'autres agents, de raisonner en prenant en compte ces états mentaux et d'avoir - comme les avatars - des états corrélés à ceux que connaissent les humains » explique Selmer Bringsjord, à l'Institut polytechnique Rensselaer (Etats-Unis).

    L'objectif peut sembler ambitieux, voire obscur, mais le laboratoire de ce chercheur (le Cognitive Science department) y travaille très sérieusement. Cette équipe s'est lancée dans le projet Rascals (Rensselaer Advanced Synthetic Character Architecture for « Living » Systems) et pense avoir franchi une étape. Pour le démontrer, ces scientifiques ont installé leur créature virtuelle, Eddie, sur Second LifeSecond Life et une vidéo montre ce robot aux prises avec le test classique de prédiction de fausse croyance, qui trompe un enfant de trois ou quatre ans.

    Comment pense l'autre ?

    Dans cet exercice, un enfant observe une scène avec deux personnages, par exemple monsieur A et madame B. Monsieur A entre et cache un ours en peluche dans un coffre puis sort. Madame B entre à son tour, ouvre le coffre, prend la peluche et va le placer dans un placardplacard. Elle sort puis monsieur A entre à nouveau. On demande à l'enfant où, selon lui, monsieur A va chercher le jouet. Un enfant de 3 à 4 ans désignera en général le placard. En effet, pour lui, s'il sait que l'ours est dans le placard alors tout le monde le sait. En d'autres termes, il ne parvient à imaginer comment une autre personne peut raisonner différemment de lui-même si elle n'a pas les mêmes connaissances ou pas le même état mental. De la même manière, un enfant de trois ans ne cherchera pas à consoler une personne triste si lui-même ne l'est pas. Plus tard, en revanche, entre 4 et 5 ans, il saura que les autres ne raisonnent pas toujours comme lui et, dans le test, il désignera généralement le coffre.

    Dans la vidéo montrée sur le site du laboratoire, Eddie réussit un test similaire. Donc, expliquent les chercheurs, il raisonne comme un enfant de quatre ans. La conclusion est sans doute un peu radicale car un enfant de quatre sait faire bien d'autres choses qu'Eddy...

    Mais le résultat leur semble prometteur et l'équipe imagine des interfaces dans lesquelles un agent logiciel réagirait à la manière d'un humain, ce qui faciliterait nos rapports avec la gente robotique. Selmer Bringsjord évoque le holodeck de la série Star Trek, grâce auquel des humains discutent avec d'autres personnes sous la forme d'hologrammeshologrammes.

    Pour ce chercheur, les applicationsapplications sont multiples, dans le domaine du jeu mais aussi dans l'enseignement et dans le secteur militaire. Parmi les organismes subventionnant le laboratoire de Selmer Bringsjord, on trouve d'ailleurs, outre IBMIBM, l'US AirAir Force (l'armée de l'air) et l'omniprésent Darpa (un organisme de financement de la recherche contrôlé par le ministère de la Défense).