DeepMind, la filiale de Google spécialisée en intelligence artificielle, travaille sur les solutions qui permettraient d'empêcher une intelligence artificielle de devenir une menace pour les humains. L’une des pistes consiste à intégrer dans le programme une commande d’interruption qui inciterait une IA récalcitrante à éviter d’elle-même tout action dommageable.

au sommaire


    L'inquiétude de voir un jour des machines intelligentes prendre le dessus sur les humains n'est pas nouvelle. Elle a longtemps nourri aussi bien les récits d'anticipation que les films de science-fiction dans ce qui relevait plus du fantasme que d'une menace réelle, eu égard aux technologies existantes. Cependant, les grands progrès accomplis au cours des dernières années dans la recherche en intelligence artificielle (IA) et en robotique nous laissent entrevoir un futur proche qui va, du moins en partie, rejoindre cette fiction.

    En effet, pas une semaine ne passe sans que l'on entende parler de l'arrivée de robots suffisamment perfectionnés pour remplacer avantageusement des humains dans de nombreux métiers, d'IA capables par exemple de lire et comprendre ce que nous écrivons sur Facebook ou de devenir artiste. On se souvient également de la victoire retentissante d'AlphaGoAlphaGo, l'intelligence artificielle qui a sévèrement battu le champion de jeu de go Lee Sedol. Le programme pourrait d'ailleurs prochainement affronter le numéro un mondial Ke Jie.

    Justement, les concepteurs de cette IA n'ont pas envie de la voir devenir si puissante qu'elle finisse par leur échapper. C'est pourquoi DeepMind, la filiale de GoogleGoogle qui a conçu AlphaGo, planche sur les solutions pour empêcher qu'un scénario à la Terminator ne se produise un jour. Pour cela, l'entreprise basée au Royaume-Uni s'est alliée au Future of Humanity Institute (FHI). Ce centre de recherche pluridisciplinaire de l'université d'Oxford réunit des scientifiques et des philosophes qui travaillent sur les grandes questions qui sous-tendent l'avenir de l'humanité.

    Image du site Futura Sciences

    Les grands progrès en matière d’intelligence artificielle et de robotique soulèvent de plus en plus de question sur les risques qui pourraient en découler pour l’humanité. Google a choisi de communiquer pour rassurer l’opinion. © A1Stock, Shutterstock 

    Un signal codé pour manipuler l’IA

    Dans un article commun intitulé Safely interruptible agents, DeepMind et le FHI évoquent une « gros bouton rouge » pour empêcher qu'une IA pilotant un robot ou un ordinateurordinateur n'échappe à tout contrôle. Une sorte de bouton d'arrêt d'urgence comme ceux qui équipent les machines industrielles. Sauf qu'en l'occurrence, il ne s'agirait pas simplement de désactiver le programme en coupant l'alimentation, car une IA devenue autonome saurait vraisemblablement déjouer un tel scénario.

    L'idée est en fait de manipuler la machine pour lui faire croire que la décision vient d'elle-même. Un signal codé qui ferait en sorte que l'intelligence artificielle détermine qu'elle doit arrêter ce qu'elle est en train de faire. Il s'agirait d'un moyen possible pour pouvoir reprendre la main sur un robot ou un ordinateur qui refuserait toute commande extérieure. Google rejoint en cela les préoccupations d'un grand nombre de spécialistes en IA, d'intellectuels et de figures de la high-tech qui s'inquiètent des dérives possibles.

    Le géant californien préfère anticiper et, surtout, rassurer l'opinion sur ses projets en la matièrematière. Difficile de dire si l'idée qu'il propose pourrait vraiment s'appliquer à une intelligence artificielle devenue omnisciente, puisqu'elle n'existe pas encore...