Qu'ils marchent, comme ce WildCat de la firme Boston Dynamics, qu'ils roulent ou qu'ils volent, les robots militaires gagnent d'année en année en autonomie. Ce qui leur donnera sous peu le permis de tuer. © Boston Dynamics

Tech

Robots tueurs : Hawking, Musk et Tegmark contre Terminator

ActualitéClassé sous :robotique , ia , AI

De plus en plus de voix s'élèvent pour mettre en garde contre les dangers de l'intelligence artificielle. Les dernières en date ne sont rien de moins que celles d'Elon Musk, Stephen Hawking et Steve Wozniak qui, avec l'aide de l'institut Future of Life, fondé par Max Tegmark, appellent à une interdiction des robots militaires autonomes. Plus de 2.000 experts en IA se joignent à eux avec une lettre ouverte.

Il y a un an, à l'occasion de l'interview qu'il avait accordée à Futura-Sciences, le cosmologiste Max Tegmark nous avait fait part de ses préoccupations pour l'avenir de l'humanité. Cela l'avait conduit à fonder le FLI (Future of Life Institute), destiné à regrouper un groupe d'experts et de personnalités reconnues partageant ses inquiétudes et déterminées à entreprendre des actions pour garantir la survie de l'espèce humaine au cours de ce début de XXIe siècle.

Dès sa fondation, le FLI comptait des membres aussi prestigieux que Stephen Hawking, les prix Nobel de physique Frank Wilczek et Saul Perlmutter mais aussi des sommités dans le domaine de la biologie et de l'intelligence artificielle, comme Stuart Russell et George Church. Ils ont rapidement été rejoints par le fondateur de SpaceX et Tesla Motors, Elon Musk.

Musk a récemment fait état de ses craintes face au développement de l'intelligence artificielle. Si certains, comme Ray Kurzweil, y voient le moyen d'établir le paradis sur Terre grâce à la singularité technologique, Musk s'inquiète que ce soit un acte d'« hubris », quand l'Homme se prend pour un dieu, qui va déboucher sur l'équivalent d'une invocation au démon, entraînant finalement l'humanité dans sa perte. C'est pourquoi Elon Musk a fait don de 10 millions de dollars au FLI qui va utiliser cet argent pour financer plusieurs groupes de recherches de par le monde. Leur tâche sera de réfléchir sur les dangers posés par le développement inévitable et souhaitable de l'IA, et bien évidemment de fournir des solutions pour les prévenir.

Fondateur du FLI, Max Tegmark interroge Elon Musk pour connaître les raisons qui le poussent à se préoccuper des dangers de l'IA. Pour obtenir une traduction en français assez fidèle, cliquez sur le rectangle avec deux barres horizontales en bas à droite. Les sous-titres en anglais devraient alors apparaître, si ce n'est pas déjà le cas. En cliquant ensuite sur l'écrou à droite du rectangle, vous devriez voir l'expression « Traduire les sous-titres ». Cliquez pour faire apparaître le menu du choix de la langue, choisissez « français », puis cliquez sur « OK » © Max Tegmark , YouTube

2.000 experts en IA contre les robots militaires tueurs

Déjà, en 2014, à l'occasion de la sortie du film Transcendence, Stephen Hawking, Max Tegmark, Stuart Russell et Frank Wilczek avaient joint leurs voix dans un texte publié dans la presse mettant en garde les décideurs politiques contre les dangers de l'IA. Aujourd'hui, en leur compagnie, le FLI va plus loin en publiant une lettre ouverte signée par plus de 2.000 experts dans le domaine de l'informatique et de l'intelligence artificielle. Elle porte aussi la signature de plus de 10.000 personnalités du monde scientifique et technologique, comme Elon Musk et Stephen Hawking bien sûr, mais aussi Steve Wozniak, le cofondateur d'Apple, ainsi que Jaan Tallinn, celui de Skype.

Quel est le contenu de cette lettre ? Tout simplement un appel à une interdiction des robots militaires tueurs autonomes tels que ceux de la série Terminator, que ce soit sous forme humanoïdes, de drones ou d'engins marcheurs. Pour les experts à l'origine de cette lettre, la technologie qui ouvrirait à ces robots la porte des champs de bataille sera prête dans quelques années seulement. Contrairement à celle des armes nucléaires, elle est peu coûteuse et facilement accessible. De sorte que des dictateurs ou des groupes terroristes pourront facilement en disposer pour contrôler ou exterminer des populations et commanditer des assassinats. Une nouvelle course aux armements basés sur l'IA ne doit donc pas être entreprise par l'humanité, affirment les signataires de cet appel.

Abonnez-vous à la lettre d'information La quotidienne : nos dernières actualités du jour.

!

Merci pour votre inscription.
Heureux de vous compter parmi nos lecteurs !

Cela vous intéressera aussi