Des scientifiques ont réalisé des calculs démontrant qu’une IA super-intelligente pourrait échapper totalement au contrôle de l’humain. Inquiétant.


au sommaire


    Le développement des IA (Intelligence Artificielle) fait peur et les plus grands experts et même les parrains des IA s’inquiètent de l'absence de véritable réglementation pour pouvoir les contraindre. Or, selon une étude de prédiction réalisée dès 2021, les scientifiques confirmaient déjà les craintes de leur montée en puissance. Même si elle date d'avant l’arrivée de ChatGPT et de la révolution actuelle des IA générative, son enseignement reste d'autant plus d'actualité. Selon leurs calculs de probabilités, une IA super-intelligente pourrait ne plus être contrôlée par les humains. Ils expliquent que pour garder ce contrôle, il faudrait pouvoir créer une simulation de celle-ci et pouvoir l'analyser. Or, selon eux, nous en serions totalement incapables puisque son développement irait bien au-delà de notre compréhension. Toujours d'après ces chercheurs, même une règle simple, comme « ne pas nuire aux humains », pourrait ne plus être respectée par une IA super-intelligente.

    Alan Turing dépoussiéré par les IA

    Cette théorie, c'est un peu l'expérience simulée que décrivait un officier de l'armée américaine, alors que l'IA qui pilotait un drone a décidé d’éliminer son propre opérateur qui le mettait en conflit avec l'objectif de sa mission. Ainsi, une super-intelligence artificielle serait capable de mobiliser de très nombreuses et diverses ressources pour atteindre des objectifs que les humains ne seraient même plus capables de comprendre. En réalité, cette perte de contrôle provient d'un phénomène connu. Il repose sur les travaux d'Alan Turing de 1936. Le savant avait théorisé ce que l'on appelle le « problème de l'arrêt ». Il s'agit de savoir si l'on peut prédire avec certitude si un programme informatique donné finira par s'arrêter ou s'il va continuer de mouliner indéfiniment. Or, ce n'est pas le cas et ce phénomène démontre que certaines questions mathématiques peuvent être insolubles.

    Dans ce cas, une IA risque de déraper et prendre des décisions qui la rendraient totalement incontrôlable. Pour parvenir à la stopper, il faudrait pouvoir la brider en la coupant de certaines bases de donnéesbases de données connectées ou bien de certains réseaux. Cela aurait pour effet radical de réduire son « intelligence ». Au final, mieux vaut que les IA soient intelligentes... mais pas beaucoup plus que nous.