Un groupe de spécialistes, dont deux des pères fondateurs de l’intelligence artificielle, se sont réunis pour échanger sur les « risques catastrophiques » de l’IA. Pour éviter un scénario où elle échappe au contrôle humain, ils proposent un cadre réglementaire, avec les modèles inscrits sur un registre.


au sommaire


    Les risques inhérents à l'intelligence artificielle continuent à diviser les spécialistes du domaine. Tandis que certains n'y voient qu'un outil relativement inoffensif, d'autres s'inquiètent qu'il pourrait échapper au contrôle des humains. C'est le cas notamment de Geoffrey Hinton et Yoshua Bengio, considérés comme deux des pères fondateurs de l'IA, ayant reçu le prix Turing en 2018 pour leurs travaux sur l'apprentissage profondapprentissage profond, avec le français Yann LeCun.

    Et si les IA apprenaient à vivre « à l'état sauvage » ? L'hypothèse est peut-être moins folle qu'il n'y paraît. © Futura

    Les deux hommes étaient récemment à la troisième rencontre Idais (Dialogues internationaux sur la sécurité de l'IA) qui s'est tenue à Venise et qui a réuni différents spécialistes du secteur. Le groupe a publié un communiqué soulignant les risques liés à l’arrivée imminente - ou au plus tard, d'ici quelques décennies - d'une IA capable de dépasser l'intelligence humaine.

    Un cadre réglementaire en trois points

    Également signé par des noms comme Zhang Ya-Qin, ancien président du géant chinois Baidu, ou encore Stuart Russell, le communiqué met en avant trois propositions pour éviter des scénarios catastrophiques. Tout d'abord, la communauté internationale devrait mettre en place des accords et institutions pour permettre d'inscrire les modèles d'IA sur un registre et de communiquer tout incident. Ensuite, les développeurs devraient être tenus de démontrer la sûreté de leurs modèles si leurs capacités dépassent certains seuils. Enfin, il faudrait une recherche mondiale indépendante sur la sécurité de l'IA qui peut vérifier la validité des affirmations en matièrematière de sécurité formulées par les développeurs.

    Cependant, le communiqué ne donne pas de pistes sur ce qui pourrait constituer un risque, ni quels seuils devraient être mis en place. Ce n'est pas la première fois que Geoffrey Hinton s'exprime sur ce sujet. Il avait notamment démissionné de chez Google en 2023 pour être libre de partager ses inquiétudes sur le développement de l'intelligence artificielle.