Plus de mille scientifiques, spécialistes et personnalités de la High-Tech, ont signé une lettre ouverte pour demander un moratoire d'au moins six mois sur le développement des intelligences artificielles avancées. Le temps nécessaire pour créer un cadre réglementaire et éthique pour contraindre ces IA. Un vœux pieux ?


au sommaire


    Mettre en pause le développement des intelligences artificielles (IA) avancées durant au moins six mois. Voici ce que demandent dans un courrier ouvert publié hier, près de 1 400 scientifiques, experts ou pontes du secteur de la High-Tech. Parmi eux, outre des pionniers de l'IA comme Yoshua Bengio, se trouve Elon MuskElon Musk, qui avait déjà exprimé son angoisse existentielle face aux IA via un tweet en début de semaine.

    Les signataires voudraient que le développement des IA les plus avancées soit arrêté pendant au moins six mois. Leur crainte est que l'absence de cadre réglementaire ou commun pour les gérer, ne vienne rendre totalement incontrôlables ces IA en voie de devenir « superintelligentes ». L'essor spectaculaire d'IA comme celle que OpenAI met à disposition du grand public avec son chatbot ChatGPTChatGPT marque effectivement le début d'une grande révolution pour le secteur de la High-Tech.

    Voir aussi

    ChatGPT est-il une « révolution anthropologique » ?

    Elle est vue de façon positive par certains, comme Bill Gates, quand d'autres acteurs comme Musk et même GoogleGoogle s'en inquiètent. Alors qu'il planche depuis longtemps sur de nombreuses IA, par crainte de louper cette révolution, le géant d'Internet a dû publier précipitamment son propre chatbot alors qu'il n'était pas prêt et qu'il restait pour le moment expérimental.

    Elon Musk qui exprimait dernièrement son angoisse face au développement des IA, fait partie des nombreux signataires. Une démarche douteuse lorsque l'on sait que le patron de Tesla fut l’un des membres fondateurs d’OpenAI. Il a également tout fait pour atténuer la responsabilité de ses systèmes de conduite autonome animés par des IA dans des accidents de la circulation causés par des Tesla.© Twitter

    Une pause de six mois irréaliste ?

    Il faut dire que l'engouement pour ces intelligences artificielles génératives est tel que de nombreux laboratoires ont décuplé leurs efforts pour développer des IA toujours plus puissantes. Avec elles, les signataires soulèvent de nombreux problèmes d'éthique qui sont mis de côté par les développeurs. Il en est ainsi de la question des fausses informations et de la manipulation étant donné leur force rhétorique et leur capacité à créer des images réalistes.

    La crainte de la destruction massive d'emplois est également présente, comme le prouve une étude publiée par Goldman Sachs que Futura a évoqué hier. La peur d'une sorte de « grand remplacement » par des « esprits » non humains plus intelligents est aussi évoquée par les signataires. Parvenir à un moratoiremoratoire de six mois sur le développement des IA semble être une duréedurée irréaliste pour parvenir à établir un cadre réglementaire et éthique.

    Un arrêt et un cadre règlementaire que des pays comme la Chine pourraient de toute façon ignorer. Pourtant, il existe déjà une volonté de réglementer les IA. Ainsi, l'Union européenne a déjà proposé trois textes sur les IA et notamment sur la responsabilité de leurs éditeurs, notamment en matièrematière de protection de la vie privée. Mais, dans cette course contre la montre, les IA ont le temps de s'octroyer toujours plus de liberté avant que les lois ne viennent les contraindre. Du côté d'OpenAI, l'entreprise ajoute progressivement des freins aux débordements constatés par son IA et cherche à implanterimplanter des systèmes permettant d'identifier les contenus générés par son IA. Mais pour le moment, tout dépend de la bonne volonté de ces sociétés privées.