Époustouflantes, les IA s’insèrent de plus en plus dans nos vies. Pourtant, ces créations humaines sont parvenues à générer une part de mystère d’elles-mêmes au point que leurs créateurs ne comprennent pas comment elles fonctionnent vraiment. Explications.


au sommaire


    En 2022, une des plus grandes révolutions du numérique a eu lieu avec l'explosion des intelligences artificielles et leur accès généralisé au grand public. Le chatbot ChatGPT a été le ferfer de lance de cette démocratisation et les outils d'IA génératives autour de l'image, de la musique et des vidéos ont suivi le pas. L'IA sait tout faire et accélère la science en parvenant à créer, par exemple, des matériaux inédits en quelques heures ou des médicaments. Elle est désormais partout et s'invite dans les smartphones et même dans les voitures et les aéronefsaéronefs.

    Ce que l'on sait, c'est que l'IA nécessite des quantités phénoménales d'eau pour fonctionner. À tel point qu'elle pourrait précipiter la prochaine grande pénurie... Décryptage dans Vitamine Tech. © Futura

    Mais il y a un hic... le MIT (Massachusetts Institute of Technology) rapporte que de l'aveu même des créateurs de ces IA, personne ne comprend vraiment comment elles fonctionnent en profondeur. Paradoxalement, des scientifiques font même des recherches poussées pour parvenir à le savoir. C'est un peu comme si l'on cherchait à comprendre le comportement d'une créature que l'on a généré. C'est ainsi qu'il y a deux ans, deux chercheurs d'OpenAI ont mené une expérience pour savoir combien d'exemples d'additions de deux nombres il fallait montrer à un modèle pour qu'il apprenne de lui-même à trouver un résultat. Le modèle est parvenu à mémoriser les sommes qu'il connaissait déjà, mais pas à en résoudre des nouvelles. Puis à force d'ingurgiter des exemples, d'un seul coup, le modèle a compris comment réaliser les calculs. Comme ce n'était pas de cette façon que l'apprentissage profondapprentissage profond était censé fonctionner, les chercheurs ont voulu savoir pourquoi l'IA parvenait subitement à un résultat alors que ce n'était pas le cas auparavant. Ils ont baptisé ce comportement « grokking ». Ce phénomène incite désormais les chercheurs à travailler à rebours à partir des résultats pour comprendre comment l'IA les a générés, mais ce n'est pas pour autant qu'ils y parviennent.

    Pour le MIT, de nombreux modèles d'IA sont en réalité des boîtes noires, comme cette vidéo l'explique. Si un algorithme peut produire un résultat utile, les chercheurs ne savent pas vraiment comment il y est parvenu. © Jordan Harrod  

    Comment contrôler ce que l'on ne comprend pas ?

    Par exemple, pendant des décennies, on a cru que le taux d'erreur diminuait puis augmentait à mesure que les modèles d'IA grossissaient. Mais il y a six ans, des chercheurs de l'université de Californie à San Diego ont découvert que lorsque certains modèles grossissaient, leur taux d'erreur diminuait, puis augmentait, puis redescendait. C'est ce phénomène que les scientifiques ne parviennent pas vraiment à expliquer. Ils suggèrent que les IA parviennent à créer un modèle mathématique caché qui leur permet de s'améliorer.

    Cette incompréhension ne freine pas pour autant le développement de l'industrie de l'IA et de sa lucrative manne financière. À mesure qu'elle s'intègre dans nos vies, les développeurs qui la mettent au point préfèrent se contenter de constater que l'IA donne des résultats spectaculaires, sans chercher à savoir comment elle y parvient. Le problème reste que cette incompréhension du fonctionnement profond des IA questionne sur leur absence de contrôle réel.