Un minicerveau artificiel aussi rapide que le cerveau humain. © Peshkova, Fotolia

Tech

Intelligence artificielle : un superordinateur simule un réseau de 77.000 neurones en temps réel

ActualitéClassé sous :intelligence artificielle , puce neuromorphique , neurone artificiel

Des chercheurs ont réussi à fabriquer un réseau neuronal artificiel représentant 1 mm2 de cortex cérébral et capable de traiter l'information à la même vitesse que la biologie, grâce à une nouvelle architecture. Une performance qui illustre les formidables progrès accomplis ces dernières années par l'intelligence artificielle pour mimer le cerveau humain.

Reproduire le fonctionnement biologique du cerveau humain, c'est le rêve de tous les chercheurs en intelligence artificielle. Une équipe de l'université de Manchester affirme avoir réussi à mimer le fonctionnement d'une petite partie du cortex moteur primaire, soit 77.000 neurones ou 300 millions de synapses. « C'est la première fois que l'on parvient à répliquer en temps réel le cerveau humain avec une vitesse équivalente à celle de la biologie », se félicite Oliver Rhodes, l'auteur de l'étude publiée sur le site arXiv. L'exploit a été réalisé grâce au SpiNNaker de l'université de Manchester, un superordinateur équipé de 57.000 puces neuromorphiques, soit un million de cœurs. Oliver Rhodes et ses collègues sont parvenus à faire tourner leur modèle durant 12 heures avec une vitesse constante.

Un partage des tâches entre les neurones

Dans ce modèle représentant 1 mm2 de cortex, les neurones artificiels sont disposés en couches et reliés entre eux par de multiples connections. Chaque noyau neuronal reçoit des impulsions électriques soit directement issues des neurones auxquels il est directement relié, soit des signaux retardés issus d'autres synapses. Quand l'accumulation des signaux dépasse un certain seuil, cela débloque une réponse sous forme d'impulsion électrique. « Le principal problème avec les simulations cérébrales, ce sont les pics d'activité que doit gérer un noyau neuronal pour décider quels neurones doivent être stimulés en retour », explique Oliver Rhodes. Cette surcharge entraîne une augmentation du délai de traitement et une perte d'efficacité. Pour contourner cette difficulté, les chercheurs ont développé une stratégie appelée « parallélisation hétérogène », où les neurones travaillent simultanément de façon coopérative : certains sont responsables de la mise à jour de l'état neuronal, d'autres gèrent les signaux directs et d'autres les « paquets » de signaux retardés. Non seulement cela réduit la charge attribuée à chaque noyau, mais les paquets de signaux sont désormais dirigés vers chaque noyau en fonction de leur type (inhibiteur ou excitateur). « Les noyaux synaptiques inhibiteurs traitent donc uniquement les pics signalés comme inhibiteurs », et non pas l'ensemble des signaux, détaille Oliver Rhodes.

Le modèle neuromorphique représentant le cortex cérébral sensoriel. À gauche, la structure en couches des neurones inhibiteurs (rouge) et excitateurs (violet). Chaque neurone reçoit des stimulations électriques (figure au milieu) venant des autres neurones. Lorsqu’un certain potentiel est dépassé, le neurone émet une impulsion électrique. © Oliver Rhodes et al, arXiv, 2019

Quand les réseaux de neurones artificiels atteignent leurs limites

Si les puces neuromorphiques intéressent autant les chercheurs, c'est que les réseaux de neurones artificiels en silicium sont un véritable gouffre énergétique quand il s'agit d'effectuer des millions de calculs en parallèle. « Les ordinateurs traditionnels sur lesquels on les fait tourner sont fondés sur une architecture datant des années 1950, qui sépare la mémoire et le centre de calcul en deux blocs bien distincts », explique Damien Querlioz, chercheur au Centre de nanosciences et de nanotechnologies au CNRS. Du coup, « chaque neurone doit aller chercher des données stockées parfois très loin à l'échelle de la microélectronique ». Au fur et à mesure de l'augmentation du nombre de calculs, on aboutit à de terribles « embouteillages » très énergivores pour accéder à la mémoire. Le programme AlphaGo, l'IA de Google qui a récemment battu les plus grands champions de go, consomme ainsi 10.000 fois plus d'énergie qu'un humain. Dans le cerveau, les tâches de calcul et de mémoire sont combinées : schématiquement, les neurones jouaient le rôle de calculateur et les synapses celui de la mémoire. Cette architecture est moins douée pour le calcul mais beaucoup plus efficace lorsqu'il s'agit par exemple de reconnaître un chat sur une image.

Selon Markus Diesmann, chercheur au centre de recherche de Jülich en Allemagne et qui a conçu le modèle SpiNNaker, un cerveau artificiel neuromorphique tel que celui développé par Oliver Rhodes pourrait équiper des robots qui deviendraient alors (presque) aussi doués que des humains. On en est encore loin : le cerveau humain contient pas moins de 100 milliards de neurones et un million de milliards de synapses, bien loin des 77.000 neurones de ce minicerveau artificiel.

Abonnez-vous à la lettre d'information La quotidienne : nos dernières actualités du jour.

!

Merci pour votre inscription.
Heureux de vous compter parmi nos lecteurs !

Cela vous intéressera aussi