Des chercheurs ont réussi à fabriquer un réseau neuronal artificiel représentant 1 mm2 de cortex cérébral et capable de traiter l'information à la même vitesse que la biologie, grâce à une nouvelle architecture. Une performance qui illustre les formidables progrès accomplis ces dernières années par l’intelligence artificielle pour mimer le cerveau humain.


au sommaire


    Reproduire le fonctionnement biologique du cerveaucerveau humain, c'est le rêve de tous les chercheurs en intelligence artificielle. Une équipe de l'université de Manchester affirme avoir réussi à mimer le fonctionnement d'une petite partie du cortex moteurcortex moteur primaire, soit 77.000 neuronesneurones ou 300 millions de synapsessynapses. « C'est la première fois que l'on parvient à répliquer en temps réel le cerveau humain avec une vitessevitesse équivalente à celle de la biologie », se félicite Oliver Rhodes, l'auteur de l'étude publiée sur le site arXiv. L'exploit a été réalisé grâce au SpiNNaker de l'université de Manchester, un superordinateursuperordinateur équipé de 57.000 puces neuromorphiques, soit un million de cœurs. Oliver Rhodes et ses collègues sont parvenus à faire tourner leur modèle durant 12 heures avec une vitesse constante.

    Un partage des tâches entre les neurones

    Dans ce modèle représentant 1 mm2 de cortex, les neurones artificiels sont disposés en couches et reliés entre eux par de multiples connections. Chaque noyau neuronal reçoit des impulsions électriques soit directement issues des neurones auxquels il est directement relié, soit des signaux retardés issus d'autres synapses. Quand l'accumulation des signaux dépasse un certain seuil, cela débloque une réponse sous forme d'impulsion électrique. « Le principal problème avec les simulations cérébrales, ce sont les pics d'activité que doit gérer un noyau neuronal pour décider quels neurones doivent être stimulés en retour », explique Oliver Rhodes. Cette surcharge entraîne une augmentation du délai de traitement et une perte d'efficacité. Pour contourner cette difficulté, les chercheurs ont développé une stratégie appelée « parallélisation hétérogène », où les neurones travaillent simultanément de façon coopérative : certains sont responsables de la mise à jour de l'état neuronal, d'autres gèrent les signaux directs et d'autres les « paquets » de signaux retardés. Non seulement cela réduit la charge attribuée à chaque noyau, mais les paquets de signaux sont désormais dirigés vers chaque noyau en fonction de leur type (inhibiteur ou excitateur). « Les noyaux synaptiques inhibiteurs traitent donc uniquement les pics signalés comme inhibiteurs », et non pas l'ensemble des signaux, détaille Oliver Rhodes.

    Le modèle neuromorphique représentant le cortex cérébral sensoriel. À gauche, la structure en couches des neurones inhibiteurs (rouge) et excitateurs (violet). Chaque neurone reçoit des stimulations électriques (figure au milieu) venant des autres neurones. Lorsqu’un certain potentiel est dépassé, le neurone émet une impulsion électrique. <i>© Oliver Rhodes et al, arXiv, 2019</i>
    Le modèle neuromorphique représentant le cortex cérébral sensoriel. À gauche, la structure en couches des neurones inhibiteurs (rouge) et excitateurs (violet). Chaque neurone reçoit des stimulations électriques (figure au milieu) venant des autres neurones. Lorsqu’un certain potentiel est dépassé, le neurone émet une impulsion électrique. © Oliver Rhodes et al, arXiv, 2019

    Quand les réseaux de neurones artificiels atteignent leurs limites

    Si les puces neuromorphiques intéressent autant les chercheurs, c'est que les réseaux de neurones artificiels en siliciumsilicium sont un véritable gouffregouffre énergétique quand il s'agit d'effectuer des millions de calculs en parallèle. « Les ordinateurs traditionnels sur lesquels on les fait tourner sont fondés sur une architecture datant des années 1950, qui sépare la mémoire et le centre de calcul en deux blocs bien distincts », explique Damien Querlioz, chercheur au Centre de nanosciences et de nanotechnologies au CNRS. Du coup, « chaque neurone doit aller chercher des données stockées parfois très loin à l'échelle de la microélectronique ». Au fur et à mesure de l'augmentation du nombre de calculs, on aboutit à de terribles « embouteillages » très énergivores pour accéder à la mémoire. Le programme AlphaGoAlphaGo, l'IA de GoogleGoogle qui a récemment battu les plus grands champions de go, consomme ainsi 10.000 fois plus d'énergieénergie qu'un humain. Dans le cerveau, les tâches de calcul et de mémoire sont combinées : schématiquement, les neurones jouaient le rôle de calculateur et les synapses celui de la mémoire. Cette architecture est moins douée pour le calcul mais beaucoup plus efficace lorsqu'il s'agit par exemple de reconnaître un chat sur une image.

    Selon Markus Diesmann, chercheur au centre de recherche de Jülich en Allemagne et qui a conçu le modèle SpiNNaker, un cerveau artificiel neuromorphique tel que celui développé par Oliver Rhodes pourrait équiper des robots qui deviendraient alors (presque) aussi doués que des humains. On en est encore loin : le cerveau humain contient pas moins de 100 milliards de neurones et un million de milliards de synapses, bien loin des 77.000 neurones de ce minicerveau artificiel.