Tech

Bientôt l'intelligence artificielle dans mon smartphone ?

ActualitéClassé sous :smartphone , intelligence artificielle , réseau neuronal

Marc Zaffagni, Futura-Sciences

Un processeur graphique capable d'apprentissage, mis au point par des chercheurs du MIT, consomme dix fois moins d’énergie qu’une puce classique. De quoi faire tourner des applications d’intelligence artificielle directement sur un smartphone, des objets connectés ou une voiture autonome sans passer par une connexion Internet. Les progrès à en attendre sont très importants et d’autres fabricants de processeurs sont déjà sur les rangs.

Les processeurs graphiques (GPU) ont joué un rôle déterminant dans le regain d’intérêt pour les réseaux neuronaux et l’apprentissage profond. © agsandrew, Shutterstock
Les processeurs graphiques (GPU) ont joué un rôle déterminant dans le regain d’intérêt pour les réseaux neuronaux et l’apprentissage profond. © agsandrew, Shutterstock
 

Aujourd'hui, lorsque nous utilisons un smartphone, nous faisons sans le savoir appel à l'intelligence artificielle (IA). C'est le cas par exemple avec les assistants virtuels Siri (Apple), Cortana (Microsoft) ou Google Now qui savent reconnaître le langage naturel, pour les applications de traduction en temps réel telles que Skype Translator ou encore pour la reconnaissance d'images. Tout ceci est aujourd'hui possible grâce à une puissance de calcul que seules des batteries de serveurs unis sur des plateformes de cloud computing peuvent fournir. Sans connexion Internet, pas d'IA donc. Car en effet, les batteries des terminaux mobiles ne tiendraient que quelques minutes si une intelligence artificielle s'exécutait en local. Mais cela pourrait bientôt changer...

Des chercheurs du MIT (Massachusetts Institute of Technology) ont développé un processeur graphique optimisé pour exécuter un réseau neuronal d'apprentissage profond (deep learning) qui consomme dix fois moins d'énergie qu'une puce graphique pour smartphone. Baptisé Eyeriss, ce processeur doté de 168 cœurs de calcul pourrait permettre à des terminaux mobiles, des objets connectés, des robots ou encore des voitures autonomes de s'adonner à l'apprentissage profond sans devoir transmettre des données à des serveurs via Internet. À la clé, des capacités étendues, davantage d'autonomie et une plus grande réactivité.

Eyeriss, le processeur graphique du MIT, comporte 168 cœurs de calcul. Son architecture est optimisée pour le fonctionnement des réseaux neuronaux convolutifs qui sont notamment utilisés par les applications de reconnaissance vocale et d’images. © MIT

Optimisée pour les réseaux neuronaux convolutifs

Pour saisir l'importance de cette innovation, revenons un instant sur l'intelligence artificielle. Les grands progrès accomplis ces dernières années, et tout récemment avec la victoire du programme AlphaGo de Google contre un joueur professionnel de go, ont été obtenus grâce des réseaux neuronaux convolutifs. Il s'agit d'une architecture profonde multicouches dont le Français Yan LeCun (patron de l'IA chez Facebook qui vient d'entamer un cycle de cours au Collège de France) est l'un des inventeurs.

Dans ce type de réseau neuronal, l'organisation des connexions est dérivée de celle du cortex visuel des mammifères avec des éléments interconnectés entre les couches. Chaque niveau analyse ainsi des informations qui ont déjà fait l'objet de traitements à différents endroits dans les étages inférieurs, ce qui introduit un efficace parallélisme des calculs. Ces réseaux convolutifs ont connu un essor dans le milieu des années 1990. Ils ont été notamment utilisés pour un système de lecture automatique des chèques bancaires. Mais leur mise en œuvre était très exigeante eu égard aux performances des ordinateurs de l'époque et ils ont été délaissés.

À partir de 2011, l'arrivée sur le marché de processeurs graphiques très abordables (GPU ou graphical processing units) a changé la donne. Conçus principalement pour les jeux vidéo avec plusieurs centaines de cœurs de calcul, ils se sont révélés particulièrement adaptés pour l'exécution des réseaux neuronaux d'apprentissage profond.

Mais ces GPU ont un gros défaut : ils consomment énormément d'énergie. Chacun aura constaté combien l'autonomie d'un smartphone ou d'une tablette diminue drastiquement lors d'un jeu ou de la diffusion d'une vidéo. Actuellement, la solution pour mettre une dose d'IA dans les mobiles sans vider leur batterie consiste à collecter les données nécessaires puis à les transmettre via Internet à des serveurs bardés de GPU qui les analysent avant de renvoyer les résultats.

Pour rendre son processeur Eyeriss aussi performant qu'une puce graphique tout en étant moins énergivore, le MIT a travaillé à minimiser la fréquence à laquelle les cœurs de calcul ont besoin d'échanger des données avec des bancs de mémoire. « Alors que sur un GPU classique, plusieurs cœurs se partagent un grand banc de mémoire, chaque cœur de la puce Eyeriss dispose de sa propre mémoire », expliquent les concepteurs. Par ailleurs, la puce est dotée d'un circuit qui compresse les données avant qu'elles ne soient envoyées aux cœurs de calcul.

Qualcomm, Movidius et NVidia sont déjà sur les rangs

« Chaque cœur peut communiquer directement avec ses voisins, de telle sorte que s'ils veulent partager des données, ils n'ont pas besoin de les faire transiter par la mémoire principale », peut-on encore lire. Ce fonctionnement s'apparente à celui des réseaux convolutifs où les éléments sont connectés à leurs voisins les plus proches pour traiter les mêmes données de façons différentes. Et à l'instar de ce type d'IA, Eyeriss est capable de gérer la répartition des tâches pour chaque cœur. Ces derniers doivent en effet gérer à la fois les données qui alimentent le réseau neuronal et les données qui décrivent le réseau lui-même. Le circuit d'allocation du processeur permet de reconfigurer le fonctionnement des cœurs selon le type de réseau et de tâche à accomplir.

L'équipe du MIT a présenté sa puce Eyeriss lors de la conférence International Solid State Circuits Conference (ISSCC), en l'utilisant pour exécuter une application de reconnaissance d'image. Mais pour le moment, aucune information n'a été fournie quant à sa disponibilité.

Ajoutons que d'autres acteurs spécialisés dans la conception de GPU ont récemment dévoilé des puces capables d'apprentissage profond en local. Lors du dernier Consumer Electronics Show, les fondeurs Qualcomm et NVidia ont présenté leurs processeurs respectifs Snapdragon 820A/820Am et Tegra qui se servent de l'apprentissage profond améliorer la conduite des voitures autonomes. On se souvient également que Google s'est associé à la société Movidius pour son Projet Tango qui a fait entrer pour la première fois la vision par ordinateur dans un téléphone. Bref, ce n'est qu'une question de temps avant que l'intelligence artificielle ne s'approche encore un peu plus de notre quotidien.

Interview 5/5 : quel futur pour les robots ?  Le futur de la robotique est un sujet qui résonne comme de la science-fiction. Naguère issus de l'imagination, l’androïde ou le cyborg sont aujourd’hui des entités réalisables par la science. Dans cette interview, le directeur du laboratoire de recherche de l’Institut international du multimédia, Jean-Claude Heudinous, expose les défis qu’il faudra relever pour créer les robots de demain. 

  Les commentaires ne sont pas disponibles pour le moment.