Google vient d’annoncer la disponibilité grand public de son processeur Trillium. Conçu pour l’intelligence artificielle, il a servi à entraîner Gemini 2.0 et promet de répondre à une demande toujours croissante de puissance pour les grands modèles de langage.


au sommaire


    Alors que GoogleGoogle vient de dévoiler Gemini 2.0, son tout dernier grand modèle de langage, la firme a aussi annoncé la disponibilité du processeur qui a servi à son entraînement. Baptisé Trillium, il s'agit d'un Tensor Processing Unit (TPU), un accélérateur d'intelligence artificielle spécialement conçu pour fonctionner avec la bibliothèque d'apprentissage automatique TensorFlow. Il sert à la fois pour l'entraînement de l'intelligence artificielle, ainsi que pour l'inférence, autrement dit son fonctionnement par la suite, comme répondre à des prompts.

    La première génération de TPU a été mise en service en 2015 et Trillium représente la sixième génération. Ce processeur est notamment utilisé dans l'AI Hypercomputer de Google Cloud, une architecture de supercalculateur composé « d'un système intégré de matériel aux performances optimisées, de logiciels ouverts, de frameworks d'apprentissage automatique de premier plan et de modèles de consommation flexibles ».

    Voici le processeur Google Trillium, un accélérateur d’intelligence artificielle utilisé pour entraîner Gemini. © Google
    Voici le processeur Google Trillium, un accélérateur d’intelligence artificielle utilisé pour entraîner Gemini. © Google

    Trillium disponible dans Google Cloud

    Google annonce des performances pour l'entraînement des IA multipliées par quatre par rapport à la génération précédente de TPU, avec une vitessevitesse de pointe pour chaque puce multipliée par 4,7. De plus, la consommation électrique a été largement réduite avec une efficacité énergétique augmentée de 67 %. Cette évolution tombe à pic alors que les besoins en puissance de calcul et en énergieénergie pour l'IA augmentent de manière quasi exponentielle. Google fait dans la démesure et a déjà installé 100 000 puces dans son réseau JupiterJupiter, fournissant une bande passante de bissection (disponible entre deux sections du réseau) de 13 pétabits par seconde.

    Même si ces processeurs sont disponibles pour le grand public, il n'est pas possible de les acheter. Pour s'en servir, il faut passer par la plateforme Google Cloud. Toutefois, grâce à l'augmentation des performances, le coût d'utilisation a baissé. Selon Google, Trillium offre 2,5 fois plus de performance pour l'entraînement des grands modèles de langage par dollar, comparé à la génération précédente.

    Google Trillium montre que l'avenir de l'IA ne dépend pas uniquement des grands modèles de langage et autres composants logiciels. Il faudra également les composants matériels spécialisés pour répondre à une demande toujours croissante. Et Google semble être bien parti dans une course contre ses principaux rivaux, notamment les processeurs graphiquesprocesseurs graphiques Nvidia, les Trainium utilisés dans AmazonAmazon Web Services et MicrosoftMicrosoft Azure Maia.