Tech

NVidia a la tête dans les nuages avec RealityServer

ActualitéClassé sous :technologie , informatique , RealityServer

Toujours plus de réalisme, tel est le credo des constructeurs de l'industrie graphique. Après ATI-AMD et son diptyque Firestream-Cinema 2.0, NVidia va plus loin et même dans les nuages. Son triptyque Fermi-iRay-RealityServer répartit en effet ses calculs sur du cloud computing.

La 3D photoréaliste, quand les pixels remplacent la chair. © AMD

Au commencement de l'informatique domestique il y eut le CPU (Central processing unit, par exemple l'Intel Pentium I). Le traitement des données dépendait de cette galette de silicium, chef d'orchestre du matériel. La génération d'interfaces graphiques s'effectuait grâce à ce processeur assorti d'un adaptateur 2D. Ainsi, du bureau en deux dimensions aux affichages primaires en trois dimensions, toutes les tâches reposaient sur cette combinaison, le CPU restant le facteur clé du duo. Un temps réservé à des tâches intellectuelles et créatives le PC fut bientôt utilisé à des fins récréatives. De la platitude de l'indémodable démineur aux premiers jeux en volume, les besoins en capacité de calcul changèrent drastiquement.

La folle course des cartes graphiques

A l'inverse d'une image de synthèse générée par un algorithme sur un temps donné, il s'agissait de générer des dizaines d'images par seconde interactives, ce avec de plus en plus de réalisme. Aussi, l'avènement du marché des cartes graphiques 2D-3D découle-t-il de ce besoin rapide de capacité de traitement. Complément de la carte-mère, l'architecture de ce périphérique interne s'articule autour d'un processeur appelé GPU (Graphical Processing Unit) et dispose par exemple de sa propre mémoire vive. Partant de feu le port ISA (Industry Standard Architecture), elle passa au port PCI, à l'AGP, puis à l'actuel PCI Express. La carte graphique a gravi les échelons pour devenir un élément à peu près indispensable dans le domaine d'applications d'affichages poussés. Longtemps considérée comme réservée aux jeux, elle s'est vu récemment adoubée par les interfaces de système d'exploitation, mais aussi, par le calcul pur.

Cliquer pour agrandir - L'évolution de la 3D temps-réel de ces 15 dernières années, selon NVidia. © NVidia

Avec l'augmentation gigantesque de leurs performances, les GPU peuvent maintenant effectuer des calculs parallèles dantesques. D'abord utilisé à des fins de décryptage, l'ancien compagnon du CPU est entré en concurrence directe avec son comparse. C'est la firme ATI qui donna la première le véritable coup d'envoi, en transformant le périphérique de jeux en supercalculateur nommé Firestream. La firme concurrente, NVidia, s'est empressée de lui emboîter le pas avec son CUDA optimisé pour une architecture de calculs parallèles. A titre d'exemple, une carte NVidia Geforce 8800 comporte 128 cœurs (stream processors), à comparer aux 8 cœurs du Cell d'IBM, même si les architectures ne sont pas directement comparables. Des cartes de gamme grand-public permettent désormais l'émergence de super-ordinateurs abordables et des perspectives nouvelles s'annoncent pour l'industrie des cartes 3D. Le bonheur des joueurs fait ainsi celui des chercheurs qui peuvent s'appuyer sur ce genre de circuit pour réaliser des modélisations en astrophysique ou dans le domaine climatique. L'annonce du projet Fermi par NVidia, avec son GPU doté de 512 coeurs, conforte le phénomène.

Rendre à la 3D ce qui est à la 3D

Paradoxalement c'est le rendu tridimensionnel qui tire le plus de profit de cette course au calcul parallèle. En effet il existe différents types de rendu 3D parmi lesquels deux principaux, à savoir l'image de synthèse générée par des algorithmes et le rendu en temps réel s'appuyant sur des bibliothèques logicielles (majoritairement DirectX et OpenGL). Ce n'est un secret pour personne, l'image de synthèse a fait d'énormes progrès en deux décennies. Alors que le rendu d'un dinosaure de Jurassic Park demandait de deux à six heures par image suivant les conditions (pluie, éclairages...), le rendu d'une scène complète de la version de 2005 de King Kong ne prenait qu'une nuit. A l'inverse de la 3D temps réel actuelle qui se base sur des effets prédéfinis, une image de synthèse demande des calculs pointus. La méthode la plus utilisée est le ray tracing (lancer de rayon) qui consiste à calculer l'interaction des objets, de la matière et de la lumière par un procédé vectoriel. Les algorithme basés sur le ray tracing demandent des capacités de calcul importantes, capacités que les constructeurs ATI/AMD et NVidia peuvent maintenant fournir pour un rendu photo-réaliste en temps réel.


Personnage généré en temps réel grâce au procédé Cinema 2.0 (anglais). © Image Metrics, ATI/AMD

Sous le nom d'iRay que Nvidia a dévoilé son moteur de rendu réaliste, qui exploite les capacités des GPU Fermi embarqués dans une infrastructure de serveurs nommée Tesla. C'est en septembre dernier que le fondeur américain a dévoilé sa création. Force est de constater que depuis les 3 heures par image requises pour Jurassic Park, un pas énorme a été franchi. C'est en temps réel que le démonstrateur se promène dans une pièce, change les éclairages et ajoute des éléments. Les capacités de traitement parallèles du Fermi associées au ray tracing font des miracles.


Démonstration du moteur 3D iRay mis au point par NVidia. © Luminova

Ce type de démonstration resterait anecdotique si elle n'aboutissait pas à un résultat concret pour l'utilisateur lambda. Dans ce domaine NVidia frappe fort avec l'annonce de la fusion de son moteur iRay avec le principe, en pleine expansion, du cloud computing (capacités de calcul et de stockage centralisées dans le cadre d'un réseau, par exemple le service bureautique de Google est du cloud computing). Le but est de proposer une solution de rendu 3D photo-réaliste contrôlable en temps réel, qui ne fasse pas appel aux ressources de la machine de l'utilisateur. Ce sont les fameux serveurs Tesla qui se chargent du calcul des données graphiques, dans la limitation des capacités du réseau en terme de débit. A terme il sera donc possible de visualiser une voiture sous toutes ses coutures « comme si vous y êtiez », ce dans un navigateur Internet. L'infrastructure se nomme RealityServer et est définie par NVidia comme « le futur des applications 3D sur internet ».

Il faudra cependant s'armer de patience pour espérer pousser l'expérience jusqu'à la visite d'un monde virtuel photo-réaliste via le cloud computing. En effet, le débit actuel des connexions Internet est un frein pour ce type d'usage. Cependant il y a fort à parier que les sites marchands sauront saisir l'occasion...

Cela vous intéressera aussi