Le 18 novembre avait lieu une soirée conjointe organisée par la SACD (Société des auteurs compositeurs dramatiques) et le RIAM (Recherche et innovation en audiovisuel et multimédia). La soirée, dédiée aux “acteurs virtuels", était l'occasion de rappeler que 92 projets innovants ont été financés par le RIAM depuis sa création il y a quatre ans.

au sommaire


    La technologie "LivingActor" de Cantoche

    La technologie "LivingActor" de Cantoche

    Parmi eux, trois projets exposaient différentes facettes du même problème : donner vie à des personnages virtuels s'intégrant de façon réaliste dans des environnements multiples.

    D'abord la société Cantoche, spécialisée dans le développement d'interfaces multimédia, présentait sa technologie "LivingActor", "une suite logicielle destinée à humaniser les interfaces hommes-machines". Concrètement, l'outil permet de donner vie à un personnage virtuel en 3D - à l'instar du trombone de MicrosoftMicrosoft Word - qui apparaît en surimpression des applicationsapplications de l'utilisateur, ou sur un site internet/intranet, et peut interagir avec lui. Cantoche a créé et installé une centaine de personnages, pour le compte de plusieurs grandes entreprises, et travaille actuellement sur des projets visant à démultiplier les possibilités en la matièrematière. Parmi ceux-ci figurent : le développement d'une application simple d'emploi permettant à l'utilisateur de scénariser le comportement d'un personnage virtuel, la mise au point d'agents interactifsinteractifs en 2D, à destination des téléphones mobilesmobiles (le comportement des personnages virtuels peut alors être piloté à distance, par exemple via l'envoi d'un SMS), ou le traitement de dialogues en langage naturel entre l'utilisateur et les personnages. Benoît Morel, PDG et fondateur de Cantoche, précisait que l'entreprise "est rentable et génère un chiffre d'affaires de 500 000 euros".

    Etait ensuite présenté le projet AVA-Motion, résultant d'une collaboration entre deux laboratoires de recherche (IRISA et LPBEM) et deux entreprises (KineoCAM et Daesign). Le projet, consacré à la gestion d'animation pour acteurs virtuels autonomes, vise à doter les personnages en 3D de gestes réalistes. En modélisant le comportement cinématique d'un personnage réel, et en tenant compte des contraintes physiquesphysiques réelles (mouvementsmouvements impossibles, fonctionnement des muscles humains...) le but est de parvenir à adapter en temps réel et de façon autonome les mouvements d'un personnage virtuel. Ce dernier doit par exemple anticiper ses gestes ou les modifier en fonction de son environnement (atmosphèreatmosphère de la scène, synchronisation de mouvements multiples). Richard Kulpa, l'un des chercheurs du projet, faisait une démonstration convaincante d'un personnage effectuant des mouvements de karaté (enregistrés via motion capture) puis adaptant de façon autonome ces mêmes mouvements lorsque le sol n'est plus plat mais lui-même mouvant (les appuis et la recherche d'équilibre étant calculés en temps réel).

    Enfin, la société Kynogon, spécialisée dans le développement de technologies d'intelligence artificielle à destination de l'industrie du jeu vidéo, expliquait les grandes lignes des modèles qu'elle utilise pour doter les personnages virtuels d'un comportement réaliste. "L'ambition est aujourd'hui de donner des émotions à des personnages virtuels", soulignait Jacques Gaubil, cofondateur de l'entreprise. Pour parvenir à des "modèles émotionnels" applicables, trois niveaux d'intelligence doivent tout d'abord être modélisés : la perception (comment le personnage "comprend" son environnement et les personnages qui l'entourent), la décision (quels sont les facteurs susceptibles d'influer sur les actions du personnage) et l'action proprement dite. Jacques Gaubil, insistant sur l'importance de la première étape - la perception - pour augmenter le réalismeréalisme des personnages virtuels, faisait une démonstration, là aussi convaincante.
    Quatre personnages évoluent dans un environnement 3D représentant une ville. Trois d'entre eux sont des gardes du corps du personnage principal, dont les mouvements sont gérés par l'utilisateur. La simulation permet de visualiser les centres d'intérêt des gardes du corps, c'est-à-dire les points qu'ils surveillent (susceptibles de représenter un danger) : fenêtresfenêtres, portesportes, tours élevées... Lorsqu'on déplace le personnage principal, les trois gardes du corps se répartissent pour le couvrir de façon optimale et s'adaptent en permanence au nouvel environnement, en reconnaissant les points de danger potentiels. En particulier, ils ne surveillent jamais un murmur lisse, jugé par essence inoffensif, ou un point déjà surveillé par les deux autres. "Ils ne sont pas bêtes !", concluait Jacques Gaubil.