Il regarde son maître conduire, note les endroits où il aime s'arrêter, évalue les consommations. Il peut ensuite aider, suggérer, guider ou conseiller. Cet assistant existe. Des chercheurs du MIT et de Volkswagen l'ont fait...

au sommaire


    Les voituresvoitures actuelles sont bardées de capteurscapteurs en tout genre, pour mesurer la pressionpression des pneus, détecter les obstacles lors des manœuvres ou peaufiner l'assistance de la direction. Une fois combinées, les données issues de ces angesanges gardiens numériques pourraient fournir des statistiques et indications précieuses sur le conducteur. C'est autour de ce principe que les chercheurs du MIT Media Lab, du MIT's Senseable City Lab et du Centre de recherche électronique américain de Volkswagen se sont rassemblés pour créer une interface plus naturelle que les traditionnels GPS. Plus globalement, l'enjeu est de repenser la façon dont nous interagissons avec nos véhicules.

    Cette réflexion s'est cristallisée au sein du projet Aida (Affective Intelligent Driving Agent), qui consiste en une interface homme-machine. Comme le rappelle Carlo Ratti, directeur du Senseable City Lab, « avec l'abondance des capteurs et des ordinateurs embarqués, l'information sur notre environnement est plus abondante. Aida représente un effort nouveau pour donner du sens à ces grandes quantités de données, utilisant nos systèmes électroniques personnels comme des outils d'analyse comportementale ».

    L'homme et la voiture, une longue histoire d'amour

    Aida se présente sous les traits d'un robot naïf embarqué dans le tableau de bord. Relié aux capteurs embarqués d'un modèle haut de gamme contemporain, il scrute toutes les données mises à sa disposition et les stocke. Au fil des trajets, des informations sur les habitudes du conducteur telles que les lieux visités, le type de conduite, la consommation d'essence ou la température idéale permettent à Aida de mieux cerner la personne. A mesure que les jours, les semaines et les mois passent, le système est de plus en plus apte à effectuer des corrélations pertinentes. Ainsi ce copilote de métalmétal peut proposer diverses solutions pour simplifier la vie et les trajets du conducteur.


    Aida en action, quand la voiture pense pour son conducteur. © Massachusetts Institute of Technology

    Comme le rappelle Cynthia Breazeal, directrice du département des robots personnels du MIT, la mise au point de l'aptitude d'Aida à communiquer avec un humain est le « fruit de la longue expérience dans la création de robots sociaux ». Il y a quelques mois, par exemple, nous présentions Nexi, un des bébés du laboratoire. Pour communiquer avec le pilote, le robot emploie une interface lumineuse basique capable d'afficher un sourire, un clin d'œilœil ou bien encore des sigles d'avertissement. Les expressions d'Aida prennent des allures de bande dessinée, et pour cause, avec leurs autres prototypes les chercheurs ont appris que cet affichage émotionnel simplifié rassurait l'utilisateur (cf Nexi). Ici, l'affectif est le point clé de la relation à établir entre l'homme et la machine.

    A mesure que cette complicité artificielle se développe, Aida indique au moment opportun notre supermarché favori, suggère un raccourci pour contourner un embouteillage ou bien encore signale les instants clés pour faire son plein d'essence. D'un point de vue social, la semaine de l'utilisateur est analysée et classée, travail, sorties, courses et autres activités n'échappent pas à Aida. Le robot pourrait même établir un compte rendu sur la conduite, pour aider, par exemple, à économiser du carburant.

    Aida ne débarquera sans doute pas dans la voiture de monsieur tout le monde dans les prochains mois. Mais une chose est sûre, la voiture de demain sera intelligente...