Après sept ans et plusieurs millions de kilomètres, les voitures autonomes de Google ont démontré une impressionnante fiabilité avec seulement quelques accidents dont la cause ne leur était pas imputable. Mais une intelligence artificielle n’est pas infaillible et celle de la voiture de Google a commis sa première erreur de conduite. © Steve Jurvetson, Flickr, CC BY 2.0

Tech

La voiture autonome Google provoque son premier accident

ActualitéClassé sous :voiture , Voiture autonome , voiture autonome Google

Marc Zaffagni, Futura-Sciences

Dans le rapport mensuel qu’il doit transmettre aux autorités routières de Californie, Google révèle que l’une de ses voitures autonomes a provoqué pour la première fois un accident de la circulation, sans gravité. L'information survient alors que le géant nord-américain développe sa propre voiture sans chauffeur dans laquelle il veut supprimer le volant et les pédales.

« Si vous passez suffisamment de temps sur la route, des accidents se produisent, que vous soyez dans une voiture ou dans une voiture autonome. » Ainsi s'exprimait en mai dernier Chris Urmson, le patron du programme de voitures autonomes de Google. À l'époque, il avait dressé un bilan après six ans d'expérimentation : 2,7 millions de kilomètres parcourus et seulement 11 accidents sans gravité dans lesquels aucune voiture Google n'était fautive.

Mais ce bilan immaculé, du point de vue de la responsabilité des « Google cars », ne pouvait durer indéfiniment. Le jour de la Saint-Valentin, une Lexus munie du système de conduite autonome de la firme californienne a provoqué un accident de la circulation. Les circonstances sont décrites dans le rapport transmis par Chris Urmson au DMV (Department of Motor Vehicles).

La voiture autonome circulait en ville sur la voie la plus à droite de la chaussée. Elle s'est retrouvée bloquée par des sacs de sable disposés autour d'une bouche d'évacuation d'eaux fluviales. Le véhicule a alors entrepris de s'insérer dans la voie centrale alors qu'un bus municipal approchait. L'accident s'est produit à faible allure (3 km/h pour la voiture, 24 km/h pour le bus) et n'a fait que des dégâts matériels mineurs (voir la vidéo amateur postée sur YouTube).

Le rapport souligne que l'ingénieur-testeur présent à bord de la voiture a lui-même cru que le bus allait ralentir et céder le passage, ce qui laisse entendre qu'il aurait commis la même erreur. Certes, mais un autre conducteur n'aurait peut-être pas eu la même réaction...

Voici ce qui est présenté comme la voiture Google impliquée dans l’accident avec un bus. La voiture autonome a décidé de s’insérer dans une voie de circulation alors qu’un bus arrivait. © Joshua Smith, YouTube

Le risque zéro n’existe pas

Cet évènement marque une étape tout à fait intéressante qui montre que Google est entré dans une phase plus subtile du développement de son pilote automatique. Tous les jours, les automobilistes sont confrontés à ce genre de situation où ils doivent faire appel autant à leur expérience qu'à leur sens du risque qui en conduira certains à faire une manœuvre et d'autres à jouer la prudence.

On peut imaginer que la voiture Google se situe plutôt dans la seconde catégorie. Mais le curseur n'est pas simple à positionner... Sur quel critère l'intelligence artificielle de la voiture s'est-elle basée pour déterminer qu'elle pouvait s'engager malgré le bus en approche ? Comment a-t-elle évalué la probabilité d'une collision ? Les ingénieurs de Google ont d'ores et déjà modifié leurs algorithmes pour prendre en compte cet évènement, mais on peut imaginer que d'autres situations de ce type risquent de se reproduire. Et c'est tant mieux car c'est bel et bien le seul moyen de fiabiliser le système.

En revanche, cet incident, et éventuellement d'autres, pourrait bien venir contrarier les plans de Google pour sa propre voiture autonome. Le géant californien a récemment débattu avec la NHTSA (National Highway Traffic Safety Administration), l'autorité en charge de la sécurité routière aux États-Unis, pour savoir si l’intelligence artificielle qui pilote sa voiture autonome peut être considérée comme un conducteur à part entière. La NHTSA a répondu par l'affirmative, tout en soulignant que la législation définisant ce qu'est une voiture devrait évoluer. En effet, aujourd'hui, une automobile doit, entre autres, posséder des pédales et un volant.

Or, justement, Google voudrait supprimer ces commandes sur sa voiture dont il assure la conception intégrale. Le géant californien aurait expliqué à la NHTSA que c'est le fait d'ajouter des contrôles manuels à une voiture autonome pour permettre au passager de reprendre la main qui constituerait le véritable danger. Sauf que dans le cas de l'accident de la Saint-Valentin, un chauffeur aurait pu freiner pour empêcher la voiture d'avancer alors que le bus arrivait. Pas sûr que la Google car perde les pédales de sitôt...

  Les commentaires ne sont pas disponibles pour le moment.