Autour de nous, les choses sont en mouvement. Et notre cerveau est capable de nous en rendre des images malgré tout stables. Grâce à une capacité de traitement des informations extrêmement rapide, nous expliquent aujourd’hui des chercheurs.

Cela vous intéressera aussi

[EN VIDÉO] BigBrain, l’atlas 3D haute résolution du cerveau humain La collaboration entre des scientifiques allemands et canadiens a abouti à une modélisation ennull

Autour de nous, le monde bouge. Il évolue presque en permanence. Les images qu'en reçoivent nos rétinesrétines rétrécissent ou s'agrandissent sans cesse. Notre cerveaucerveau, pourtant, nous en restitue des images stables, « en taille réelle ». La constance perceptive de la taille : c'est le nom étrange que les spécialistes donnent à cette capacité innée que des chercheurs de l'université de Western Ontario (Canada) viennent aujourd'hui éclairer.

Selon eux, lorsqu'une image arrive sur la rétine, il ne faut pas plus d'une fraction de seconde à notre cerveau pour en déduire la taille réelle de l'objet observé. Le tout se joue aux premiers stades du traitement visuel, dans le cortexcortex cérébral.

Même si l’image d’une voiture qui s’éloigne de nous devient, sur notre rétine, de plus en plus petite, nous continuons à percevoir cette voiture dans sa taille réelle. © Pexels, Pixabay License
Même si l’image d’une voiture qui s’éloigne de nous devient, sur notre rétine, de plus en plus petite, nous continuons à percevoir cette voiture dans sa taille réelle. © Pexels, Pixabay License

Des systèmes de vision artificielle optimisés

Les chercheurs ont enregistré, par électroencéphalographie (EEGEEG), les signaux électriques dans les cerveaux de personnes auxquelles ils présentaient des objets de tailles différentes, à des distances différentes. « Il faut environ 100 millisecondes au cerveau pour évaluer la taille de l’image sur la rétine. Et quelque 150 millisecondes pour lui permettre d'en déduire la taille réelle de l'objet présenté », raconte Melvyn Goodale, professeur en neurosciences.

Les chercheurs expliquent que notre cerveau compile en fait des signaux de distances -- notamment oculomoteurs, tels que la vergence ou l'accommodation -- avec la taille de l'image rétinienne pour rendre une information sur la taille réelle de l'objet observé. De quoi peut-être aider les ingénieurs qui travaillent à développer des systèmes de vision artificielle pour équiper robotsrobots ou encore véhicules autonomes.