Le bit est un code binaire en 0 et 1. © peterschreiber.media, Adobe Stock
Tech

Bit : qu'est-ce que c'est ?

DéfinitionClassé sous :Informatique , Internet , ordinateur

Un bit est l'abréviation de binary digit en anglais, qui correspond à un chiffre binaire. Quand on parle de bit en informatique, il s'agit d'une unité  informatique qui permet de mesurer des informations et des données dans le numérique. D'ailleurs, il faut savoir que cette unité ne prend que deux valeurs, en l'occurrence le 0 et le 1.

Mais alors quelle est l'histoire du bit informatique ? Cette unité de mesure a commencé à être conceptualisée en 1948 par Claude Shannon. En effet, en travaillant dans les années 1940 dans un centre de recherche, il a écrit plusieurs articles scientifiques à ce sujet. En 1948, il publie ses recherches dans un article A mathematical theory of communication.

Ces travaux sont une avancée considérable et vont permettre par la suite de mesurer et de stocker des données dans le domaine de la communication. Cette découverte est une véritable révolution car la transmission des messages et des données peut se faire autrement, en laissant de côté l'ancienne approche basée sur la transmission de courants à travers des ondes analogiques.

À quoi sert le bit en informatique ?

Vous avez envie de savoir quelles sont les utilisations du bit en informatique ? Alors vous êtes au bon endroit. Aujourd'hui, le bit en informatique est partout. En effet, lorsque vous souhaitez connaître la vitesse de votre connexion internet, de votre processeur ou encore de votre stockage, le bit informatique entre alors en ligne de compte.

Pour bien comprendre à quoi il sert aujourd'hui, il faut savoir que 8 bits en informatique correspondent à 1 octet. Ainsi, lorsque vous souhaitez connaître la vitesse de votre connexion Internet, elle sera exprimée en bps ou en bits par secondes. Il arrive aussi que la vitesse soit également mesurée en octet. Les connexions très haut débit par la fibre peuvent aller jusqu'à 35 Mb/s.

Un mégabit correspond à 1 milliard de bits. De plus, le bit est également utilisé pour les processeurs. Au début de l'informatique, dans les années 1990 à 200, un ordinateur comptait seulement 8 bits ou 1 octet. Aujourd'hui, la technologie a permis de passer du 8 bits au 64 bits sous Windows 8 par exemple.

Comment fonctionne un bit numérique ?

Pour  qu'un ordinateur puisse fonctionner normalement, il a besoin d'être codé en binaire, à l'aide du bit et autour du 0 et du 1. Grâce aux bits, l'ordinateur va alors transmettre l'image, le son et la vidéo en suivant le code binaire. Avec l'arrivée des standards ASCII, on a commencé à passer du bit numérique à l'octet et les performances informatiques n'ont jamais cessé de croître.

Alors que le début de l'informatique en 8 bits, c'est-à-dire à 16 Ko de mémoire adressée. Aujourd'hui, avec des processeurs puissants avec jusqu'à 8 Go de RAM, les ordinateurs peuvent traiter jusqu'à 64 bits, ou 2*64 qui correspond à 16 Eo. Le standard ASCII a permis de donner une place précise à chaque élément pour stocker des données et les utiliser de différentes manières.

Cela vous intéressera aussi

[EN VIDÉO] Interview : en quoi un ordinateur quantique est-il différent ?  Le monde quantique est fascinant : à cette échelle, par exemple, les objets peuvent se trouver simultanément dans plusieurs états. Exploitant ce principe, un ordinateur quantique aurait des possibilités bien plus vastes qu’un modèle classique. Dans le cadre de sa série de vidéos Questions d’experts, sur la physique et l’astrophysique, l’éditeur De Boeck a interrogé Claude Aslangul, professeur à l’UPMC, afin qu'il nous explique le fonctionnement de cette étrange machine. 

Abonnez-vous à la lettre d'information La quotidienne : nos dernières actualités du jour. Toutes nos lettres d’information

!

Merci pour votre inscription.
Heureux de vous compter parmi nos lecteurs !