au sommaire


    Un bit est l'abréviation de binary digit en anglais, qui correspond à un chiffre binaire. Quand on parle de bit en informatique, il s'agit d'une unité  informatique qui permet de mesurer des informations et des données dans le numérique. D'ailleurs, il faut savoir que cette unité ne prend que deux valeurs, en l'occurrence le 0 et le 1.

    Mais alors quelle est l'histoire du bit informatique ? Cette unité de mesure a commencé à être conceptualisée en 1948 par Claude Shannon. En effet, en travaillant dans les années 1940 dans un centre de recherche, il a écrit plusieurs articles scientifiques à ce sujet. En 1948, il publie ses recherches dans un article A mathematical theory of communication.

    Ces travaux sont une avancée considérable et vont permettre par la suite de mesurer et de stocker des données dans le domaine de la communication. Cette découverte est une véritable révolution car la transmission des messages et des données peut se faire autrement, en laissant de côté l'ancienne approche basée sur la transmission de courants à travers des ondes analogiquesanalogiques.

    À quoi sert le bit en informatique ?

    Vous avez envie de savoir quelles sont les utilisations du bit en informatique ? Alors vous êtes au bon endroit. Aujourd'hui, le bit en informatique est partout. En effet, lorsque vous souhaitez connaître la vitessevitesse de votre connexion internet, de votre processeur ou encore de votre stockage, le bit informatique entre alors en ligne de compte.

    Voir aussi

    Le stockage des données informatiques

    Pour bien comprendre à quoi il sert aujourd'hui, il faut savoir que 8 bits en informatique correspondent à 1 octet. Ainsi, lorsque vous souhaitez connaître la vitesse de votre connexion Internet, elle sera exprimée en bps ou en bits par secondes. Il arrive aussi que la vitesse soit également mesurée en octet. Les connexions très haut débit par la fibre peuvent aller jusqu'à 35 Mb/s.

    Un mégabit correspond à 1 milliard de bits. De plus, le bit est également utilisé pour les processeurs. Au début de l'informatique, dans les années 1990 à 200, un ordinateur comptait seulement 8 bits ou 1 octet. Aujourd'hui, la technologie a permis de passer du 8 bits au 64 bits sous Windows 8Windows 8 par exemple.

    Comment fonctionne un bit numérique ?

    Pour  qu'un ordinateur puisse fonctionner normalement, il a besoin d'être codé en binaire, à l'aide du bit et autour du 0 et du 1. Grâce aux bits, l'ordinateur va alors transmettre l'image, le son et la vidéo en suivant le code binairecode binaire. Avec l'arrivée des standards ASCIIASCII, on a commencé à passer du bit numérique à l'octet et les performances informatiques n'ont jamais cessé de croître.

    Alors que le début de l'informatique en 8 bits, c'est-à-dire à 16 Ko de mémoire adressée. Aujourd'hui, avec des processeurs puissants avec jusqu'à 8 Go de RAMRAM, les ordinateurs peuvent traiter jusqu'à 64 bits, ou 2*64 qui correspond à 16 Eo. Le standard ASCII a permis de donner une place précise à chaque élément pour stocker des données et les utiliser de différentes manières.