On connaît la loi formulée par Gordon Moore en 1964 : le nombre de transistors qui peuvent être intégrés dans une puce double tous les 18 mois.

au sommaire


    La puissance de calcul, c'est-à-dire le nombre d'opérations que peut faire l'ordinateur par seconde, double également tous les 18 mois. Cette loi n'a jamais été démentie, à tel point que l'on considère aujourd'hui que le potentiel d'une simple carte de vœux jouant "joyeux anniversaire" lorsqu'on l'ouvre est supérieure à la totalité de la puissance de calcul existant sur Terre dans les années 1950. Mais ces progrès n'ont de sens que si les microprocesseurs ont à leur disposition des volumesvolumes de données plus importants et plus rapidement accessibles. D'où l'enjeu de l'évolution des capacités de mémoires.

    Celles-ci ne progressent pas de manière exponentielle, mais plutôt par une série de périodes de croissance linéaire, entrecoupées de sauts technologiques, comme le passage de l'enregistrement magnétique (sur disquette) à l'enregistrement optique (sur CD-ROMCD-ROM). Il n'existe pas de limite théorique à la croissance de la capacité mnésique. En revanche, l'augmentation des puissances de calcul devrait atteindre un palier à l'horizon 2020, lorsqu'il ne sera plus physiquement possible de réduire la taille des transistors.

    Sauf si de nouvelles révolutions, comme l'ordinateur quantiqueordinateur quantique, interviennent d'ici là.