Connue plutôt pour être l’une des capitales mondiales pour les secteurs bancaire et financier, Zurich accueille l’un des 12 centres de recherche d’IBM, dans lequel la synergie entre cloud, intelligence artificielle et informatique quantique dessine les contours des nouvelles technologies de demain.


au sommaire


    IBMIBM nous ouvre les portesportes du futur. Accessible exceptionnellement pour une visite presse, le centre de recherche de Zurich a dévoilé quelques-unes des innovations qui feront l'informatique de demain. L'histoire parle pour lui, car il a accueilli pas moins de quatre lauréats du prix Nobel de physiquephysique : Gerd Binnig et Heinrich Rohrer en 1986 pour l'invention du microscope à effet tunnel, suivis un an plus tard par Georg Bednorz et Alex Müller pour la découverte de la supraconductivitésupraconductivité à haute température. Créé en 1956, il héberge 3.000 chercheurs permanents issus de 45 pays, avec des spécialités de pointe assez variées : computer scientists, biologistes, chimistes... « Ici se prépare le futur des technologies de l'informatique avec une synergiesynergie entre cloud, intelligence artificielle et informatique quantique », se réjouit Alessandro Curioni, directeur du centre.

     Les recherches sur l'informatique optique s'intensifient. © Thibault Caudron
    Les recherches sur l'informatique optique s'intensifient. © Thibault Caudron

    Informatiques optique et quantique

    Parmi les sujets de recherche, l'informatique optique par exemple, que nous découvrons au détour d'un des nombreux longs couloirs qui donnent un aspect mystérieux à ce laboratoire du futur. Pour remplacer l'électricité par la lumièrelumière, ici sont testés des « supercristaux » assemblés à partir d'une nouvelle classe de matériaux optoélectroniquesoptoélectroniques, les nanocristaux de pérovskitepérovskite, qui pourraient conduire au développement de nouveaux matériaux et structures photoniques, 100 fois plus rapides et 100 moins énergivores que les transistors actuels. Mais la star incontestée du laboratoire, c'est le fameux ordinateur quantiqueordinateur quantique qui se dévoile à nos yeuxyeux, enfin en tout cas une partie, celle qui permet de maintenir le processeur supraconducteursupraconducteur à une température proche du zéro absoluzéro absolu (-273,15 °C).

    L'informatique quantique exige que le processeur supraconducteur soit à une température proche du zéro absolu. © Thibault Caudron
    L'informatique quantique exige que le processeur supraconducteur soit à une température proche du zéro absolu. © Thibault Caudron

    L’informatique quantique, du rêve à la réalité

    Selon Alessandro Curioni à propos de l'informatique quantique, « ce qui était encore de l'ordre du rêve il y a encore quatre ou cinq années est en train de se concrétiser avec des roadmaps, des couches applicatives et des bénéfices dans un nombre de secteurs croissants ». IBM a d'ailleurs défrayé la chronique il y a à peine un mois avec Eagle, le processeur quantique de 127 qubits, le premier à passer la mythique barre des 100. Le nombre des qubitsqubits est l'un des trois éléments qui permet de qualifier la puissance quantique. Les deux autres sont la qualité, représentée par le volumevolume quantique, et la vitessevitesse de traitement déterminée par une nouvelle unité de mesure : le CLOPS (Circuit Layer Operations per Second). Grâce à tout cela, un ordinateur quantique promet de réaliser en quelques minutes des calculs qui prendraient actuellement jusqu'à des centaines d'années...

    Think Lab, d'IBM. © Thibault Caudron
    Think Lab, d'IBM. © Thibault Caudron

    Le monde est-il prêt à l’informatique quantique ?

    C'est tout l'enjeu de l'informatique quantique : résoudre des problèmes complexes ou traiter des massesmasses colossales de données grâce à des capacités de calcul démultipliées. « Mais le monde est-il prêt à cela ? », questionne Heike Riel, Quantum Lead Europe and Africa pour IBM. Si les recherches avancent à grands pas, il s'agit donc aussi de réfléchir aux futures réglementations nécessaires autour de cette technologie émergente, mais aussi de développer les collaborations pour en observer les risques et les opportunités, donc prendre les bonnes décisions quand la technologie sera disponible, multiplier les tests pour que les frontières de l'imagination s'ouvrent avec ces nouvelles capacités.

    RoboRXN d'IBM. © Thibault Caudron
    RoboRXN d'IBM. © Thibault Caudron

    Synthétiser des molécules à distance avec RoboRXN

    Par exemple, de « nouveaux algorithmes quantiques que nous avons développés pourraient permettre une analyse des risques des portefeuilles d'investissement en temps quasi réel. Aujourd'hui, de telles analyses peuvent prendre plusieurs heures à effectuer, de sorte qu'une réaction immédiate aux circonstances changeantes est impossible », explique Stefan Woerner, responsable de la recherche et des logiciels pour les applicationsapplications quantiques chez IBM. Autre innovation majeure conçue entre ses mursmurs : le système RoboRXN qui combine intelligence artificielle, cloud et automatisation pour révolutionner la R&D à la découverte de nouveaux matériaux. Associé au logiciel développé en open source Qiskit pour la chimiechimie, il permet à distance de synthétiser de nouvelles moléculesmolécules, de concevoir une procédure chimique qu'un robot de laboratoire peut exécuter, le tout à distance !

    Le renouveau du stockage sur bande magnétique

    Tout cela va produire de la donnée, encore plus que maintenant. Selon Mark Lantz, manager Cloud FPGAFPGA and tape technologies pour IBM, « en raison de l'essor continu de l'Internet des objets, de l'émergenceémergence des vidéos haute définition et des analyses de données volumineuses basées sur l'IA, les données mondiales devraient atteindre 175 zettaoctets d'ici 2025, ce qui représente une croissance annuelleannuelle de 61 % ». IBM travaille pour cela sur la bande magnétiquebande magnétique. Aussi surprenant que cela puisse paraître, tant apparaît dans nos souvenirs la cassette VHS qu'il fallait rembobiner, mais cette technologie vieille de plus de 60 ans fait un retour en force parmi les entreprises de cloud à grande échelle pour le stockage de données en raison de son faible coût, de sa faible consommation d'énergieénergie et de son excellent potentiel d'évolution future. Elle apparaît beaucoup plus crédible que des alternatives actuellement explorées comme le stockage 3D ou dans l'ADNADN.