Revenir au site

Un pas vers l’ordinateur du futur (03/10/16)

Un pas vers l’ordinateur du futur

Infiniment miniaturisés, démesurément puissants. Les microprocesseurs n’en finissent pas d’évoluer pour améliorer la performance des machines. Mais l’avenir des supercalculateurs passe aussi par l’ordinateur quantique.

Dans la course à l’analyse de données toujours plus nombreuses, les chercheurs en informatique doivent désormais faire preuve d’une imagination débordante pour contourner un goulot d’étranglement : quelles technologies inventer pour que l’information parvienne plus vite aux microprocesseurs en charge de son traitement ? En clair, la chaîne qui passe de la mémoire de stockage à la puce, en passant par la mémoire vive qui traite l’information, est trop lente et ne suffit plus à analyser une masse de données toujours plus grande du fait des nouvelles attentes ; notamment celles liées à l’intelligence artificielle. Pour répondre à cet enjeu de rapidité de traitement de l’information, les fabricants de microprocesseurs (Intel, Altera, Micron…), aidés par les laboratoires des plus prestigieuses universités, s’activent à créer de nouvelles architectures qui accéléreraient la circulation des bits, ce langage de base informatique identifié par la fameuse combinaison binaire entre le « 0 » et le « 1 ». C’est dans ce contexte de course à la puissance et à la miniaturisation que Microsoft vient d’annoncer l’intégration d’un nouveau type de puce dans ses data centers[1]. Ces nouveaux circuits intégrés, dénommés « FPGA[2] » pour « Field Programmable Gate Arrays », à traduire par « réseau de portes programmables », se différenciant des processeurs traditionnels par leur capacité à être reprogrammés pour exécuter de nouvelles tâches. Au final, ces microprocesseurs nouvelle génération étant utilisés pour améliorer les performances des algorithmes des moteurs de recherche ainsi que pour démultiplier les performances des applications de reconnaissance faciale, assistants vocaux et autres applicatifs de traduction instantanée d'un langage à un autre.

Fin de la loi de Moore ?

Les microprocesseurs, toujours plus petits et puissants, pourront-ils encore progresser au même rythme que ceux développés au cours des dernières années et qui ont rendu possible le déploiement massif de l’informatique dans nos vies ? Autrement dit, les meilleures choses ont-elle une fin n’en déplaise à Gordon Moore, fondateur d’Intel qui, en 1965, avait écrit[3] que tous les 2 ans, le nombre de transistors logés sur un microprocesseur est multiplié par 2. Cette « loi de Moore », exponentielle, s’est ainsi vérifiée au cours des 40 dernières années amenant les puces à entrer dans l’ère des nanomètres (10–9 mètre) avec, en 2014, les premières puces gravées en 14nm (environ 5000 fois plus fin qu’un cheveu) et prochainement le passage attendu au 10nm, voire au 7nm (probablement vers 2020). A cette taille, nous sommes aux confins de l’atome. Les particules élémentaires de ces composants électroniques deviennent instables du fait notamment de la chaleur dégagée par les processeurs, obligeant leurs fabricants à compenser ces problèmes sans pour autant se résigner à faire diminuer la puissance de calcul. Avec cette miniaturisation extrême, est-ce la fin programmée du progrès informatique ? Les scientifiques s’activent pour contourner cet obstacle de l’infiniment petit en travaillant sur de nouveaux matériaux (germanium, graphène…) ou en ayant recours à la physique quantique appliquée à l’informatique.

L’ère de l’informatique quantique

Dans cette guerre des supercalculateurs où seule compte la puissance de calcul (le critère de mesure étant le petaflop : 1 petaflop équivaut à 1 million de milliards d’opérations de calculs à la seconde. L’ordinateur le plus puissant est en Chine affichant une capacité de 33 petaflops depuis 2013) les tenants de l’informatique quantique pensent possibles de dépasser ces puissances de calcul en créant des supermachines dotées de caractéristiques inégalées. Pour imaginer ces machines du futur, dont certaines existent déjà, il faut basculer dans le monde de la physique quantique, cette branche de la physique née au XXème siècle et qui s’intéresse au comportement des atomes et des particules. Dans cette sorte de « quatrième dimension », l’informatique se pense avec des circuits électroniques d’un genre nouveau. En caricaturant à l’extrême, avec l’ordinateur quantique, l’information de base (le bit) n’a plus besoin d’être dans un état donné (« 0 » OU « 1 ») mais peut être, simultanément, dans 2 états à la fois (« 0 » ET «1 »). Cette démultiplication de la matière permet de faire plusieurs choses en même temps, en l’occurrence des milliards de calculs en parallèle. L’ordinateur quantique (D-Wave) que Google et la Nasa ont révélé à la presse à la fin de l’année dernière[4] est à ce titre environ 100 000 millions de fois plus rapide qu’un ordinateur traditionnel en faisant en 1 seconde ce qu’une machine «classique» ferait en 10 000 ans. Face aux besoins des industriels pour modéliser les trajectoires d’une sonde spatiale, inventer la voilure de l’avion du futur, créer de nouvelles combinaisons de molécules pour imaginer les médicaments de demain, produire de nouveaux algorithmes et bien sûr perfectionner l’intelligence artificielle… l’ordinateur quantique est à la fois une promesse d’évolution radicale et une profonde rupture technologique. Ressemblant aux premiers ordinateurs des années 50 (ayant à peu près les mêmes dimensions qu’une cabane de jardin[5]), cette machine d’un nouveau genre a ses propres contraintes. Protégée et isolée du monde extérieur, elle est dotée d’un système de refroidissement à l’hélium liquide générant le zéro absolu −273,15 °C afin de permettre aux bits quantiques (qbits) de circuler de manière optimale.

A quand ce genre d’ordinateurs quantiques pour le plus grand nombre ? Difficile à prévoir tant nous ne sommes qu’au début de cette révolution informatique et physique qui, sur de nombreux aspects, nous rappelle que l’on oscille ici entre messianisme numérique et science-fiction.

Retrouvez mes chroniques parues sur le blog latribune.fr