Cette partie va rassembler des textes de recherche sur le Quantique.

 

Quantum computing et au-delà

Quantique mon amour, et surtout celui des investisseurs en cette année de tous les records. Pitchbook nous annonçait déjà en septembre dernier que la barre symbolique du milliard de dollars investis dans des entreprises de quantum computing avait été franchie. Les plus aguerris, qui combinent un intérêt pour ce domaine de la physique et des poches pleines de capitaux, diront que ce n’est que le début.

Pour se plonger dans ce subtil monde des quanta et autres phénomènes perturbants à plus d’un titre, rien de tel que de se familiariser avec la série de Florian Fischbacher intitulée “Le Mystère Quantique” et publiée l’été passé dans les colonnes du journal hôte.

Intéressons-nous au monde de l’innovation et des entreprises actives dans le secteur. 2021 aura été marquée par le giga tour de financement de 450 millions de dollars PsiQuantum (mené par BlackRock) dont la valorisation a bondi à plus de 3.1 milliards de dollars. Notons encore l’entrée en bourse de Rigetti (via une SPAC), à l’instar de celle d’Arqit Quantum (idem) ou encore celle d’IonQ. Enfin, Honeywell Quantum Solutions et Cambridge Quantum annonçaient leur fusion pour donner lieu à Quantinuum. Tout compte fait, cela fait un certain temps que l’on assiste à des projets menés par:

  • Google, qui a lancé un partenariat avec notamment la NASA pour créer son propre laboratoire QuAIL;
  • Intel, qui a annoncé avoir passé la barre des 100 qubits;
  • Microsoft, qui a développé Q#, son propre langage de programmation open source, qui sera utilisé pour développer et exécuter des algorithmes quantiques.
  • et d’autres encore…

Dans une vidéo récemment publiée par Verve Ventures, une analyste indique que toute l’activité dans ce secteur est le fruit d’une petite centaine d’entreprises, principalement réparties aux États-Unis (large soutiens politique et financier à la recherche), en Chine (qui a désigné les technologies quantiques comme prioritaires lors de son précédent plan quinquennal) et en Europe (Quantum Technologies Flagship lancé par la Commission Européenne en 2018). On pourrait donc qualifier cela de buzz mais cela ne serait pas honorer l’immense potentiel que la physique a à offrir avec toutes les applications possible. Focalisons-nous donc sur les principes sous-jacents pour mieux comprendre.

Tout d’abord, ces ordinateurs quantiques exploitent les propriétés de très petites particules, plus particulièrement de quelle façon elles interagissent. Dans un ordinateur classique, on traite avec des “bits”, à savoir des 1 et des 0. L’équivalent quantique est désigné comme un quantum bit ou plus simplement “qubit” et possède trois propriétés qui le rendent très intéressant d’un point de vue informatique:

  1. Superposition: à la différence d’un bit classique qui ne peut être que dans un seul état (0 ou 1, p.ex. le courant passe ou ne passe pas), le qubit peut être dans un état où les états 0 et le 1 sont superposés et où les états intermédiaires co-existent en même temps d’une certaine manière. Ce qui nous mène à la seconde propriété.
  2. Réduction de l’onde: lors de la mesure d’un système (p.ex. on veut observer dans quel état est le qubit à moment donné), le fait d’observer un système influence celui-ci et “détruit” la superposition. Pensons à l’expérience du chat de Schrödinger qui exemplifie cette situation qui a donné lieu à de longues discussions philosophiques.
  3. Intrication: deux particules intriquées partagent une forme de connexion très puissante; même extrêmement éloignées l’une de l’autre, au moment où vous modifiez l’état de l’une, quel que soit l’endroit où se trouve l’autre, elle prendra instantanément la même valeur (ce qu’Einstein décrivait comme une spooky action at a distance). Le brillant scientifique Alain Aspect parle de cette propriété et de ses démarches pionnières dans une passionnante interview sur France Culture.

Acceptant cette réalité des particules quantiques, on accède à de fantastiques opportunités de calcul. Par exemple, si l’on considère deux bits classiques, on peut obtenir quatre combinaisons (00, 01, 10, 11) alors qu’un seul qubit peut décrire toutes les combinaisons possibles grâce au principe de superposition susmentionné. On peut donc facilement comprendre le potentiel de scalabilité de tels système: 2 qubits pourraient décrire les combinaisons de 4 bits classiques, et 10 qubits: 2^10 bits, ce qui équivaut à plus de mille bits (1’024 pour être précis). Certains problèmes compliqués pour un ordinateur classique deviennent donc très accessibles à un ordinateur quantique (p.ex. étudier la meilleure route à suivre parmi toutes les possibilités, identifier des molécules candidates pour un médicament, résoudre des problèmes de machine learning, etc.).

Au niveau technologique, plusieurs approches concurrentes s’affrontent et se distinguent par le type de particules utilisé pour créer des qubits: électrons, atomes ou photons. Chacune présente des avantages et des inconvénients.

  • Électrons : proximité relatives aux architectures d’ordinateurs classiques, sensibilité à la perturbation (ce qui requiert des températures extrêmement basses), influence seule du plus proche voisin (donc un grand nombre d’électrons est nécessaire), etc.
  • Atomes: nécessité d’avoir des champs électriques ou magnétiques (car ce sont des particules chargée qui nécessitent d’être confinées), uniformité du système, pluralité des connexions inter-particules, intrication facilitée, stabilité nécessaires (vide et basse température), etc.
  • Photons (particule composante de la lumière, sans masse): la plupart des composants utilisent la lumière comme activation donc on peut tirer parti des composants actuels en utilisant des photons comme qubits, même potentiellement à température ambiante; difficulté de créer des photons spécifiques sur demande, etc.

En l’an 2000, le scientifique DiVincenzo postulait des critères éponymes qui décrivent les conditions nécessaires à la construction d’un ordinateur quantique, à savoir: a) scalabilité d’un système avec des qubits bien définis, b) initialisation des qubits dans un état repère (fiducial state), c) temps de décohérence très longs (i.e. longs intervalles avant que les qubits ne soient perturbés), d) set universel d’opérations quantiques (quantum gates), e) capacité de mesure spécifique au qubit (étant donné que le seul fait d’observer perturbe l’état du qubit).

Au final, il est très probable qu’une combinaison habile entre ordinateurs classiques et quantiques se profile afin de tirer le meilleur de leurs différents fonctionnements, parfois complémentaires. Aussi, la question des logiciels quantiques se pose car bien qu’une fois les machines créées, leurs approches sont fondamentalement différentes d’un point de vue physique et les calculs se feront donc de manière différente. Mais parler d’algorithme quantique signifie également monter dans la pyramide de valeur, ce qui pointe vers un développement croissant de l’écosystème général.

Article publié sur : Carnets de l’innovation

Blog de M. Philippe Labouchère

Le 8 décembre 2021

Un nouveau moyen de stocker l’information quantique ?

Le qubit représente la plus petite unité de stockage d’information quantique. Si plusieurs expérimentations dans le monde ont permis de prouver son existence, les quelques systèmes quantiques développés jusqu’à présent commettent encore beaucoup d’erreurs et ne sont pas utilisables en pratique. Une équipe internationale de chercheurs présente aujourd’hui un nouveau type de qubit, capable de stocker l’information de manière beaucoup plus fiable.

Ce nouveau qubit fait l’objet d’une étude qui vient de paraître dans Physical Review X, menée par Fabio Pistolesi, chercheur au CNRS, Andrew N. Cleland, de l’Université de Chicago et Adrian Bachtold, de l’Institut pour la science et la technologie de Barcelone.

Un nouveau moyen de stocker l’information quantique ?
Publié sur Science & Vie le 16 février 2022
Réservé aux abonnés

Effet EPR : le monde quantique ne peut être construit qu’avec des nombres complexe

Article publié sur Futura Science le 29 janvier 2022 par Laurent Sacco.

Contrairement à la théorie de la relativité que l’on finit par trouver intuitive avec le temps, la théorie quantique garde toujours une part de magie et de mystère. C’est en partie en raison des outils mathématiques qu’elle utilise, combinant une algèbre non commutative et des nombres complexes. Des expériences viennent de montrer que contrairement à ce qui se passe en physique classique, les nombres complexes n’y sont pas seulement des moyens élégants d’exprimer par le plus court chemin des relations entre grandeurs physiques décrites par des nombres réels, dont on pourrait se passer en travaillant uniquement avec ces nombres comme Schrödinger le pensait, mais sont bel et bien fondamentaux pour exprimer les équations standards de la mécanique quantique.

Il y a quelques semaines, Futura vous parlait d’un des tout derniers ouvrages grand public publiés par Carlo Rovelli au sujet du mystérieux Monde quantique et intitulé Helgoland. Dans celui-ci, il était notamment exposé la thèse que l’approche entreprise par Heisenberg pour décrire le comportement général de la matière et son interaction avec la lumière était plus profonde que celle initiée par Louis de Broglie et Einstein, magistralement développée dans une série d’articles impressionnants par Schrödinger, où celui-ci avait trouvé l’équation d’onde portant aujourd’hui son nom.

De la même façon qu’en son temps la découverte par Newton du calcul infinitésimal avait permis la révolution de la science classique, c’est en remplaçant les quantités physiques de celle-ci initialement décrite à l’aide des nombres réels par des tableaux de nombres et des équations relevant de ce que les mathématiciens du XIXe siècle ont appelé le calcul matriciel, après sa découverte, que les idées de Heisenberg ont été rapidement développées.

Les matrices de Heisenberg contenaient des nombres complexes et surtout, comme Max Born allait le montrer, devaient vérifier une algèbre non commutative avec ces nombres, impliquant que l’ordre du produit de deux matrices associées aux coordonnées X de position et P d’impulsion d’une particule de matière était important. Permuter le produit de ces matrices ne donnait pas le même résultat, de sorte que la différence des deux produits était une matrice dite unité, que multipliait un nombre complexe, plus précisément le nombre imaginaire « i ».

L’article complet : Effet EPR : le monde quantique ne peut être construit qu’avec des nombres complexes
Article publié sur Futura Science le 29 janvier 2022 par Laurent Sacco.

Les rayons cosmiques, un obstacle majeur pour le développement de l’informatique quantique

Les dernières recherches pointent du doigt une menace invisible qui pourrait bien compromettre l’avenir prometteur de l’informatique quantique.

Un nouvel article universitaire révèle une tendance inquiétante des rayons cosmiques à perturber les processeurs des ordinateurs quantiques d’une manière qui pourrait être presque impossible à contrer de manière fiable par les techniques actuelles de correction des erreurs.

Menace fantôme

L’un des principaux obstacles auxquels sont confrontés les ordinateurs quantiques est la correction des erreurs. Traditionnellement, ce problème est traité le plus souvent en regroupant plusieurs qubits, l’équivalent quantique des bits de l’informatique traditionnelle, en une sorte de comité au sein des unités de traitement quantique. Au lieu de se fier à un seul qubit, qui peut être correct ou non, le système s’appuie sur le consensus fourni par un groupe entier de qubits. Cela permet d’éliminer les valeurs aberrantes et de réduire considérablement le taux d’erreur à un point tel qu’il est extrêmement improbable qu’il interfère avec un travail de traitement en cours.

Malheureusement, à l’instar de ce qui se trame parfois dans les plus grandes œuvres de science-fiction, il semble qu’un ennemi invisible venu de l’espace puisse menacer la pérennité de cette technologie de correction des erreurs.

Un ennemi invisible (mais généralement inoffensif)

Les rayons cosmiques sont des faisceaux de particules microscopiques invisibles qui bombardent constamment la Terre depuis des sources aussi lointaines que d’autres galaxies. Ils entrent généralement en collision de manière inoffensive avec l’atmosphère de la planète, ainsi qu’avec les objets qui s’y trouvent. Heureusement, pour notre tranquillité d’esprit, ils passent généralement totalement inaperçus et ne font absolument aucun mal avant de poursuivre leur voyage cosmique.

Pour autant, mauvaise nouvelle pour les développeurs de l’informatique quantique : il semble que les processeurs quantiques soient beaucoup, beaucoup plus sensibles à ces intrus généralement inaperçus qu’ils ne le pensaient.

Vulnérabilité quantique

Un article de recherche publié dans Nature Physics a récemment révélé que l’un de ces rayons généralement inoffensifs pourrait causer un problème majeur lorsqu’il frappe un processeur quantique en fonctionnement. Selon les conclusions de plusieurs chercheurs travaillant à Google Quantum AI, un rayon cosmique frappant le cœur d’un ordinateur quantique en fonctionnement peut entraîner la formation d’une quasi-particule appelée phonon.

Ces phonons ont la capacité de perturber les opérations en inversant l’état quantique non seulement d’un seul qubit, mais aussi de tout un ensemble de qubits intriqués qui prolifèrent dans le processeur. Cela signifie qu’une attaque pourrait distribuer des erreurs à travers un ensemble entier de qubits, annulant essentiellement la protection fournie par la correction d’erreur de type comité mentionnée ci-dessus.

Dans une expérience détaillée dans l’article, les chercheurs de Google ont testé un ensemble de 26 qubits connus pour être parmi les plus fiables. Cet ensemble a ensuite été laissé dans un état de repos pendant 100 microsecondes. Lorsqu’ils sont au repos, les qubits fiables doivent généralement rester dans leur état actuel. Pour utiliser une analogie informatique binaire traditionnelle, un 1 doit rester un 1, un 0 doit rester un 0.

En moyenne, l’ensemble de 26 qubits en question a affiché un taux d’erreur d’environ 4 qubits, qui ont changé d’état par erreur au cours de la période de test de 100 microsecondes. Cela correspond bien à la capacité de la correction d’erreur intégrée à compenser en s’appuyant sur la majorité restante de 22 qubits. Cependant, lors de l’attaque confirmée des rayons quantiques, 24 des 26 qubits ont basculé par erreur dans l’état opposé. Ce résultat dépasse largement la capacité de la correction d’erreur traditionnelle à compenser. Un tel résultat placerait l’ensemble du groupe en erreur et pourrait remettre en question la continuité de l’ensemble du travail de traitement.

Une situation inextricable ?

Les interférences des rayons cosmiques n’ont rien de nouveau. Comme Ars Technica l’a noté, ils peuvent également interagir avec les CPU traditionnels en perturbant les charges électriques sur lesquelles elles s’appuient pour effectuer leurs opérations logiques. Toutefois, la structure unique et encore en développement des processeurs quantiques les rend beaucoup plus vulnérables à ces interférences. Les recherches de Google indiquent qu’une erreur due aux rayons cosmiques se produit toutes les 10 secondes. Cela signifie que les travaux de traitement d’une durée de plusieurs heures dont sont chargés la plupart des processeurs quantiques pourraient comporter des centaines, voire des milliers d’erreurs dans leurs résultats.

Pour ne rien arranger, le processeur utilisé par ces chercheurs pour leurs tests était plutôt petit. Plus la demande de traitement augmente, plus la taille du processeur quantique doit augmenter. Or, plus le processeur est grand, plus la surface sur laquelle peut se produire une collision avec un rayon cosmique est importante. Il semble que la menace d’erreurs forcées ne fera que s’aggraver à mesure que les processeurs quantiques se rapprochent des applications pratiques.

Ne pouvons-nous pas construire des boucliers déflecteurs ou quelque chose du genre ?

Malheureusement, il n’existe aucun moyen pratique de bloquer de manière fiable ces voyageurs intergalactiques problématiques. Après tout, ils se déplacent presque à la vitesse de la lumière. Toutefois, comme le souligne Ars Technica, des solutions de contournement astucieuses ont déjà été mises au point pour aider des appareils tels que les équipements d’imagerie astronomique à faire face aux interférences des rayons quantiques. Bien que l’article n’explore pas spécifiquement la viabilité de ces solutions potentielles, elles semblent indiquer que le problème de l’interférence des rayons cosmiques est surmontable.

De nouveaux algorithmes quantiques pour résoudre des équations non linéaires

Deux équipes ont trouvé des approches différentes pour résoudre des systèmes non linéaires à l’aide d’ordinateurs quantiques en les approchant par des systèmes linéaires.

Dans certaines situations, il est facile pour un ordinateur de prédire l’avenir. Des phénomènes simples, comme la manière dont la sève coule le long d’un tronc d’arbre, peuvent être capturés en quelques lignes de code à l’aide de ce que les mathématiciens nomment des équations différentielles linéaires. Mais dans les systèmes non linéaires, des éléments peuvent influer sur eux-mêmes : lorsque l’air circule autour des ailes d’un avion, le flux d’air modifie les interactions moléculaires, qui modifient en retour le flux d’air, etc. Ces boucles de rétroaction peuvent engendrer des phénomènes chaotiques : de petits changements dans les conditions initiales conduisent à un comportement radicalement différent par la suite, ce qui rend les prédictions presque impossibles – quelle que soit la puissance de l’ordinateur utilisé.

« C’est en partie pour cette raison qu’il est difficile de prédire la météo ou de comprendre le comportement des flux complexes de fluides », explique Andrew Childs, chercheur en information quantique à l’université du Maryland. « Certains problèmes de calcul ardus pourraient être résolus si on arrivait à comprendre ces dynamiques non linéaires. »

Cela pourrait bientôt être possible. Dans des études indépendantes publiées en novembre 2020, deux équipes – l’une dirigée par Andrew Childs, l’autre au MIT (l’institut de technologie du Massachusetts) – ont décrit de nouveaux outils qui devraient permettre à des ordinateurs quantiques de mieux modéliser la dynamique non linéaire.

L’article complet : De nouveaux algorithmes quantiques pour résoudre des équations non linéaires
Publié sur Pour la Science le 11 juin 2021 par Max Levy

Cette puce révolutionnaire utilise des ondes sonores au lieu des électrons

Cette preuve de concept très intéressante pourrait faire beaucoup de bruit dans le petit monde de l’informatique quantique.

Des chercheurs de la prestigieuse Université d’Harvard viennent de dévoiler une puce informatique unique en son genre. Contrairement aux circuits traditionnels, où l’information voyage à la faveur du courant électrique, cet engin fonctionne sur des bases physiques très différentes ; l’information y est en effet transportée par des ondes sonores.

Le concept a de quoi surprendre, tant cette discipline semble aujourd’hui indissociable de ce fonctionnement basé sur le transfert de charge électrique. Pourtant, les bases conceptuelles de cette technologie telles que définies par son père fondateur Alan Turing sont complètement indépendantes de l’électricité.

Les ondes sonores, un vecteur d’information très prometteur

Le courant électrique est un formidable vecteur d’information. Mais il a aussi tendance à n’en faire qu’à sa tête. Il peut aisément emprunter un mauvais chemin si on lui en donne l’occasion, par exemple lors d’un court-circuit. Cela impose aux constructeurs de prendre tout un tas de précautions au moment de la conception de ces circuits pour éviter que le courant ne voyage de façon anarchique.

Les ondes sonores, en revanche, sont beaucoup plus « faciles à confiner dans des structures à l’échelle nanométrique », expliquent les chercheurs. De plus, elles ont aussi l’avantage d’interagir très peu entre elles, ce qui permet de limiter considérablement les signaux parasites. Des arguments qui offrent un certain potentiel à cette technologie en informatique traditionnelle, et surtout du côté des ordinateurs quantiques.

Malheureusement, les progrès de cette approche ont été stoppés dans leur élan à cause de certaines lacunes technologiques. Jusqu’à présent, personne n’avait réussi à produire un système capable d’exercer un contrôle suffisamment fin sur les ondes sonores. Ce manque de précision fermait la porte à la production d’un système informatique complet basé sur ce concept.

Un gros potentiel, notamment en informatique quantique

Pour cette raison, jusqu’à présent, les chercheurs n’avaient construit que des puces acoustiques passives qu’il était impossible de contrôler. Mais ces nouveaux travaux viennent apparemment de faire sauter ce verrou une fois pour toutes. « Nos travaux montrent que nous pouvons contrôler ces ondes sonores […], ce qui nous rapproche du premier circuit intégré acoustique », se félicite Loncar.

Pour y parvenir, ils ont imaginé un modulateur acoustique qui génère un champ électrique. Ce dernier permet de guider l’onde sonore en contrôlant précisément toutes ses propriétés, à savoir sa la phase, sa fréquence et son amplitude. Et cela permet donc de réaliser les opérations logiques qui sont à la base du fonctionnement des ordinateurs.

La preuve de concept est donc bien en place. Désormais, les chercheurs vont s’attaquer à l’étape suivante. Ils tâcheront de construire un système acoustique plus complexe, à grande échelle et capable de communiquer avec d’autres machines, notamment des ordinateurs quantiques.

Il sera donc intéressant de voir dans quelle mesure ces puces acoustiques, mais aussi les autres technologies exotiques basées sur des concepts comparables comme les puces photoniques, permettront d’accélérer le développement de l’informatique quantique.

Article complet a lire : Cette puce révolutionnaire utilise des ondes sonores au lieu des électrons
Publié sur Le Journal du Geek le 30 juin 2022 par Antoine Gautherie

Publication scientifique :  Electrical control of surface acoustic waves
Publié sur Nature Electronics le 3 juin 2022

Une percée majeure vers l’internet quantique

Des chercheurs ont réussi à allonger la portée d’une communication quantique en utilisant une sorte de relais.

Des chercheurs ont franchi une étape clé vers un internet quantique ultra-sécurisé, en créant un réseau rudimentaire d’échange d’informations par téléportation à trois temps, ont-ils révélé 25 mai 2022 dans une étude.

Des particules enchevêtrées

Un internet quantique – qui ne devrait pas voir le jour avant une dizaine d’années (ndlr : pour le moins) – sera un réseau à grande échelle connectant les utilisateurs via des applications inédites et « impossibles à réaliser avec le web classique », explique à l’AFP Ronald Hanson de l’Université de Delft (Pays-Bas), co-auteur de ces travaux parus dans la revue Nature. L’échange d’informations s’y fera non sous la forme de bits classiques – les 0 et 1 à la base de l’informatique – mais de bits quantiques (qubits).

Ces qubits exploitent les lois de la physique quantique, qui régit le monde à l’échelle de l’infiniment petit. L’une de ces propriétés est l’intrication, un étrange phénomène par lequel deux particules enchevêtrées se comportent de manière identique quelle que soit la distance les séparant : comme reliées par un fil invisible, elles partagent un même état.

L’état d’un qubit enchevêtré est ainsi partagé avec l’autre, et leur coordination est si parfaite qu’on parle de téléportation : en théorie, toute modification des propriétés de l’un modifie instantanément celles de l’autre, même à l’autre bout de la Terre. Les bits quantiques peuvent actuellement se transmettre par l’intermédiaire de fibres optiques, mais la téléportation reste limitée : au-delà d’une centaine de kilomètres, le signal s’atténue voire se perd. Si on veut maintenir l’intrication de bout en bout, il faut que les qubits soient directement reliés par une « chaîne » quantique.

La suite de cet article : Une percée majeure vers l’internet quantique
Publié sur Science et Avenir le 25 mai 2022

Une histoire de l’intrication quantique

L’intrication quantique est un phénomène qui lie intimement les propriétés de deux particules, quelle que soit la distance qui les sépare. Cela conduit à des effets si étranges qu’Albert Einstein lui-même en doutait ! Le débat fut tranché en 1982, lorsqu’ Alain Aspect réalisa à l’Institut d’Optique une expérience démontrant la réalité physique de l’intrication quantique sur des particules de lumière – des photons. Depuis, l’intrication est devenue un outil essentiel pour mettre au point des dispositifs de cryptographie ultra-performants et concevoir des ordinateurs quantiques. Les chercheurs ont poursuivi l’étude de ce phénomène quantique fondamental et ont pu étendre le champ d’application de ce processus à de nouveaux domaines de la physique. Voici l’histoire de cet étrange phénomène, depuis le débat conceptuel des années 30 jusqu’aux expériences contemporaines menées au sein des laboratoires.

Quelques articles sur des sujets que j’envisage de développer

C’est un peu en vrac :

Comment l’informatique quantique va révolutionner la recherche médicale

La promesse d’accélérer le développement de nouveaux médicaments tout en personnalisant les traitements se dessine. De nombreuses sociétés de deep tech, dont la française Qubit Pharmaceuticals, sont sur les rangs.

 

Si la promesse d’un ordinateur quantique ne se concrétisera pas avant, au mieux, une dizaine d’années se pose déjà la question de définir les cas d’usage associés. En s’appuyant sur des qubits qui peuvent exister simultanément dans plusieurs états, l’informatique quantique offrira une formidable puissance de calcul qui reléguera au passé les supercalculateurs actuels, reposant sur des bits traditionnels. Ce saut quantique pourra être mis à profit pour affiner les prévisions météorologiques, optimiser la gestion d’une chaîne logistique ou, dans le domaine de la cybersécurité, proposer des algorithmes cryptographiques a priori inviolables. La recherche médicale est une autre piste particulièrement prometteuse qu’il s’agisse d’accélérer la découverte de nouveaux médicaments ou de concevoir des thérapies personnalisées.

Comme le rappelle le cabinet BCG dans une note, la recherche de nouvelles molécules est « une entreprise coûteuse, longue et risquée ». De sa découverte à son lancement, le processus prend généralement de 10 à 15 ans. Le coût global peut dépasser les 2 milliards de dollars pour un taux de réussite inférieur à 10% entre l’entrée en phase clinique et la mise sur le maché du médicament. Aussi, les laboratoires comptent sur « leurs quelques médicaments vedettes pour amortir les plus de 180 milliards de dollars que l’industrie dépense chaque année en R&D ».

Modélisation des structures moléculaires

Cette industrie pharmaceutique fait déjà appel au calcul haute performance ou HPC (pour high performance computing). Les supercalculateurs permettent d’effectuer une modélisation des structures moléculaires, de cartographier des interactions entre une molécule et sa cible en simulant le métabolisme du corps humain. Cette modélisation computationnelle e s’applique toutefois qu' »aux structures moléculaires relativement simples », rappelle le BCG.

Comme le note un article du site Caducee.net, les molécules biologiques sont par nature d’une complexité rare. Y interagissent protéines, sucres, graisses, ADN, ARN et une infinité de marqueurs chimiques. Le tout changeant de forme ou de propriété en fonction de la température, de la pression ou de la salinité. Dans son billet, le BCG cite IBM qui a calculé que « la modélisation complète et précise de l’énergie de base de la molécule de pénicilline, composée de 41 atomes, nécessiterait un ordinateur classique avec plus de transistors qu’il n’y a d’atomes dans l’univers observable ».

Pour le cabinet d’études, l’informatique quantique pourrait assurer cette simulation moléculaire mais aussi prendre en charge le « criblage virtuel » en passant en revue de vastes bibliothèques de composés puis en validant leur intérêt par rapport à la cible. À terme, elle pourrait permettre la découverte « in silico » de médicaments de bout en bout. Des start-up développent d’ores et déjà des outils de criblage virtuel qui utilisent des représentations 3D de molécules dérivées de la mécanique quantique pour déterminer les interactions entre les médicaments et leurs cibles.

Pour autant, les machines quantiques actuellement disponibles présentent, rappelle le BCG, « de graves lacunes liées à la capacité, à la stabilité et à la fiabilité ». Il faudra donc patienter encore quelques années pour que l’amélioration des techniques d’atténuation des erreurs, le développement de nouveaux algorithmes et l’optimisation des plateformes matérielles permettent de prendre en charge les premières applications opérationnelles.

L’approche hybride de Qubit Pharmaceuticals

Des start-up pionnières comme ProteinQure, Qulab, XtalPi, Menten AI, Rahko (rachetée par Odyssey Therapeutics) ou BenevolentAI anticipent déjà ce saut quantique. Associées ou non à des laboratoires, elles travaillent sur des algorithmes quantiques susceptibles d’accélérer la découverte de médicaments.

Basé à Paris et à Boston, le français Qubit Pharmaceuticals fait partie des sociétés de deeptech les plus en vue. Fondée en 2020 par cinq chercheurs issus d’institutions prestigieuses en France (Cnam, CNRS, Sorbonne) et aux Etats-Unis (Université du Texas à Austin, Université de Washington à Saint Louis), la société a adopté une approche hybride, à la fois classique et quantique. Baptisée Atlas, sa plateforme logicielle entend tirer le meilleur parti des supercalculateurs existants ou émergents tout en anticipant l’arrivée des ordinateurs quantiques.

En créant des jumeaux numériques des molécules physiques, Qubit Pharmaceuticals accélère « les calculs d’un facteur 100 000 réalisant en quelques heures des calculs qui nécessitent plusieurs années par des voies conventionnelles ». Alors qu’elle a récemment noué un partenariat avec Nvidia pour en utiliser les processeurs graphiques (GPU), la société se donne pour objectif de réduire par deux le temps nécessaire pour cribler et sélectionner un candidat-médicament d’intérêt tout en divisant par plus de dix les investissements à consentir.

Qubit Pharmaceuticals prévoit, par ailleurs, de construire un portefeuille de dix candidats-médicaments dans les domaines de l’oncologie et des maladies inflammatoires. En décembre dernier, la start-up a remporté le HPC Innovation Excellence Award 2022 récompensant les résultats de son programme de recherche portant sur la découverte d’inhibiteurs de la protéase principale du virus SARS-CoV-2, ce qui ouvre la voie à de nouveaux traitements contre la Covid-19.

Directeur général et cofondateur de Qubit Pharmaceuticals, Robert Marino ne croit pas une bascule en mode big bang dans le monde quantique. « Le HPC sera là encore pendant de nombreuses années. Pour autant, il s’agit d’anticiper l’arrivée de l’informatique quantique. Notre équipe pluridisciplinaire composée de mathématiciens, de chimistes, d’informaticiens travaille déjà sur l’algorithmie éligible aux futurs ordinateurs quantiques », indique-t-il.

A ce stade, Robert Marino voit trois cas d’usages où l’informatique quantique montrera tout sa pertinence. En plus de sa puissance de calcul qui permettra de gagner un temps considérable dans la recherche de nouvelles molécules, elle permettra de réduire le taux d’erreurs et de consommer moins d’énergie qu’une plateforme conventionnelle.

Diagnostic affiné et thérapie personnalisée

L’informatique quantique ne se limitera pas à la découverte de médicaments. Elle devrait être mise à contribution pour analyser des images médicales ou des résultats médicaux, affiner le diagnostic et détecter des maladies à un stade particulièrement précoce. Dans un second temps, elle permettra de définir les thérapies les plus adaptées à un patient donné en passant en revue différentes combinaisons possibles. Un scenario particulièrement pertinent pour les malades qui ne répondent pas efficacement aux traitements conventionnels.

Selon le site Inside Quantum Technology News, le Centre allemand de recherche sur le cancer (DKFZ) travaille sur cette piste afin de proposer des traitements personnalisés dans le domaine de l’oncologie. Au cours de leur maladie, les personnes atteintes de cancer accumulent souvent jusqu’à 100 To de données individuelles entre les valeurs sanguines et tumorales ou les données de séquençage. Cette information abondante n’est toutefois pas pleinement exploitée et ces patients reçoivent, finalement, un traitement standard. L’informatique quantique pourrait changer la donne.

Publié sur Le Journal du Net par Xavier Biseul le 31 août 2023