L’ordinateur quantique laisse entrevoir une révolution de rupture

« La réalisation effective de l’ordinateur quantique laisse entrevoir une révolution de rupture qui touchera tous les domaines industriels »

 

Les capacités de calcul inédites que promet cette technologie encore en développement vont faire surgir des applications nouvelles, note Nozha Boujemaa dans sa carte blanche au « Monde », qui rappelle que la France dispose de scientifiques de grand talent dans ce domaine.

 

La situation

L’infiniment petit ne finit pas de nous surprendre et de nous émerveiller. Au tout début de ma carrière, je construisais à la main des lasers dits à « échos de photons » et c’était magique de voir jaillir une lumière cohérente puissante avec un minimum de maîtrise de physique quantique. L’analogie avec les « échos de spin » dans le domaine magnétique m’a amenée vers l’imagerie par résonance magnétique (IRM) et ses passionnantes applications en imagerie médicale.

Ces propriétés quantiques de la matière reviennent sur le devant de la scène des sciences et technologies du numérique. Cette dualité « onde-matière », ô combien intrigante tout au long de l’histoire des sciences, stipule qu’une particule est soumise à un principe de dualité qui défie les logiques de l’échelle macroscopique et échappe à l’intuition du monde réel : un objet peut être dans plusieurs états tant qu’on ne l’a pas mesuré (la superposition quantique) ; deux objets peuvent s’influencer à distance sans aucune communication (principe de non-localité ou d’intrication quantique).

L’ordinateur d’aujourd’hui fonctionne avec des bits (binary digits) à deux états, 0 et 1. L’informatique quantique fonctionne avec des qubits constitués par des superpositions d’états entre 0 et 1, où N qubits sont équivalents à 2N états. 70 bits quantiques superposés contiennent 270 informations (1 zettabit), ce qui équivaut à toute l’information produite par l’humanité. Cet effet exponentiel a un impact fort sur la quantité de données qui sera gérée en même temps.

A l’aube d’une nouvelle ère numérique

On ne maîtrise pas encore la réalisation technologique d’un ordinateur quantique. Le fait même d’observer un système quantique le perturbe et génère des erreurs nécessitant des conditions de stabilisation utilisant des températures de − 273 °C environ avec un matériel de refroidissement très encombrant. Nous ne sommes qu’à l’aube d’une nouvelle ère numérique qui a besoin de progrès technologiques gigantesques (comme pour les premiers transistors).

La réalisation effective de l’ordinateur quantique nous laisse cependant entrevoir une révolution de rupture qui touchera tous les domaines industriels. Ses capacités de traitement de l’information à large échelle pourront par exemple casser tous les codes secrets – on parle déjà de cryptologie post-quantique –, optimiser des parcours en logistique, simuler la mécanique des fluides ou l’écoulement de l’air sur l’aile d’un avion. Les transports bénéficieront évidemment de ces applications. L’informatique quantique s’attaquera à tout ce qui nécessite des calculs intensifs habituellement irréalisables dans des temps raisonnables par un ordinateur binaire limité dans l’exploration informationnelle.

Évidemment, l’intelligence artificielle, qui est l’art et la manière de traiter utilement une quantité importante de données, se verra boostée avec un saut vers des capacités dont on ignore aujourd’hui les limites et les implications dans la vie des humains. Cela a un côté extraordinaire, mais c’est aussi un saut vers l’inconnu, même si l’humanité n’en est pas à sa première aventure fantastique avec des technologies transformantes.

La course vers la suprématie quantique est active chez beaucoup d’acteurs publics et privés dans le monde entier comme Google, IBM, Atos, D-Wave et bien d’autres. Le président de la République a annoncé, début 2021, un plan d’investissement dans le quantique de 1,8 milliard d’euros sur cinq ans. La France dispose des meilleurs spécialistes en physique quantique, dont une bonne représentation sur le plateau de Saclay.

Le chemin vers la réalisation de l’ordinateur quantique sera long mais les technologies développées en cours de route seront elles aussi bénéfiques pour la compréhension de notre monde, avec un impact dans des domaines d’application inattendus.

Carte blanche à Nozha Boujemaa : La réalisation effective de l’ordinateur quantique laisse entrevoir une révolution de rupture qui touchera tous les domaines industriels
Publie sur Le Monde le 21 avril 2021

 

L’informatique quantique pèsera 1000 milliards de dollars en 2035

Le cabinet de conseil McKinsey vient publier une série de rapports sur les deep tech.

Le premier d’entre eux concerne l’informatique quantique.

McKinsey voit la décennie à venir comme celle de l’avènement de cette technologie, qui génèrera d’après lui 1000 milliards de dollars d’ici 2035.

 

Ce rapport recommande donc que les entreprises des secteurs les plus à même de tirer parti de ces nouvelles capacités mettent en place une stratégie dès aujourd’hui. « Les positions clés se prennent aujourd’hui et les batailles technologiques se gagnent aujourd’hui, » assène Alexandre Ménard, Directeur Associé Senior chez McKinsey et coauteur du rapport.

Quatre grands domaines d’application

Cette valeur proviendra de quatre domaines d’application : la simulation quantique, l’optimisation de problèmes multi-variables, la factorisation des nombres premiers, et le machine learning quantique. L’utilisation d’ordinateurs quantiques ou pseudo-quantiques pour résoudre des problématiques d’optimisation commencera entre 2022 et 2026 d’après McKinsey. Les premiers secteurs à en bénéficier seront la finance, la logistique et la fabrication avancée. Suivront des machines suffisamment puissantes pour aider à la création de nouvelles molécules dans les industries chimique, pharmaceutique, et de la science des matériaux.

 

« Si on disposait de ces capacités aujourd’hui, nous pourrions traiter l’épidémie de Covid-19 plus efficacement, avance Alexandre Ménard. L’informatique quantique permet de développer des vaccins et médicaments plusieurs dizaines de fois plus rapidement qu’avec les techniques naturelles. Il faut espérer que la technologie soit au point d’ici à la prochaine crise sanitaire. »

Le machine learning quantique arrivera plus tard. McKinsey y voit entre autres un moyen accélérer l’entraînement de systèmes de conduite autonome. Enfin, la factorisation de nombres premiers de très grande taille, qui permettra notamment de “casser” les algorithmes de chiffrement actuels, ne sera possible au mieux qu’à la toute fin de la décennie.

Entre 2000 et 5000 ordinateurs quantiques en 2030

McKinsey estime qu’il existera entre 2000 et 5000 ordinateurs quantiques dans le monde d’ici 2030. Le cabinet met cependant en garde sur l’écosystème matériel et logiciel complexe qui sera nécessaire à l’exploitation de cette technologie. « La chaîne de valeur est complexe, explique Alexandre Ménard. Certains sont dans le matériel, d’autres le logiciel, d’autres encore le métier. » Des acteurs de support viennent encore compléter cette chaîne, par exemple en fournissant les technologies de refroidissement ou les matériaux nécessaires à la fabrication de ces appareils. De plus, les ordinateurs quantiques ne se suffiront pas à eux-mêmes. « Cela répond à certains problèmes, mais ne donne pas l’intégralité de la solution. On restreint les solutions viables, mais ça ne définit pas la formule. Donc ça ne marchera qu’en prenant le relais avec l’informatique classique. »

Les utilisateurs de ces ordinateurs quantiques seront de grandes entreprises pour la plupart, mais pas seulement. « Elles ont les problèmes les plus complexes, reconnaît Alexandre Ménard. Mais par exemple de petites structures ont émergé dans la pharma depuis 15 ans et sont devenues de belles success stories. Ce sera possible aussi dans l’informatique quantique si ces start-up ont des moyens suffisants. En se focalisant sur des maladies ou des virus particuliers par exemple, et en achetant des instances de façon stratégique… La clé sera la capacité à maîtriser la technologie et les algorithmes. »

À noter que si les annonces sont régulières côté matériel, les choses sont plus calmes en ce qui concerne les algorithmes, qui sont pourtant tout aussi essentiels à leur utilisation. « Les choses ne stagnent pas, mais elles sont ralenties car il faut vraiment maîtriser le hardware pour avancer, et l’accessibilité reste limitée. Il y a par ailleurs une réticence de la part des clients potentiels à s’engager pour le moment. »

Malgré le terme similaire d’ordinateur, ces machines n’ont rien à voir avec les ordinateurs classiques à base de semi-conducteurs. Au lieu d’utiliser les traditionnels bits, d’une valeur binaire de 0 ou 1, ces ordinateurs très spécifiques sont construits autour de « quantum bits », ou qubits. Chaque qubit se compose d’une superposition de deux états de base qui correspondent à des amplitudes de probabilité. En augmentant le nombre de qubits, on augmente exponentiellement la puissance de calcul de l’ordinateur quantique. L’intérêt de cette superposition d’états est qu’elle permet à un groupe de qubits d’explorer simultanément différentes méthodes pour résoudre un calcul mathématique. Lorsqu’ils sont programmés correctement, cela leur permet d’éliminer les mauvaises réponses très rapidement pour isoler la ou les bonnes solutions.

Les usages doivent déterminer le niveau d’investissement

Ces ordinateurs seront mis à disposition par le biais de services cloud, que proposent déjà Amazon et Microsoft. Mais Alexandre Ménard n’y voit pas là l’unique méthode d’accès. « Ce sont des ressources qui sont très techniques et très chères, donc je ne vois pas un laboratoire pharmaceutique ou un logisticien en avoir un dans ses locaux. Mais il y a des questions de sécurité des données et de transfert de grandes quantités de données qui nécessiteront une autre approche, avec des acteurs proposant des accès à leurs infrastructures en système ouvert et protégé. Le cloud va démocratiser mais ne sera pas la seule solution. »

Reste l’éternelle question quand il s’agit de nouvelles technologies ? À quel moment s’y mettre ? « Le time-to-market doit le déterminer, déclare Alexandre Ménard. Si j’étais un acteur dans les biens de grande consommation, je ne suis pas sûr que je pousserais pour y aller maintenant. Par contre, en étant en charge d’un gros laboratoire pharmaceutique, je testerai à petite échelle le plus tôt possible pour développer la compétence en interne, tester les partenaires et ressources pour créer un écosystème, et globalement aller vers la bonne solution. Est-ce qu’investir beaucoup d’argent plus tard permettra de rattraper ? C’est difficile à dire, mais on ne sera pas pénalisé en partant plus tôt. »

La question de la souveraineté se pose déjà

La plupart des acteurs clé de ce champ de recherche sont aujourd’hui des Américains : IBM, Google, Microsoft ou plus récemment Honeywell. Ce qui pose une question de souveraineté, cette technologie ayant des applications stratégiques très claires (notamment son usage par les États à des fins de renseignement). Là aussi, Alexandre Ménard insiste sur la nécessité d’agir vite. « Il y a peu d’européens dans le lot. On pense qu’il y a un petit retard en Europe sur l’ensemble des maillons de la chaine de valeur. Les Américains au niveau étatique ont plutôt poussé à l’émergence d’un écosystème, notamment pour lutter contre la Chine. »

La Chine n’est pas encore pleinement engagée dans ce domaine, mais cela va changer d’ici 2030 d’après le rapport. « Dans ce que nous mesurons factuellement, la Chine est en troisième position, et les États-Unis sont beaucoup plus avancés que l’Europe. Mais eu égard à l’émergence de plaques technologiques distinctes, qui vont dépasser le seul secteur télécoms, à un moment ou à un autre la Chine mettra le paquet et rattrapera une partie de son retard. »

 

Hewlett Packard Enterprise annonce la construction de sa première usine dédiée au HPC et à l’IA en Europe

Hewlett Packard Enterprise (HPE) a annoncé, le 18 mai 2022, la construction de sa première usine en Europe destinée à soutenir le développement de supercalculateurs de classe exascale et de systèmes d’intelligence. L’installation de ce nouveau site permettra d’accélérer les livraisons aux clients et de renforcer l’écosystème des fournisseurs, mais aussi de faire progresser la recherche scientifique, les initiatives AL/ML et de soutenir l’innovation.

Hewlett Packard Enterprise est issue de la scission en novembre 2015 de la société Hewlett-Packard. Elle regroupe les activités de cette dernière dans les serveurs, le réseau, le stockage, les logiciels et les services aux entreprises. L’usine dédiée au HPC dont la construction débutera l’été prochain, à Kutná Hora, en République Tchèque, sera le quatrième des sites mondiaux de fabrication HPC de HPE. Elle sera installée près de son usine de fabrication de serveurs et solutions de stockage.

La suite sur : Hewlett Packard Enterprise annonce la construction de sa première usine dédiée au HPC et à l’IA en Europe
Publié sur ActuIA le 19 mai 2022

Total Énergie

 

Total : une équipe spécialement dédiée

Inventer de nouvelles batteries électriques, des matériaux, optimiser le pilotage des installations de raffinage… Les applications du quantique ne manquent pas pour Total. La direction de la R & D de l’énergéticien a lancé un programme de recherche dédié. « Nous mettons en place cette année une équipe projet à part entière, expose Henri Calandra, expert en méthodes numériques et en calcul intensif et conseiller scientifique du projet. Le recrutement du chef de projet est en cours et nous aurons, avec des doctorants et un post-doctorant, une demi-douzaine de personnes dans l’équipe. »

Avec Mark Asch, conseiller scientifique et professeur à l’université de Picardie, Henri Calandra travaille depuis un peu plus d’un an sur le sujet. L’enjeu, face à l’accélération des progrès, était de déterminer quels types de problèmes pourraient être traités et à quelle échéance. « Nous avons deux thématiques que nous pensons pouvoir aborder d’ici trois à cinq ans avec les technologies bruitées dites Nisq. La première concerne la chimie quantique, soit le calcul des niveaux d’énergie des molécules et de leurs interactions. Avec des applications dans le raffinage et la chimie des batteries. » Les problèmes d’optimisation et le couplage au machine learning constituent le deuxième thème, avec des applications dans la gestion des réseaux de distribution d’énergie par exemple.

« Sur ces sujets de moyen terme, nous voulons travailler sur des applications industrielles, en testant sur des problèmes simplifiés comment utiliser des algorithmes quantiques et ce qu’ils peuvent apporter. » En parallèle, l’équipe explorera des sujets à plus long terme : « comment utiliser un véritable ordinateur quantique, dans toute sa complexité, pour la simulation et la modélisation, notamment en sismique. » Enfin, des travaux transverses entre l’algorithmie et le hardware seront menés. « Notre but est de travailler en co-design avec les constructeurs de machines. »

Total dévoile ses recherches dans l’utilisation du calcul quantique lors du Quantum Computing in Paris-Saclay

Total Énergie fait le point sur son implication dans le domaine, en tant qu’utilisateur final. Si elles n’en sont encore qu’à l’étape de recherche, les ambitions quantiques du géant français de l’énergie sont bien plus que des simples velléités.

Total est l’un des ces early adopters du quantique. Marko Rancic, responsable de l’informatique quantique chez Total, a détaillé comment le géant français des énergies expérimentait déjà le calcul quantique pour résoudre quatre défis, divisés en trois sous-projets au sein de la firme : l’optimisation combinatoire afin d’atteindre son objectif « zéro émission carbone » d’ici 2050 (trajectoire des véhicules Total, planification de la production, optimisation de l’installation des stations de recharge de véhicules électriques…), la résolution d’équations physiques et la modélisation des systèmes chimiques et des matériaux (captation de CO2, batteries, stockage de l’hydrogène…).

Plus d’informations sur : Total Énergie dévoile ses recherches dans l’utilisation du calcul quantique

Quantique, IA : comment EDF reste à la pointe de la technologie

Sur le plateau de Saclay, le centre EDF Lab rassemble plus de la moitié des effectifs de R&D de l’électricien. Ici sont explorés les d’usages de l’intelligence artificielle, de la réalité virtuelle et du calcul quantique pour optimiser et transformer son activité.

Les bases

A Saclay, quatre vastes bâtiments circulaires, sertis de panneaux de verre. Le centre EDF Lab se trouve à l’orée du quartier de l’école Polytechnique, sur le territoire de Paris-Saclay. Les 1 000 chercheurs qu’il accueille représentent plus de la moitié des effectifs de R&D de l’électricien.

Ici, le groupe développe depuis 2016 des solutions qui permettront à ses clients de décarboner leur activité, mais aussi à optimiser ses systèmes de production énergétique et participer à la transition numérique. Il explore pour cela les possibilités notamment offertes par l’intelligence artificielle, la réalité virtuelle et les technologies quantiques.

Les objectifs

L’entreprise EDF compte plus de 1.800 personnes travaillant dans la recherche et développement, dont la moitié est située au centre EDF Lab,il constitue le plus grand centre de R&D d’Europe.

L’entreprise y a développé de nombreux laboratoires de recherche en collaboration avec d’autres grands groupes ou des start-ups, sur les usages électriques des bâtiments, les séismes, le solaire ou encore le captage et la séquestration du carbone.

Mais l’un des plus gros défis pour l’électricien reste celui des réseaux intelligents, cruciaux dans le cadre de l’essor des énergies vertes, beaucoup plus instables que les bonne vieilles centrales nucléaires.

L’arrivée en masse des véhicules électriques constitue également une opportunité pour l’opérateur. L’énergie des batteries inutilisées par les millions de voitures électriques en stationnement permettrait par exemple de compenser les fluctuations de l’éolien ou du solaire, avance EDF.

Bond quantique

L’introduction de ces nouvelles techniques ne va pas sans son lot de difficultés: les paramètres à prendre en compte sont considérables sans compter la somme des contraintes. Certains facteurs sont tellement complexes que les supercalculateurs conventionnels n’y suffisent pas, explique Stéphane Tanguy, le directeur des programmes de recherche sur les technologies de l’information chez EDF.

L’ordinateur quantique, dont les capacités de calcul dépassent largement celles de l’informatique conventionnelle, pourrait en revanche résoudre de telles équations.

EDF s’est associée à la pépite française Pasqal pour concevoir des algorithmes quantiques et les premiers résultats seraient concluants, avec un premier calculateur expérimental de 200 qubits obtenu en juin 2020.

EDF a par ailleurs monté une équipe d’une dizaine de personnes chargées de plancher sur les nouveaux usages de l’algorithmique quantique, comme le renforcement de la sécurité des centrales nucléaires (qui intègre par exemple les combinaisons possibles de défaillances matérielles ou humaines), la simulation de nouveaux matériaux pour les panneaux photovoltaïques ou les batteries.

Comment le Crédit Agricole exploite déjà l’informatique quantique

Article publié sur Le journal du net mais réservé aux abonnés.

La banque se déploie dans deux directions : le calcul du pricing de produits dérivés d’une part, le calcul de risques liés aux entreprises à qui elles prêtent d’autre part.

Elle est l’une des toutes premières banques à être passée à l’ère de l’informatique quantique. Le Crédit Agricole CIB, la banque de financement et d’investissement du groupe, s’engage dans cette voie dès 2020. En juillet 2021, la phase de preuve de concept est atteinte. Deux projets sont au programme. L’un a pour ambition d’éprouver les gains de performance d’une approche inspirée du calcul quantique sur la valorisation de produits dérivés. Des produits dont la valeur varie en fonction de l’évolution d’un actif appelé sous-jacent. L’autre vise à implémenter dans l’ordinateur quantique du français Pasqal un cas d’usage réel : l’anticipation de la dégradation de la note de crédit des contreparties de la banque, à savoir des entreprises à qui elle accorde des prêts.

Un temps d’entrainement drastiquement réduit

Sur le terrain du pricing des produits dérivés, des recherches récentes ont mis en évidence l’apport des réseaux de neurones. Cependant, quand ils sont appliqués à ce cas d’usage, ces derniers s’avèrent souvent difficilement utilisables en raison de leur entrainement trop coûteux en mémoire et en temps. Plus le produit dérivé est complexe, plus l’apprentissage du réseau est gourmand. « A tel point que même avec des fermes de GPU, l’entrainement peut durer plusieurs jours. Pour des produits qui peuvent radicalement changer avec les conditions de marché, cette approche est irréaliste », estime Ali El Hamidi, deputy head capital markets funding au sein de la division global markets du Crédit Agricole CIB, et sponsor du projet. D’où l’idée de capitaliser sur l’informatique quantique pour résoudre l’équation.

L’abonnement est gratuit, il convient juste de s’inscrire… Évidemment vous laisserai une trace pour de la publicité…

Article source : Comment le Crédit Agricole exploite déjà l’informatique quantique

Quelques articles supplémentaires

 

  • Pourquoi le Crédit Mutuel mise gros sur l’informatique quantique
    Crédit Mutuel Alliance Fédérale vient de créer une équipe d’experts en informatique quantique, réunis dans une « Quantum Factory ». Sa mission : développer des applications nouvelles qui tirent profit des capacités extraordinaires de l’informatique quantique, avec en ligne de mire la volonté de stimuler l’innovation du groupe et réaliser des économies d’échelle dès 2026
    Publié sur La Tribune par François Manens  le 19 juin 2023

Les technologies quantiques montent à bord des avions avec Thales

Antennes d’avion, ordinateurs de bord et systèmes de communications seront les premiers à bénéficier de ces technologies de rupture, qui amélioreront leur résilience et leur précision.

La situation

Nouvelle rupture technologique en vue pour l’aéronautique et le spatial. « Nous sommes au seuil de la deuxième révolution quantique, après celle qui a vu la mise au point des lasers et de l’électronique de silicium. Ces révolutions exploitent les propriétés des électrons, des atomes et des photons. Cela devient possible grâce à des nouvelles technologies qui nous permettent d’accéder et d’interagir avec ce monde de l’infiniment petit », explique Marko Erman, directeur scientifique (CSO) de Thales, leader européen des technologies quantiques. « Le quantique aura un impact dans au moins trois domaines : les capteurs, les communications et les ordinateurs », ajoute-t-il. Cela dans les domaines civil et militaire.

Ces capteurs quantiques ont deux avantages majeurs : ils sont très petits et très sensibles, donc ultra-précis. Il sera donc possible de miniaturiser certains équipements tout en gagnant en performance. Ce sera par exemple le cas des pour les antennes satellites des avions. Longue d’un demi-mètre, l’antenne satellite est placée en haut du fuselage. Elle permet aux pilotes de communiquer et aux passagers de regarder des films ou de jouer pendant le vol, via le système multimédia de bord. «Une antenne quantique aura une surface aussi petite qu’un centimètre carré et pourtant, elle sera capable de capter un large spectre de fréquences, dont les très basses, qui nécessitent traditionnellement des dimensions d’antennes plus grandes. Il sera possible de l’intégrer dans le fuselage d’un avion et même à terme de la placer à bord de petits drones », explique Marko Erman.

Systèmes de navigation indépendants des GPS

À cette miniaturisation s’ajoute un gain de qualité et précision. Aujourd’hui, le trajet d’un avion est mesuré grâce à des gyroscopes optiques qui permettent à la centrale inertielle (un équipement qui permet à l’avion de se situer dans son environnement, NDLR). Mais ces systèmes accumulent de l’imprécision au fur et à mesure du déroulement d’un vol, allant jusqu’à quelques kilomètres. « Cette dérive n’est pas un problème en pratique, car le système utilise aussi les données des systèmes satellitaires de positionnement et de navigation tel que le GPS ou Galileo», précise le CSO de Thales. Mais si le signal du GPS est brouillé, cela peut être très problématique surtout pour les appareils militaires engagés sur des théâtres d’opérations. Les technologies quantiques apportent une solution pour garantir le positionnement de façon très précise, en s’affranchissant des GPS. « L’idée est de substituer aux éléments mécaniques et optiques des centrales inertielles actuelles, des dispositifs quantiques à base d’atomes froids, proches du zéro absolu (-273 degrés, NDLR). Ceux-ci pourraient améliorer d’un facteur 100 la précision des centrales inertielles classiques, offrant une précision équivalente à celle du GPS », détaille Marko Erman.

Ce dispositif, qui prend la forme circuit électrique d’atomes froids placés dans une chambre à vide de quelques cm2, développé par Thales, est exposé au Bourget, dans le cadre de son « mur de l’innovation ». « Cette innovation ouvre la porte au développement d’un système de navigation autonome, totalement indépendant du GPS ou de Galileo. Il sera à terme intégré dans les avions civils et militaires mais aussi d’autres objets tels que des drones, des trains ou encore des sous-marins », résume le CSO de Thales. Ce sera le cas pour les composantes du Système de combat aérien du futur (Scaf), programme franco-allemand auquel l’Espagne est associée.

L’Europe bien placée dans la course au quantique

De même, la future constellation de connectivité européenne, Iris2, intégrera des éléments quantiques dans son système de communications, notamment la distribution de clef de chiffrement afin d’assurer la sécurité des liaisons entre le réseau terrestre et satellitaire. L’Europe ainsi que l’Agence spatiale européenne travaillent depuis des années sur ces technologies, via une dizaine de programmes, qui associent des industriels. « En matière de quantique, l’Europe ne part pas de rien et est bien placée en regard des États-Unis et de la Chine. Dès 2018, le Quantum Flagship a été lancé par la Commission européenne. Les États membres de l’UE ont aussi déployé des programmes quantiques comme en France via France 2030 », rappelle le CSO de Thales. Le groupe de défense présente au Bourget les premières briques technologiques de cette technologie de rupture avec des exemples d’applications commerciales et militaires.

Dans la course au quantique, Thales est en pointe avec une équipe de 100 experts spécialistes de ces technologies. Le groupe est, en coopération avec le CNRS, à la tête d’un des plus importants laboratoires de physique quantique d’Europe, installé à Palaiseau. Il dispose aussi d’une force de frappe importante en R&D avec 33.000 ingénieurs dans le monde. Et il investit en moyenne 4 milliards d’euros par an en R&D, dont 1 milliard est autofinancé. Le groupe de hautes technologies est en outre un des rares acteurs mondiaux à être dans les capteurs, les communications ainsi que l’intelligence des ordinateurs.

« Nous concevons, fabriquons et intégrons les capteurs quantiques qui sont au cœur des systèmes de Thales. Nous sommes aussi leader des communications cyber-sécurisées terrestres et satellitaires. C’est donc tout naturellement qu’avec la maîtrise des technologies quantiques, nous voulons garder, ensemble avec nos partenaires et sous-traitants, une position de leader », rappelle Marko Erman. Thales ne se lancera pas dans la fabrication d’ordinateurs mais se positionne « en expert de la programmation et du développement des algorithmes quantiques qui feront tourner les ordinateurs de nouvelle génération », précise le CSO du groupe de défense. Ce dernier teste déjà une dizaine de « prototypes » en partenariat avec Pasqal (dont un des fondateurs est Alain Aspect, prix Nobel 2022 de physique), Alice & Bob, Quandela et Quobly, des start-up françaises qui développent des ordinateurs quantiques.