L’IA aide à percer les secrets de l’hydrogène métallique au cœur des planètes géantes

Test

L’hydrogène isolant devient un solide métallique conducteur à très haute pression. Cette transition de phase étonnante a été observée mais elle reste mal comprise alors qu’elle pourrait révolutionner la technologie et aider à comprendre ce qui se passe au cœur des planètes géantes largement composées d’hydrogène. L’IA aide aujourd’hui à simuler sur ordinateur le comportement de l’hydrogène métallique pour percer ses secrets.

Un nouvel épisode de la saga de la quête de l’hydrogène métallique vient d’être publié avec un article dans le journal Nature par une équipe internationale de chercheurs de l’université de Cambridge, d’IBM Research et de l’EPFL. Cette fois-ci, il ne s’agit pas d’expériences à haute pression avec des enclumes de diamants mais de l’utilisation de l’intelligence artificielle via le fameux apprentissage profond avec des réseaux de neurones.

Le deep learning a permis de réduire le temps de calcul ordinairement pris sur des superordinateurs par de savantes simulations numériques, combinant les lois de la mécanique quantique et de la mécanique statistique, pour explorer les développements d’une découverte théorique faite, en 1935, par le prix Nobel de physique d’origine hongroise Eugene Wigner avec son collègue le physicien Hillard Bell Huntington. La toute jeune théorie de la liaison chimique les avait conduits à comprendre que les liaisons covalentes des atomes dans des molécules d’hydrogène H2 finissaient par laisser la place à des liaisons métalliques si l’on comprimait suffisamment ces molécules. On s’est aperçu par la suite que de l’hydrogène métallique pouvait avoir de remarquables propriétés supraconductrices, et que le cœur des planètes gazeuses géantes du Système solaire devait très probablement en contenir.

Une transition de phase problématique

Si l’hydrogène métallique est bien supraconducteur et surtout qu’il le reste à pression ambiante en étant métastable une fois produit à environ un million d’atmosphères, ses applications technologiques seraient nombreuses, facilitant les IRM et évitant des gaspillages d’énergie en conduisant le courant sur des milliers de kilomètres sans résistance, par exemple. Donc, tous les progrès dans ce domaine de recherche ne feraient pas que donner des clés pour comprendre l’origine des champs magnétiques de géantes comme Jupiter, Saturne et leurs cousines dans le domaine des exoplanètes.

Les physiciens font savoir aujourd’hui que d’après les calculs rendus possibles par l’IA en mode Deep Learning, la transition de phase menant à l’hydrogène métallique supraconducteur ne serait pas du premier ordre dans leur jargon. Il s’agit d’une référence à des travaux initiaux du brillant physicien Paul Ehrenfest, dont la vie s’est tragiquement terminée. Au début du XXe siècle, il avait en effet esquissé une classification des transitions de phase en deux catégories. La première concernant, par exemple, le passage de la glace à l’eau liquide et la seconde le passage d’un matériau ferromagnétique de l’état aimanté à la cessation de cet état. Une classification moderne un peu différente de celle d’Ehrenfest existe et a repris ses termes, à savoir transitions du premier et du second ordre.

Un point critique caché, révélé par l’IA

« L’existence de l’hydrogène métallique a été théorisée il y a un siècle, mais ce que nous ne savons pas, c’est comment ce processus se produit, en raison des difficultés à recréer les conditions de pression extrême de l’intérieur d’une planète géante dans un laboratoire, et de l’énorme complexité de la prédiction du comportement des grands systèmes avec des atomes hydrogène », explique le principal auteur de l’article de Nature, le physicien Bingqing Cheng du laboratoire Cavendish de Cambridge.

On peut se faire une idée de la difficulté théorique des calculs lorsque l’on sait que la modélisation à l’aide de l’équation de Schrödinger – l’équation fondamentale de la mécanique quantique du comportement de seulement quelques milliers d’atomes pendant quelques nanosecondes dans le cadre des conditions régnantes au cœur de Jupiter, et qu’il est difficile de reproduire en laboratoire – dépasse la capacité des supercalculateurs les plus grands et les plus rapides du monde.

Les calculs rendus possibles laissent aujourd’hui penser que la transition de phase entre l’hydrogène moléculaire et l’hydrogène atomique métallique n’est pas du premier ordre, avec une discontinuité, mais peut se faire continûment à l’aide d’un point critique caché jusqu’ici. Ce point est l’analogue du point critique bien connu en thermodynamique. Aux températures et pressions supérieures à celles du point critique pour un fluide, on ne peut plus distinguer une phase liquide d’une phase gaz, et on passe continûment des propriétés d’un liquide (à haute pression et relativement basse température) à celles d’un gaz (à relativement basse pression et haute température). On est alors en présence de ce que l’on appelle un fluide supercritique.

Un alliage métallique liquide au cœur des planètes géantes ?

Des chercheurs de l’Université de Berkeley et de l’University College de Londres viennent de publier leurs travaux au sujet de l’état de la matière à l’intérieur des planètes géantes. Selon leurs simulations sur ordinateur, les couches profondes de Jupiter et de Saturne seraient occupées par un alliage de métal liquide composé d’hydrogène et d’hélium.

Difficile de savoir ce qui se passe à l’intérieur des planètes géantes mais l’on peut tout de même en avoir quelques idées en se fondant sur les mesures réalisées en orbite par les sondes Voyager, Galileo et Cassini ainsi que par les expériences à hautes pressions qui sont réalisées en laboratoire sur Terre.

Raymond Jeanloz est un des chercheurs qui s’occupent de ce genre de problème et l’on connaissait déjà ses travaux utilisant le laser pour reproduire les conditions à l’intérieur de Jupiter. Aujourd’hui, avec son collègue Lars Stixrude, il vient de publier dans la revue Proceedings of the National Academy of Sciences le résultat de simulations de dynamique moléculaire qu’ils ont effectuées à partir de ces données et des lois de la mécanique quantique.

Contrairement à ce que l’on imaginait jusqu’à présent, l’hélium liquide métallique et l’hydrogène liquide métallique pourraient bien se mélanger pour donner un alliage conducteur ayant l’aspect du mercure au niveau du cœur de Jupiter, et même de Saturne, dans les conditions de températures et de pressions qui y règnent.

Des conditions extrêmes

Pour s’en faire une idée, rappelons que sur Terre, la graine solide, composée d’un alliage de fer et de nickel, est probablement soumise en son centre à des températures de 6.000 K, celle de la surface du Soleil, et de pressions de l’ordre de 3,5 millions d’atmosphère. Dans le cas du cœur de Jupiter, les estimations donnent des chiffres de 70 millions d’atmosphère et des températures de 10.000 à 20.000 K.

Les chercheurs avaient déjà découvert expérimentalement que l’hydrogène devenait un métal conducteur à des pressions et des températures plus basses que celles qu’ils imaginaient mais ils ne sont visiblement pas au bout de leurs surprises si l’on en croit les simulations. Il est vrai que dans ces conditions extrêmes de pression et de température les couches électroniques externes des atomes se modifient et donc, certaines des propriétés physico-chimiques que l’on était en droit d’attendre peuvent ne pas exister. Si de futures expériences avec de l’hélium le confirment bien, alors la métallisation de celui-ci doit être plus facile, et non moins, lorsque l’on s’approche de ces conditions.

Une remise en cause des sources d’énergie internes de Jupiter ?

Tout ceci a de multiples conséquences, en particulier, en modifiant notre vision du matériau liquide conducteur qui doit se trouver à l’intérieur des géantes, cela modifie aussi la façon dont leurs champs magnétique doivent être générés. S’il s’agit bien très vraisemblablement d’un effet de dynamo auto-excitatrice comme sur Terre, il faudra néanmoins tenir compte de ces nouvelles contraintes pour modéliser le phénomène. Plus révolutionnaire est le fait qu’il est maintenant plus difficile d’expliquer le fait que Jupiter rayonne plus d’énergie qu’elle ne le devrait par contraction gravitationnelle selon un processus théorisé une premier fois par Kelvin et Helmholtz au XIXième siècle.

En effet, les chercheurs faisaient jusqu’à présent intervenir la condensation de l’hélium et sa chute sous forme de pluie à travers l’hydrogène. Si leur capacité à se mélanger est bien plus élevée que ce que l’on pensait, un tel processus ne peut donc pas être invoqué comme source d’énergie gravitationnelle relâchée par la chute des gouttes. Il faudra trouver une autre explication, peut-être celle d’un réacteur nucléaire naturel même si l’idée est peu crédible.

Article source : L’IA aide à percer les secrets de l’hydrogène métallique au cœur des planètes géantes
Publié sur Futura Sciences le 08 septembre 2020 par Laurent Sacco

Imaginez Champollion avec une IA comme adjoint

Imaginez Champollion avec un supercalculateur

Dans la longue histoire de l’humanité, on estime à environ 31 000 le nombre de langues qui ont été parlées dans le monde. Aujourd’hui, de toutes ces langues qui ont existé, on n’en parlerait plus que 6 000 et la moitié d’entre elles auraient moins de 10 000 locuteurs.

La mort progressive des langues et dialectes est un phénomène qui ne date pas d’hier mais, parmi ces langues « mortes », des dizaines d’entre elles sont considérées comme des « écritures non déchiffrées ». En plus de ne plus être parlées, ces langues sont littéralement « perdues », puisqu’il est impossible aujourd’hui d’en comprendre le sens.

Car des écrits retrouvés via des fouilles archéologiques ne possèdent pas de référence linguistique relative qui permettraient une traduction au moins partielle. Pour se faire une idée, certains des dialectes perdus n’ont par exemple ni ponctuation, espace ou même grammaire comparables aux langues connues.

Un article posté sur le blog du MIT fait aujourd’hui part d’une percée scientifique majeure dans le décryptage de ces langues perdues grâce à nouveau système développé par le Computer Science & Artificial Intelligence Lab (CSAIL). Utilisant l’intelligence artificielle, cette technologie permettrait, à terme, de déchiffrer (et non traduire, attention) des langues en réussissant à trouver des relations avec d’autres groupes linguistiques connus.

 

 

La suite de cette article : Imaginez Champollion avec un supercalculateur
Publié sur KonbiniTechno le 23 octobre 2020 par Pierre Bazin

Autre source :

Une intelligence artificielle trouve des solutions précises à l’équation de Schrödinger

Le 28 décembre 2020, l’équation de Schrödinger (formalisée en 1925 par l’autrichien Erwin Schrödinger à été résolue par une IA.

C’est une équation fondamentale très complexe de la mécanique quantique et elle a le même rôle que la relation fondamentale de la dynamique de la mécanique classique. L’équation de Schrödinger est utilisée afin de prévoir les propriétés physico-chimiques des molécules. Ne pouvant être résolue que pour des systèmes à 1 électron, aucune solution exacte n’avait pu être trouvée quand plusieurs électrons entrent en jeux. Grâce aux travaux de l’équipe de la Freie Universität (Allemagne), une méthode d’apprentissage appelée PauliNet permet d’obtenir des résultats quasi exacts avec des molécules qui ont jusqu’à 30 électrons.

L’équation de Schrödinger sous sa forme « time dependante », pour une particule libre, dans un état quelconque d’énergie (cas le plus simple)

 

Certaines méthodes de calcul renoncent à exprimer complètement cette fonction d’onde, mais tentent de déterminer l’énergie de la molécule, ce qui nécessite de faire des approximations et diminue par la même occasion la qualité de la solution. D’autres méthodes représentent la fonction d’onde via un très grand nombre de blocs de construction mathématiques simples ; mais cette approche devient quasi impossible pour un grand nombre d’atomes. L’IA développée par l’équipe allemande permet d’éliminer tout compromis et ainsi, d’allier à la fois précision et faible coût de calcul.

Sources :

  • Solving the Schrödinger equation with deep learning
    In this project, we’ll be solving a problem familiar to any physics undergrad — using the Schrödinger equation to find the quantum ground state of a particle in a 1-dimensional box with a potential. However, we’re going to tackle this old standby with a new method: deep learning. Specifically, we’ll use the TensorFlow package to set up a neural network and then train it on random potential functions and their numerically calculated solutions.
    Publié sur Medium le 27 septembre 2027
  • Schrödinger’s equation — what is it?
    Here is a typical textbook question. Your car has run out of petrol. With how much force do you need to push it to accelerate it to a given speed?
    Publié sur PlusMag par Marianne Freiberger
  • Une intelligence artificielle trouve des solutions précises à l’équation de Schrödinger
    Ces dernières années ont été jonchées d’avancées spectaculaires dans le domaine de l’intelligence artificielle, notamment concernant les réseaux neuronaux, développés dans divers buts de résolution de problèmes complexes, allant de l’automatisation de systèmes informatiques (comme la reconnaissance faciale ou l’apprentissage automatique) à la résolution purement mathématique. Dernièrement, une équipe de chercheurs a exploité un tel réseau d’IA en développant une méthode capable de calculer des états propres (des solutions) de la célèbre équation de Schrödinger en chimie quantique.
    Publié le 22 décembre 2020 sur TrustMyScience
  • L’équation de Schrödinger a été résolue par une intelligence artificielle
    L’équation de Schrödinger a été conçue en 1925, par l’autrichien Erwin Schrödinger. C’est une équation fondamentale très complexe de la mécanique quantique. Elle a le même rôle que la relation fondamentale de la dynamique de la mécanique classique. L’équation de Schrödinger est utilisée afin de prévoir les propriétés physico-chimiques des molécules. Ne pouvant être résolue que pour des systèmes à 1 électron, aucune solution exacte n’avait pu être trouvée quand plusieurs électrons entrent en jeux. Grâce aux travaux de l’équipe de la Freie Universität (Allemagne), une méthode d’apprentissage appelée PauliNet permet d’obtenir des résultats quasi exacts avec des molécules qui ont jusqu’à 30 électrons.
    Publié le 28 décembre 2020 sur BLTV
  • Une intelligence artificielle résout l’équation de Schrödinger
    Des chercheurs de l’Université libre de Berlin ont développé une intelligence artificielle capable de calculer l’état fondamental de l’équation de Schrödinger, une équation différentielle utilisée en chimie quantique pour déterminer les fonctions d’onde des électrons et ainsi, prédire les propriétés physico-chimiques des molécules.
    Publié sur Science&Vie

Une intelligence artificielle permettant la prédiction des propriétés du noyau atomique

Des réseaux de neurones pour simuler le comportement des noyaux

Des théoriciens du CEA, de l’Irfu à la DRF (Espace de Structure Nucléaire Théorique) et du service de physique nucléaire à la DAM, ont développé une Intelligence Artificielle (IA) permettant la prédiction des propriétés du noyau atomique. Ils ont ainsi simulé les propriétés de plus de 1800 noyaux atomiques à partir d’un algorithme entraîné sur un sous-ensemble de seulement 210 noyaux. De plus pour la toute première fois, ces 210 noyaux sont choisis automatiquement par l’Intelligence Artificielle en utilisant une approche dite d’apprentissage actif. Il s’agit d’une avancée majeure en comparaison des approches précédentes qui se limitaient à la prédiction d’une seule observable (grandeur physique mesurable, comme par exemple la masse) et dont la portée prédictive était très faible. Les résultats obtenus sont d’une précision comparable à celle des calculs issus de l’état de l’art des techniques utilisées en physique nucléaire théorique, et cela en un temps de calcul significativement réduit (un gain allant d’un facteur 10 à un facteur 10³ en fonction du type de résultat voulu). Les résultats ont fait l’objet d’une publication dans la revue Physical Review Letters.

Voici l’article complet : Des réseaux de neurones pour simuler le comportement des noyaux
Publié sur CEA-Département de Physique Nucléaire le 4 novembre 2020

“On fait la science avec des faits, comme on fait une maison avec des pierres; mais une accumulation de faits n’est pas plus une science qu’un tas de pierre n’est une maison.”

Henri Poincaré

En 1902, Poincaré publie La Science et l’Hypothèse. Même si ce livre est plus un ouvrage d’épistémologie que de physique, il appelle à ne pas considérer comme trop réels de nombreux artéfacts de la physique de son époque : le temps absolu, l’espace absolu, l’importance de l’éther. Einstein s’était particulièrement penché sur ce livre, et les idées contenues font de l’ouvrage un précurseur de la relativité restreinte.

On y trouve en particulier ce passage :
« Ainsi l’espace absolu, le temps absolu, la géométrie même ne sont pas des conditions qui s’imposent à la mécanique ; toutes ces choses ne préexistent pas plus à la mécanique que la langue française ne préexiste logiquement aux vérités que l’on exprime en français. »

Des scientifiques utilisent le machine learning pour rendre visibles des phénomènes astrophysiques jusqu’ici inaccessibles

Une équipe de scientifiques du CNRS, de l’IRAM, de l’Observatoire de Paris-PSL, et des Ecoles Centrale Marseille et Centrale Lille rassemblés au sein du programme ORION-B a travaillé sur l’amélioration de la visibilité de phénomènes astrophysiques jusqu’ici inaccessibles grâce à l’intelligence artificielle. Ses travaux font l’objet d’une série de trois articles publiés dans Astronomy & Astrophysics le 19 novembre 2020. Les chercheurs y présentent les observations les plus complètes d’une des régions de formation d’étoiles les plus proches de la Terre.

Les nuages de gaz où naissent et grandissent les étoiles sont de vastes régions de l’Univers très riches en matière, et donc en processus physiques. Entremêlés à différentes échelles, de temps et de tailles, tous ces processus rendent presque impossible la compréhension complète des pouponnières d’étoiles. Mais les scientifiques du programme ORION-B viennent de prouver que les statistiques et l’intelligence artificielle peuvent lever les barrières se dressant encore devant les astrophysiciens et astrophysiciennes.

Références :

Quand une IA fait de nouvelles découvertes en analysant d’anciens articles scientifiques

Ou comment faire du neuf avec de l’ancien …

Concrètement, les chercheurs ont intégré un glossaire d’environ 500 000 mots provenant de 3,3 millions d’extraits d’articles à Word2Vec. L’IA semble avoir compris des notions complexes comme la table des éléments et la structure chimique des molécules. En faisant le lien entre les mots, elle a pu établir une liste d’éventuels nouveaux matériaux thermoélectriques.

Les matériaux prédits par l’algorithme n’ont été décrits dans aucun article scientifique. Il s’agit essentiellement de matériaux utilisés pour le chauffage ou la réfrigération. Les résultats de l’étude ont été publiés dans Nature.

L’IA fait des liens qu’aucun scientifique ne pourrait faire

Anubhav Jain, un chercheur qui a participé à l’étude, a expliqué que Word2Vec est capable de « lire n’importe quel article scientifique, et donc faire des liens qu’aucun scientifique ne pourrait faire. »

Les chercheurs ont enseigné au réseau neuronal à reconnaître un mot précis et à prédire les mots qui suivent chaque mot. Ils pensent que certains des matériaux cités par l’IA pourraient être meilleurs que ceux que l’on connaît déjà aujourd’hui.

« On ne contrôle pas l’algorithme, il fait les connexions tout seul », ont-ils écrit dans l’article

Specifically, the researchers integrated a glossary of about 500,000 words from 3.3 million article excerpts into Word2Vec. The AI seems to have understood complex concepts such as the table of elements and the chemical structure of molecules. By linking the words, it was able to come up with a list of potential new thermoelectric materials.

The materials predicted by the algorithm have not been described in any scientific papers. They are mainly materials used for heating or cooling. The results of the study were published in Nature.

AI makes connections no scientist could make

Anubhav Jain, a researcher involved in the study, explained that Word2Vec is able to « read any scientific paper, and therefore make connections that no scientist could make. « 

The researchers taught the neural network to recognize a specific word and predict the words that follow each word. They think some of the material cited by the AI could be better than what is already known today.

« We don’t control the algorithm, it makes the connections on its own, » they wrote in the paper

The promise of many more discoveries?

Wanting to make sure that Word2Vec was really capable of predicting scientific discoveries, the team gave it a test by deleting recent data. Based on the analysis of old articles, the AI passed the evaluation.

For example, it was able to predict the discovery of one of the best thermoelectric materials in existence today. According to the computer simulation, if researchers had the tool at the time, the material in question could have been found four years before its « official » discovery in 2012.

The team believes this new use of machine learning could have applications in a variety of fields. « It could be used for medical purposes, or in drug research, » she wrote. « The information is there, we just haven’t made the connections yet because we can’t read all the articles. « 

La promesse de nombreuses autres découvertes ?

Voulant s’assurer de la réelle capacité de Word2Vec à prédire les découvertes scientifiques, l’équipe lui a fait passer un test en effaçant les données récentes. En se basant sur l’analyse d’anciens articles, l’IA a réussi l’évaluation.

Par exemple, elle a pu prédire la découverte de l’un des meilleurs matériaux thermoélectriques existants aujourd’hui. D’après la simulation informatique, si les chercheurs disposaient de cet outil à l’époque, le matériau en question aurait pu être trouvé quatre ans avant sa découverte « officielle » en 2012.

L’équipe estime que ce nouvel usage de l’apprentissage automatique pourrait avoir des applications dans différents domaines. « On pourrait s’en servir à des fins médicales, ou dans la recherche médicamenteuse », a-t-elle écrit. « L’information est là, nous n’avons juste pas encore fait les liens parce qu’on ne peut pas lire tous les articles. »

Fusion nucléaire : un pas supplémentaire réalisé grâce à l’IA

Sur le terrain de la fusion nucléaire, l’intelligence artificielle pourrait bientôt jouer un rôle majeur. Des chercheurs de l’École Polytechnique de Lausanne (EPFL) ont annoncé être parvenus à optimiser le façonnage du plasma en procédant par apprentissage par renforcement profond.

Suite à ces essais, les scientifiques affirment que l’IA pourrait présenter un très grand potentiel dans le futur contrôle des réacteurs à fusion.

« Un énorme potentiel »

C’est en tout cas l’avis de Federico Felici, l’un des chefs de projet et auteur d’une étude publiée dans Nature. Selon lui, « l’IA jouera un rôle très important dans le futur contrôle des tokamaks et dans la science de la fusion en général ». Il ajoute : « Il y a un énorme potentiel à libérer l’IA pour obtenir un meilleur contrôle et pour comprendre comment faire fonctionner ces appareils de manière plus efficace ».

Pour en venir à cette conclusion, l’équipe a tenté d’utiliser un système d’intelligence artificielle afin de contrôler le façonnage de plasma à l’intérieur d’un réacteur de fusion. Ce façonnage fait partie des grands défis de la fusion nucléaire, l’objectif étant de parvenir à maintenir un plasma de haute température dans la cuve du tokamak.

Ce maintien est d’autant plus difficile que le plasma créé est instable. Les essais menés jusque-là n’ont pas réussi à le maintenir très longtemps, le record étant tout de même de 17 minutes et 36 secondes pour le tokamak EAST chinois.

DeepMind s’investit dans la fusion nucléaire

Dans le cas présent, l’équipe de l’EFPL a utilisé son TCV (pour Tokamak à Configuration Variable) sur lequel l’un des systèmes d’intelligence artificielle les plus réputés au monde a été installé : celui de l’entreprise DeepMind, filiale de Google.

Ce tokamak est principalement contrôlé par une série de 19 bobines magnétiques servant au façonnage du plasma. Ces bobines sont elles-mêmes régies par une multitude de contrôleurs informatisés, chacun d’entre eux étant en charge d’un des aspects du plasma. Lors des essais, l’IA s’est pourtant montrée capable de manipuler le plasma en utilisant un seul de ces contrôleurs.

À noter qu’avant d’être branchée sur le TCV, l’IA de DeepMind avait d’abord été exercée sur des simulations du tokamak.

Aux yeux de l’étude, ces résultats préfigurent une nouvelle approche plus simple, mais aussi plus flexible. Elle permettrait « une réduction notable de l’effort de conception » et le contrôle d’un « ensemble diversifié de configurations de plasma ».

Les scientifiques de l’EPFL espèrent que l’IA permettra d’accélérer le développement de leur filière. Leurs expériences pourraient participer au projet ITER, qui doit réaliser son premier plasma en décembre 2025.

Article source : Fusion nucléaire : un pas supplémentaire réalisé grâce à l’IA
Publié sur Clubic le 9 mars 2022 par Benoît Théry

Voir aussi : DeepMind aide les physiciens à contrôler le plasma dans les tokamaks
Publié sur Futura Tech le 18 février 20200 par Edward Back

Quelques articles en vrac…

Voici quelques articles en vrac même s’ils méritent un peu plus de développement…

La multiplication de matrices gagne en vitesse grâce à l’IA

Il y a un enjeu réel à optimiser les méthodes de calcul de ce type d’opération, fréquent dans les programmes informatiques. L’algorithme d’apprentissage profond AlphaTensor de DeepMind enclenche la vitesse supérieure.

Présentation

Où s’arrêtera DeepMind, une filiale de Google installée à Londres et spécialiste de l’intelligence artificielle ? En 2016, leur programme AlphaGo battait Lee Sedol, un des meilleurs joueurs de go du monde. En 2020, AlphaFold relevait avec succès un défi bien connu des généticiens, déterminer la structure 3D d’une protéine à partir de sa séquence d’acides aminés. L’équipe de DeepMind s’est récemment attaquée à un problème mathématique : la multiplication des matrices. Elle a découvert des algorithmes plus efficaces que ceux connus, qui n’avaient pas été surpassés depuis cinquante ans pour certains. Ce type de multiplication se retrouvant dans un vaste champ d’applications, il est certain que ces résultats serviront à optimiser de nombreux programmes informatiques.

Les matrices sont une généralisation de la notion de nombre. Ces objets sont des sortes de tableaux dont les lignes et les colonnes sont remplies avec des nombres. Comme pour les nombres classiques, il est possible d’additionner, soustraire ou encore multiplier deux matrices. Les règles de la multiplication sont cependant un peu plus complexes. Pour multiplier une matrice A avec une matrice B, il faut combiner les termes des lignes de A avec ceux des colonnes de B. Chaque entrée de la matrice C, résultat de la multiplication, est une somme de produits de termes de A et de B.

Comme les multiplications sont des opérations qui demandent plus de ressources de calcul que les additions, on estime la performance d’un algorithme en fonction du nombre de multiplications nécessaires. Pour le produit de deux matrices carrées de dimension n (avec n lignes et n colonnes), la définition standard de cette opération conduit à un total de n3 multiplications. Quand n augmente, le nombre d’opérations croît très vite. Peut-on faire mieux ?

La situation avant

En 1969, le mathématicien Volker Strassen a montré qu’il était possible de réaliser la multiplication de deux matrices de dimension 2 avec seulement sept multiplications au lieu de huit quand on suit directement la définition. Pour cela, il a combiné de façon astucieuse les termes des matrices initiales. La définition standard de la multiplication n’est donc pas un algorithme optimal. Cette constatation a conduit les mathématiciens à chercher des algorithmes plus performants pour le produit de matrices carrées (et même non carrées).

Pour mettre au jour un tel algorithme, l’approche utilisée par les chercheurs de DeepMind consiste à construire un tenseur à trois dimensions représentant l’opération de multiplication de matrices de tailles données, puis à choisir des combinaisons des termes de ces matrices et les soustraire au tenseur. L’opération est réitérée jusqu’à annuler le tenseur (tous ses termes seront alors nuls). Cette procédure livre alors un algorithme pour multiplier n’importe quelles matrices des tailles choisies dans le tenseur.

La difficulté est de choisir les combinaisons de termes. Le nombre des possibilités est énorme (il dépasse de plusieurs ordres de grandeur le nombre d’actions possibles dans le jeu de go ou aux échecs). Il est donc impossible de tester toutes les possibilités. Les mathématiciens s’appuyaient sur leur intuition et des essais successifs. Mais cette approche devient vite limitée.

La solution DeepMind-AlphaTensor

Pour dépasser ces limites, Alhussein Fawzi et ses collègues de DeepMind se sont appuyés sur un algorithme d’apprentissage profond qui utilise un réseau de neurones pour choisir les combinaisons qui semblent les plus efficaces. Pour cela, les chercheurs ont adapté AlphaGo à ce problème et l’ont nommé AlphaTensor. Ce dernier contient un arbre de décision, c’est-à-dire une structure qui doit sélectionner des combinaisons de termes parmi toutes les possibilités. Le réseau de neurones tente alors de déterminer quelle branche de l’arbre sera la plus judicieuse. Et selon le résultat obtenu, l’algorithme ajuste les paramètres du réseau de neurones pour améliorer sa sélection.

Le résultat est impressionnant. Très rapidement, AlphaTensor a retrouvé tous les algorithmes qui avaient déjà été identifiés par des humains. Mais dans certains cas, il a trouvé plus efficace ! Par exemple, pour la multiplication de deux matrices 4 × 4, l’algorithme de Strassen qui datait de 1969 nécessitait 49 multiplications. AlphaTensor est parvenu à 47 multiplications seulement (dans le cas des corps finis Z2). Pour le produit d’une matrice 4 × 5 par une matrice 5 × 5, le nombre minimal de multiplications est passé de 80 à 76.

L’équipe a examiné tous les produits de matrices jusqu’à des dimensions 5 × 5. Ils ont aussi exploré des matrices plus grandes en les décomposant en éléments plus petits. Avec leur méthode, les chercheurs ont, par exemple, réduit le nombre de multiplications de 1 022 à 990 dans le cas du produit de matrices 11 × 12 et 12 × 12.

Autre façon d’aborder le problème de l’optimisation, l’équipe a également demandé à AlphaTensor de chercher l’algorithme qui minimise le temps de calcul sur des processeurs spécifiques. Les performances se sont améliorées de 10 à 20 % dans certains cas.

De nombreuses applications bénéficieront de ces nouveaux résultats. AlphaTensor ouvre aussi la voie à l’utilisation de l’intelligence artificielle pour optimiser d’autres types d’algorithmes. Mais même dans le cas des matrices, une question subsiste, les solutions trouvées par AlphaTensor sont-elles les plus efficaces possible ou peut-on faire encore mieux ?

Article : La multiplication de matrices gagne en vitesse grâce à l’intelligence artificielle
Publié sur Pour La Science par Sean Bailly le 2 novembre 2022

AI is better at answering questions if you get another AI to ask them

Une IA répond mieux au questions quand celle-ci vient d’une autre IA

Présentation

Et si, pour faire progresser une intelligence artificielle, il n’y avait rien de mieux que de la faire entraîner par une autre intelligence artificielle? Cette technique est apparemment très prisée, explique New Scientist, notamment parce que le fonctionnement interne des IA est de plus en plus opaque, y compris pour les scientifiques dont c’est pourtant le domaine d’expertise.

L’article se focalise sur les «Large Language Models» considérés comme les algorithmes les plus évolués en matière de deep learning –terme qui englobe tout un ensemble de méthodes d’apprentissage automatique lui permettant d’atteindre un haut niveau d’abstraction. Les LLM sont aujourd’hui capables de lire et de comprendre le langage écrit. Leurs résultats sont prodigieux, et les réponses qu’ils apportent à certaines requêtes dépassent souvent les espérances.

Mais il s’avère que ces algorithmes peuvent se montrer encore plus performants si les requêtes sont elles-mêmes formulées par des intelligences artificielles. À l’université de Toronto, l’équipe dirigée par Yongchao Zhou vient de développer un nouveau modèle d’IA nommé Automatic Prompt Engineer (APE), capable de poser les meilleures questions qui soient. Et donc d’obtenir des réponses plus satisfaisantes encore que si des humains s’étaient chargé des requêtes.

Subtil

Les différences sont très fines, à tel point que l’esprit humain peut légitimement ne pas voir ce que cela change. Par exemple, selon Yongchao Zhou, là où un être humain s’adresserait aux LLM en disant «Élaborons cette solution pas à pas», l’APE dirait plutôt «Élaborons cette solution pas à pas afin d’obtenir la certitude d’avoir obtenu la bonne réponse.» Ce qui fait apparemment toute la différence au niveau des réponses apportées ensuite par les LLM.

Le comble, c’est que même le responsable de l’étude dit ne pas savoir pourquoi cela fonctionne mieux quand c’est l’APE qui soumet les requêtes, ni pourquoi la formulation change tout. Sans être optimales –on peut sans doute faire encore mieux, affirme-t-il–, les questions posées par l’IA de Yongchao Zhou sont pour l’instant les meilleures qui soient. Et elles surpassent en tout cas celles des humains.

En effet, sur 19 des 24 tâches ayant servi à faire des tests, la réponse de qualité supérieure ou égale lorsque la requête était posée par l’APE que lorsqu’elle émanait de l’un des dix ingénieurs –pourtant très qualifiés– participant à l’expérience. À croire, et c’est très sérieux, que les IA se comprennent mieux entre elles, et que la façon dont elles utilisent les subtilités du langage est bien supérieure à la nôtre.

Par exemple, explique aussi New Scientist, les requêtes «homme à la chevelure brune» ou «homme brun» peuvent ne pas du tout aboutir aux mêmes résultats. Et si cela nous semble aberrant, c’est sans doute parce que nous ne sommes plus assez fins.

Article source : Une IA répond mieux aux demandes lorsque c’est une autre IA qui les formule
Publié sur Slate par Thomas Messias le 11 novembre 2022

Article d’origine : AI is better at answering questions if you get another AI to ask them
Getting good answers from an artificial intelligence can be a tricky task, and now researchers have found that an AI is better at asking questions of another AI than people are
Publié sur New Scientist le 10 novembre 2022 (réservé aux abonnés)

Une IA a découvert des lois alternatives de la physique

La science moderne repose en grande partie sur le principe d’itération. On part de certaines affirmations simples et vérifiables pour construire des théories encore plus alambiquées qui, une fois validées à leur tour, serviront à établir de nouveaux modèles — et ainsi de suite.

Cette approche s’est montrée solide, et on lui doit aujourd’hui une immense quantité de progrès a ont indiscutablement fait avancer notre civilisation… mais cela ne signifie pas forcément qu’il s’ agissait de la seule piste possible. Si les circonstances avaient été différentes, notre méthode scientifique aurait très bien pu évoluer d’une façon très différente.

C’est une question à laquelle la plupart des amateurs de science-fiction ont déjà réfléchi ; par exemple, de très nombreux observateurs se sont demandé comment une espèce extraterrestre pourrait avoir conceptualisé ce que nous appelons la physique ou les mathématiques.

Jusqu’à très récemment, tous ces raisonnements relevaient plutôt de l’expérience de pensée ; mais la donne a commencé à changer avec l’explosion de l’intelligence artificielle. Cette technologie est incroyablement performante lorsqu’il s’agit de jongler avec différents éléments qui peuvent être très nombreux et surtout assez abstraits. C’est pour cette raison que l’IA fait des merveilles dans des domaines comme la vision par ordinateur.

Réiventer la physique en partant de zéro

Des chercheurs de l’Université de Columbia ont donc décidé de se livrer à une expérience très originale : ils ont demandé à une IA de redécouvrir par elle-même lois de la physique qui régissent le comportement de la matière. Mais surtout, elle devait le faire seulement à partir d’exemples concrets. Elle n’avait accès à aucune base théorique comme les théorèmes de Newton, ni à la moindre information sur la géométrie.

Leurs travaux reposent sur une caméra qui observe l’évolution d’un système physique, comme un pendule. Et il s’agit de la seule et unique ressource à sa disposition. À partir de ces exemples visuels simplistes, l’IA est chargée de déterminer le nombre de paramètres nécessaires pour décrire le comportement du système en question. De façon très imagée, c’est un peu comme si un scientifique de génie redécouvrait la physique en temps réel dans une dimension parallèle.

Prenons l’exemple bien connu du double pendule — un pendule accroché au bout d’un autre pendule. Pour le décrire dans le cadre de la physique telle qu’elle a été formalisée par Newton, il faut quatre paramètres — on parle de variables d’état — , à savoir l’angle et la vitesse angulaire pour chacun des deux bras. Les chercheurs étaient donc curieux de voir si l’IA allait elle aussi trouver quatre paramètres, ce qui pourrait éventuellement indiquer qu’elle aurait suivi le même raisonnement que les humains. Mais la réponse proposée était très surprenante : pour décrire le double pendule, le système a estimé qu’il faudrait… 4,7 paramètres !

Les chapitres suivants :

  • L’IA a ses raisons que la raison ignore
  • Un vrai générateur de “moments Eureka” ?
  • Un potentiel concret dans certains domaines

Décidément, entre les IA qui révolutionnent déjà la recherche scientifique, celles qui écrivent des articles scientifiques sur elles-mêmes et les travaux de ce genre, il y a de quoi être enthousiaste quant au futur de l’IA dans la recherche.

La documentation technique relative à ces travaux est disponible par ce lien.

Article source : Une intelligence artificielle a découvert des lois alternatives de la physique
Publié sur Le Journal du Geek par Antoine Gautherie le 9 Août 2022

Passer à la seconde partie des cette étude : Partie Deux