Qui est DeepMind ?

DeepMind est une entreprise britannique spécialisée dans l’intelligence artificielle. Originellement appelée DeepMind Technologies Limited et fondée en 2010 par Demis Hassabis, Mustafa Suleyman et Shane Legg, elle est rachetée le 26 janvier 2014, par Google pour plus de 628 millions de dollars américains.
L’objectif de DeepMind est de « résoudre l’intelligence ».
Pour atteindre ce but, l’entreprise essaie de combiner les meilleures techniques de l’apprentissage automatique et des neurosciences des systèmes pour construire de puissants algorithmes d’apprentissage généraliste. L’entreprise souhaite non seulement doter les machines d’intelligence artificielle performante, mais aussi comprendre le fonctionnement du cerveau humain.

Après des années de pertes, en 2020, une des plus grandes entreprises au monde de recherche sur l’intelligence artificielle, propriété de Google depuis 2014, a généré un profit avant impôt de 46 millions de livres sterling l’année dernière. Ses revenus ont été multipliés par trois.

La vidéo de gauche résume bien l’histoire de DeepMind.

Source : How Today’s Artificial Intelligence Teaches Itself
Diffusée sur Youtube le 22 octobre 2020.

 

Site internet : DeepMind  ou ici DeepMind our story

Quelques réalisation de DeepMind :

  • MuZero : Mastering Go, chess, shogi and Atari without rules
  • AlphaFold : a solution to a 50-year-old grand challenge in biology (voir l’article correspondant dans : IA dans la santé)
  • Using AI to predict retinal disease progression
  • Traffic prediction with advanced Graph Neural Networks
  • Specification gaming: the flip side of AI ingenuity
  • AlphaStar: Grandmaster level in StarCraft II using multi-agent reinforcement learning

Une vidéo sur Alphago

 

L’IA AlphaGo a poussé les joueurs humains de Go à devenir plus créatifs

Il y a quelques semaines, un joueur amateur de Go a vaincu l’un des systèmes d’intelligence artificielle (IA) les plus avancés qui existent à ce jour. Et pour ce faire, il a utilisé une stratégie mise au point avec l’aide d’une autre IA conçue pour trouver les failles de ces joueurs artificiels. Il s’avère que cette victoire n’est qu’un aspect d’une véritable renaissance du Go qui voit ses joueurs humains devenir de plus en plus créatifs depuis la victoire d’AlphaGo en 2016.

L’IA a poussé les joueurs de Go à devenir plus créatifs

Dans une récente étude publiée dans le journal PNAS, des chercheurs de l’Université de la Ville de Hong Kong et de Yale ont découvert que les joueurs humains de Go sont devenus de moins en moins prévisibles ces dernières années. Comme New Scientist l’explique, les scientifiques sont arrivés à cette conclusion en analysant un ensemble de données contenant pas moins de 5,8 millions de mouvements de Go réalisés durant des parties professionnelles entre 1950 et 2021. Avec l’aide d’un “superhumain” Go AI, un programme qui peut jouer la partie et évaluer la qualité de chaque mouvement, ils ont créé une statistique baptisée “index de qualité de décision” (DQI).

Après avoir assigné à chaque mouvement de leur jeu de données un DQI, l’équipe a découvert que, avant 2016, la qualité des parties professionnelles ne s’améliorait que très peu d’année en année. Au mieux, l’équipe enregistre un changement de DQI positif médian annule de 0,2. Certaines années, la qualité générale des parties a même diminué. Cependant, depuis l’arrivée des intelligences artificielles dans le jeu en 2018, les valeurs de DQI médian ont changé avec parfois plus de 0,7. Sur la même période, les joueurs professionnels ont employé davantage de stratégies novatrices. En 2018, 88 % des parties, en progression depuis les 63 % de 2015, voyaient les joueurs mettre en place des combinaisons de mouvements jamais observées auparavant.

Une conclusion qui peut surprendre

“Nos découvertes suggèrent que le développement de programmes d’intelligence artificielle ont poussé les joueurs humains à s’éloigner des stratégies traditionnelles et à explorer de nouvelles tactiques, ce qui, en conséquence, peut avoir amélioré leur prise de décision”, écrit notamment l’équipe.

S’il s’agit là d’un changement intéressant, celui-ci n’est pas contre-intuitif si vous y réfléchissez. Comme le professeur Stuart Russel de l’Université de Californie, Berkeley, déclarait à New Scientist, “il n’est pas surprenant que les joueurs qui s’entraînent contre des machines réalisent davantage de coups qui surprennent ces mêmes machines”.

 

How Today’s Artificial Intelligence Teaches Itself

By AlwaysAsking
Publié le 22 octobre 2020

Visitez la chaîne Youtube de DeepMind … Ici

Unveiling the predictive power of static structure in glassy systems

DeepMind développe une IA capable de prédire le mouvement des molécules de verre.

Abstract

Despite decades of theoretical studies, the nature of the glass transition remains elusive and debated, while the existence of structural predictors of its dynamics is a major open question. Recent approaches propose inferring predictors from a variety of human-defined features using machine learning. Here we determine the long time evolution of a glassy system solely from the initial particle positions and without any hand-crafted features, using graph neural networks as a powerful model.

We show that this method outperforms current state-of-the-art methods, generalizing over a wide range of temperatures, pressures, and densities. In shear experiments, it predicts the locations of rearranging particles.

The structural predictors learned by our network exhibit a correlation length which increases with larger timescales to reach the size of our system. Beyond glasses, our method could apply to many other physical systems that map to a graph of local interaction.

Résumé

Malgré des décennies d’études théoriques, la nature de la transition vitreuse reste insaisissable et débattue, tandis que l’existence de prédicteurs structurels de sa dynamique est une question ouverte majeure. Des approches récentes proposent d’inférer des prédicteurs à partir d’une variété de caractéristiques définies par l’homme en utilisant l’apprentissage automatique. Ici, nous déterminons l’évolution à long terme d’un système vitreux uniquement à partir des positions initiales des particules et sans aucune caractéristique définie manuellement, en utilisant les réseaux de neurones de graphe comme modèle puissant. Nous montrons que cette méthode est plus performante que les méthodes actuelles de l’état de l’art, en généralisant sur une large gamme de températures, de pressions et de densités. Dans les expériences de cisaillement, elle prédit l’emplacement des particules en réarrangement. Les prédicteurs structurels appris par notre réseau présentent une longueur de corrélation qui augmente avec des échelles de temps plus grandes pour atteindre la taille de notre système. Au-delà des verres, notre méthode pourrait s’appliquer à de nombreux autres systèmes physiques qui correspondent à un graphe d’interaction locale.

Les chercheurs ont pu conclure que l’IA est en mesure de donner un aperçu de la substance générale, des transitions biologiques et cela pourrait conduire à des avancées dans le domaine de la médecine comme dans celui de l’industrie. Cette avancée conclue par DeepMind ne contient cependant pas de description complète du changement d’état du verre. Cela, car il y a plusieurs inconnues sur le processus de formation de ce matériau.

DeepMind a néanmoins réussi à former un réseau de neurones pour générer des graphiques capables de prédire l’évolution de la formation du verre. Concrètement, ils ont créé un graphique d’entrée où les nœuds et arêtes représentaient les particules et leurs interactions.

D’après les chercheurs, les informations récoltées lors des tests pourraient permettre de déduire d’autres qualités du verre.

Persuadés que les techniques et modèles utilisés pourraient aider d’autres scientifiques, ils ont mis leurs travaux à disposition sur GitHub.

Language modelling at scale: Gopher, ethical considerations, and retrieval

GOPHER, le nouveau modèle de langage naturel de DeepMind de plus de 280 milliard de paramètres

Language, and its role in demonstrating and facilitating comprehension – or intelligence – is a fundamental part of being human. It gives people the ability to communicate thoughts and concepts, express ideas, create memories, and build mutual understanding. These are foundational parts of social intelligence. It’s why our teams at DeepMind study aspects of language processing and communication, both in artificial agents and in humans.

As part of a broader portfolio of AI research, we believe the development and study of more powerful language models – systems that predict and generate text –  have tremendous potential for building advanced AI systems that can be used safely and efficiently to summarise information, provide expert advice and follow instructions via natural language. Developing beneficial language models requires research into their potential impacts, including the risks they pose. This includes collaboration between experts from varied backgrounds to thoughtfully anticipate and address the challenges that training algorithms on existing datasets can create.

Today we are releasing three papers on language models that reflect this interdisciplinary approach. They include a detailed study of a 280 billion parameter transformer language model called Gopher, a study of ethical and social risks associated with large language models, and a paper investigating a new architecture with better training efficiency.

From : Language modelling at scale (Blog Deepmind)

Le langage, et son rôle dans la démonstration et la facilitation de la compréhension – ou de l’intelligence – est un élément fondamental de l’être humain. Il donne aux gens la capacité de communiquer des pensées et des concepts, d’exprimer des idées, de créer des souvenirs et de construire une compréhension mutuelle. Ce sont des éléments fondamentaux de l’intelligence sociale. C’est pourquoi les équipes de DeepMind étudient les aspects du traitement du langage et de la communication, tant chez les agents artificiels que chez les humains.

Dans le cadre d’un portefeuille plus large de recherches sur l’IA, nous pensons que le développement et l’étude de modèles de langage plus puissants – des systèmes qui prédisent et génèrent du texte – ont un potentiel énorme pour la construction de systèmes d’IA avancés qui peuvent être utilisés de manière sûre et efficace pour résumer des informations, fournir des conseils d’experts et suivre des instructions via le langage naturel. Le développement de modèles de langage bénéfiques nécessite des recherches sur leurs effets potentiels, y compris les risques qu’ils présentent. Cela implique une collaboration entre des experts de divers horizons afin d’anticiper et de relever les défis que peut poser l’entraînement d’algorithmes sur des ensembles de données existants.

Nous publions aujourd’hui trois articles sur les modèles de langage qui reflètent cette approche interdisciplinaire. Il s’agit d’une étude détaillée d’un modèle de langage transformateur de 280 milliards de paramètres appelé Gopher, d’une étude des risques éthiques et sociaux associés aux grands modèles de langage, et d’un article étudiant une nouvelle architecture offrant une meilleure efficacité de formation.

Le points importants de l’étude à retenir :

 

  • Gopher – A 280 billion parameter language model
    Gopher – Un modèle de langage de 280 milliards de paramètres
    D
  • Ethical and social risks from Large Language Models
    Risques éthiques et sociaux des grands modèles linguistiques
    D
  • Efficient Training with Internet-Scale Retrieval
    Formation efficace avec recherche à l’échelle d’Internet
    D
  • Going forward
    Aller plus loin

l’IA et le deep learning au service de la connaissance du territoire pour l’IGN

L’Institut Géographique National souhaite étendre l’usage des technologies de traitement automatique par intelligence artificielle pour affiner les connaissances du territoire.

 

L’Institut national de l’information géographique et forestière (IGN) a annoncé au début de l’été 2022 un nouveau chantier, en concertation avec le gouvernement, pour produire des données d’occupation du sol automatisées par intelligence artificielle.

L’annonce

L’objectif est de couvrir toute la France d’ici 2024 via ce procédé. L’IGN compte y parvenir avec des données « cohérentes au niveau national » et « livrées à intervalle rapproché, et en concertation étroite avec les territoires » dit l’institut dans un communiqué.

L’IGN travaille à décrire l’occupation et l’usage des sols, dans le cadre de l’Observatoire de l’artificialisation des sols, un programme lancé en collaboration avec le Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (CEREMA) et l’institut national de la recherche en agronomie (INRAE). Ce qui en ressort est un référentiel de données géographiques, selon la « nomenclature OCS GE » (occupation du sol à grande échelle).

Communs numériques

Concrètement, l’IGN se sert de l’IA et du deep learning pour automatiser ses chaînes de production initiales et de mise à jour des données géographiques qui décrivent l’occupation des sols. Les méthodes de deep learning permettent de reconnaître automatiquement des objets, comme des arbres ou des bâtiments, sur des images aériennes ou spatiales.

Dans un second temps, un nouveau modèle de deep learning baptisé « France entière » sera entraîné sur la base des annotations réparties sur l’ensemble du territoire métropolitain et permettra de générer des prédictions ainsi que des produits OCS GE.

En outre, l’institut annonce qu’il met à disposition ses ressources qui contribuent au processus automatisé, « dans une démarche d’enrichissement commun ». Ainsi, chacun peut accéder notamment aux annotations, c’est-à-dire les données qui permettent d’entraîner les modèles deep learning, les jeux de données deep learning ou encore les cartes de prédictions deep learning.

L’IGN et ses partenaires visent une couverture du territoire métropolitain puis des départements et régions d’outre-mer d’ici fin 2024. Les jeux de données seront progressivement diffusés ici.

DeepMind accélère la découverte d’algorithmes de multiplication matricielle

Ndlr : Dans ma jeunesse étudiante (certes c’était il y à longtemps maintenant) j’ai souffert lors des cours sur les matrices ; avec cette cet avancée pourquoi fait-on souffrir les étudiants ?

La multiplication matricielle est au cœur de nombreuses tâches de calcul, notamment les réseaux de neurones, les graphiques 3D… DeepMind a présenté récemment AlphaTensor, une approche d’apprentissage par renforcement profond basée sur AlphaZero, « permettant de découvrir des algorithmes nouveaux, efficaces et prouvablement corrects » pour des tâches fondamentales telles que la multiplication matricielle. L’équipe de recherche a publié ses travaux dans l’article « Discovering faster matrix multiplication algorithms with reinforcement learning » début octobre dans la revue Nature.

La multiplication matricielle est l’une des opérations les plus simples en algèbre, couramment enseignée dans les cours de mathématiques du secondaire. En dépit de ce fait, elle sous-tend de nombreux processus dans l’informatique et le monde numérique.

Elle est utilisée pour traiter des images sur des smartphones, reconnaître des commandes vocales, générer des graphiques pour des jeux informatiques, exécuter des simulations, pour prédire la météo, compresser des données et des vidéos pour les partager sur Internet… D’ailleurs, les entreprises du monde entier investissent beaucoup de temps et d’argent au développement de matériel informatique pour multiplier efficacement les matrices. Ainsi, même des améliorations mineures de l’efficacité de la multiplication matricielle peuvent avoir un impact généralisé.

L’algorithme de Strassen

Pendant des siècles, les mathématiciens ont cru que l’algorithme de multiplication matricielle standard était le meilleur que l’on pouvait atteindre en termes d’efficacité. Mais en 1969, le mathématicien allemand Volker Strassen a présenté une méthode pour multiplier les matrices de taille deux plus rapidement que les méthodes standard connues jusque-là. Alors considéré comme révolutionnaire, il est encore souvent utilisé aujourd’hui.

En étudiant de très petites matrices (taille 2×2), Volker Strassen a découvert une façon ingénieuse de combiner les entrées des matrices pour produire un algorithme plus rapide. Plus de cinquante ans après, les experts n’ont pas trouvé l’algorithme optimal pour multiplier deux matrices 3 × 3, pas plus que réussi à surpasser l’approche à deux niveaux de Strassen dans un corps fini, ce qu’AlphaTensor a réalisé.

La figure ci-dessous illustre un tenseur de multiplication matricielle et algorithmes.

a)Tenseur représentant la multiplication de deux matrices 2 × 2. Les entrées tensorielles égales à 1 sont représentées en violet et les entrées 0 sont semi-transparentes. Le tenseur spécifie les entrées des matrices d’entrée à lire et l’endroit où écrire le résultat. b) algorithme de Strassen pour multiplier 2 × 2 matrices en utilisant 7 multiplications. c) l’algorithme de Strassen dans la représentation du facteur tensoriel. Les facteurs empilés U, V et W (vert, violet et jaune, respectivement) fournissent une décomposition de rang 7. La correspondance entre les opérations arithmétiques (b) et les facteurs (c) est montrée en utilisant les couleurs susmentionnées. (Source : DeepMind)

L’article complet : DeepMind accélère la découverte d’algorithmes de multiplication matricielle avec AlphaTensor
Publié sur ActuIA (je ne dis que du bien de ce site) publié le 17 octobre 2022

Une IA signée DeepMind capable de générer un script de film : Dramatron

DeepMind met au point Dramatron, une IA pour générer des scripts pour le cinéma ou le théâtre.

Créer une intelligence artificielle capable de rédiger seule des scénarios de films ou de pièces de théâtre. C’est la mission que s’est donnée la société de DeepMind, propriété de Google. Cet outil d’écriture, qui a pour nom Dramatron, peut venir en aide aux scénaristes en panne d’inspiration.

Pour aller plus loin…

Je promets de revenir sur ce sujet très bientôt avec un vrai article…

 

DeepMind offre aux chercheurs une représentation de toutes les protéines humaines

AlphaFold reveals the structure of the protein universe

It’s been one year since we released and open sourced AlphaFold, our AI system to predict the 3D structure of a protein just from its 1D amino acid sequence, and created the AlphaFold Protein Structure Database (AlphaFold DB) to freely share this scientific knowledge with the world. Proteins are the building blocks of life, they underpin every biological process in every living thing. And, because a protein’s shape is closely linked with its function, knowing a protein’s structure unlocks a greater understanding of what it does and how it works. We hoped this groundbreaking resource would help accelerate scientific research and discovery globally, and that other teams could learn from and build on the advances we made with AlphaFold to create further breakthroughs. That hope has become a reality far quicker than we had dared to dream. Just twelve months later, AlphaFold has been accessed by more than half a million researchers and used to accelerate progress on important real-world problems ranging from plastic pollution to antibiotic resistance.

 

Today, I’m incredibly excited to share the next stage of this journey. In partnership with EMBL’s European Bioinformatics Institute (EMBL-EBI), we’re now releasing predicted structures for nearly all catalogued proteins known to science, which will expand the AlphaFold DB by over 200x – from nearly 1 million structures to over 200 million structures – with the potential to dramatically increase our understanding of biology.

Cela fait un an que nous avons publié et mis en libre accès AlphaFold, notre système d’IA permettant de prédire la structure 3D d’une protéine à partir de sa séquence d’acides aminés 1D, et que nous avons créé la base de données AlphaFold sur la structure des protéines (AlphaFold DB) pour partager librement ces connaissances scientifiques avec le monde entier. Les protéines sont les éléments constitutifs de la vie, elles sous-tendent tous les processus biologiques de chaque être vivant. Et comme la forme d’une protéine est étroitement liée à sa fonction, la connaissance de la structure d’une protéine permet de mieux comprendre ce qu’elle fait et comment elle fonctionne. Nous espérions que cette ressource révolutionnaire contribuerait à accélérer la recherche et les découvertes scientifiques à l’échelle mondiale, et que d’autres équipes pourraient s’inspirer des avancées réalisées avec AlphaFold pour créer de nouvelles percées. Cet espoir est devenu une réalité bien plus rapidement que nous n’avions osé le rêver. Douze mois plus tard, plus d’un demi-million de chercheurs ont eu accès à AlphaFold et l’ont utilisé pour accélérer les progrès dans la résolution de problèmes importants du monde réel, allant de la pollution plastique à la résistance aux antibiotiques.

Aujourd’hui, je suis très heureux de vous faire part de la prochaine étape de ce voyage. En partenariat avec l’Institut européen de bioinformatique de l’EMBL (EMBL-EBI), nous publions maintenant les structures prédites de presque toutes les protéines cataloguées connues de la science, ce qui multipliera la base de données AlphaFold par plus de 200 – de près d’un million de structures à plus de 200 millions de structures – avec le potentiel d’améliorer considérablement notre compréhension de la biologie.

DeepMind se dote d’une mémoire, une étape importante pour l’intelligence artificielle ?

DeepMind dit avoir trouvé le moyen pour qu’une intelligence artificielle se souvienne de ses erreurs. Une mémoire pour quoi faire ?

Présentation

Après la victoire d’AlphaGo contre un champion de jeu de go et les rêveries de Deep Dream, la filiale de Google consacrée à l’intelligence artificielle a fait savoir qu’elle progressait vers la constitution d’un algorithme capable de mémoriser des tâches effectuées en jouant à des jeux vidéo. Autrement dit, un algo capable d’apprendre de ses erreurs.

C’est une publication qui a fait peu de bruit. Pourtant, on y trouve cette affirmation des chercheurs de DeepMind, la filiale intelligence artificielle (IA) de Google : « Les programmes informatiques qui apprennent à effectuer des tâches les oublient très rapidement. Nous démontrons que les règles d’apprentissage peuvent être modifiées afin qu’un programme se rappelle de ses anciennes fonctions quand il en apprend une autre. C’est une étape importante vers des programmes plus intelligents, capables d’apprendre progressivement tout en s’adaptant ». En somme, DeepMind serait à présent dotée d’une mémoire, qui lui permet de jouer à plusieurs jeux vidéo d’affilée, et d’apprendre progressivement à les maîtriser.

DeepMind a déjà derrière elle un certain nombre de faits d’armes retentissants. De la victoire de son programme AlphaGo contre le troisième joueur mondial de jeu de go, en juillet 2016, au fait de pouvoir jouer à un jeu vidéo basique (Montezuma’s Revenge, sur Atari), l’entreprise rachetée par Google pour 580 millions d’euros en 2014 communique régulièrement sur ses exploits.

 Objectif : « résoudre l’intelligence »

L’objectif claironné par ses fondateurs est clair : « résoudre l’intelligence ». Pour ce faire, DeepMind utilise la technique du deep learning (apprentissage profond), un système d’apprentissage et de classification fondé sur des réseaux de neurones artificiels, déjà utilisé par des assistants virtuels comme Siri, Cortana ou Google Now.

Le système mis en avant par l’étude, baptisé Deep Q-Network a déjà fait ses preuves dans d’autres tests effectués sur des jeux Atari. Il est développé sur le principe du réseau de neurones, « une façon de traiter l’information qui, en gros, est inspirée par le cerveau humain », confie à Usbek & Rica James Kirkpatrick, le directeur de l’étude.

Les ingénieurs de DeepMind se sont penchés sur les connexions synaptiques, qui permettent la mémorisation d’éléments dans une situation donnée afin de pouvoir les réutiliser dans un autre contexte.

« Les réseaux de neurones permettent de traiter n’importe quel type de données »

« Le réseau de neurones permet d’avoir une approche anthropomorphique, même si ses principes existaient avant », précise un chercheur du CEA spécialisé dans l’extraction d’informations multimodales. Concrètement, « ces réseaux permettent de traiter n’importe quel type de données, et sont souvent utilisés pour la reconnaissance de formes ou d’images », note encore James Kirkpatrick.

Si ces réseaux de neurones sont efficaces pour une tâche donnée, il faut encore résoudre un problème fondamental : la machine ne parvient pas à se souvenir. Comme nous le précise James Kirkpatrick, « jusqu’ici, peu de progrès ont été faits pour permettre l’apprentissage séquencé de plusieurs tâches ». Et DeepMind serait justement en train de trouver la solution.

Un nouvel algorithme pour que l’IA se souvienne

Ce bout de solution est un algorithme du nom d’Elastic Weight Consolidation. « Notre approche se souvient d’anciennes tâches en choisissant de ralentir l’apprentissage à certains moments. En implémentant cette solution, l’algorithme a donné de très bons résultats et appris à jouer à de nombreux jeux Atari de façon séquencée. » Cet algorithme constitue-t-il la première étape vers une IA capable de se souvenir de ses erreurs, et de continuer à apprendre une fois effectuée la tâche pour laquelle elle a été conçue ? Pas si sûr.

« Ça a l’air astucieux, mais on n’a pas assez d’éléments pour assurer que c’est une avancée considérable »

Pour Jean-Gabriel Ganascia, expert en intelligence artificielle au laboratoire d’informatique de Paris VI, « DeepMind dit avoir développé une technique qui permet de ne pas oublier un certain nombre de choses. Cela fait partie des techniques qui permettent de développer l’IA, mais il faudrait avoir plus de détails sur les tests qui ont été réalisés. Ça a l’air astucieux, mais on n’a pas assez d’éléments pour assurer que c’est une avancée considérable.  »

Tristan Cazenave, professeur d’intelligence artificielle au LAMSADE à l’Université Paris Dauphine, note que ce début de solution pourrait être utilisé pour la prochaine grande étape visée par DeepMind : créer une IA capable de jouer à des jeux viéo plus complexes. « On peut faire des IA sans mémoire, par exemple pour le jeu de go. Mais pour d’autres d’applications, il sera nécessaire de mémoriser ce qu’il s’est passé. Par exemple, DeepMind travaille sur StarCraft 2 : pour ce jeu, il est intéressant de mémoriser les actions effectuées, notamment les déplacements sur la carte ».

Chez DeepMind, James Kirkpatrick n’évoque pas encore StarCraft 2, mais tient à préciser que « la capacité à apprendre à effectuer des tâches de façon séquencée, à apprendre en se remémorant les tâches précédentes, était considérée comme un problème insolvable. Mais nous avons réalisé un progrès important en utilisant une méthode simple, inspirée par la neuroscience ».

Des applications concrètes pour la suite ?

Un progrès qui, selon lui et les experts que nous avons interrogés, reste encore au stade de la recherche. En se projetant dans les années qui viennent, la méthode pourrait cependant être utilisée dans les nombreux champs où l’intelligence artificielle, et le deep learning, s’appliquent déjà concrètement. « Ces techniques d’apprentissage sont déjà utilisées dans de nombreux champs, précise Jean-Gabriel Ganascia. Elles permettent de construire des connaissances à partir d’exemples étiquetés, et s’appliquent dans l’exécution de nombreuses tâches : reconnaissance de la parole, traduction logique du langage ou encore traitement d’images ».

Tristan Cazenave imagine de son côté que « cette nouvelle approche pourrait être utilisé dans les jeux vidéo, ou encore dans la finance : un réseau qui apprend ce qui se passe peut tout à fait procéder à différentes tâches par la suite ».

Chez DeepMind, James Kirkpatrick envisage déjà « de nouvelles possibilités ». «  Les succès de notre algorithme pourraient aussi avoir des répercussions dans notre compréhension du cerveau humain, en apportant la preuve que la consolidation synaptique est bien l’un des aspects fondamentaux de l’apprentissage chez les mammifères. »

Des mammifères qui pourront peut-être bientôt, grâce aux chercheurs derrière les algorithmes de DeepMind,  affronter une intelligence artificielle dans d’épiques tournois de StarCraft 2.

Article source : DeepMind se dote d’une mémoire, une étape importante pour l’intelligence artificielle ?
Publié sur Usbek & Rica par Guillaume Ledit le 21 mars 2017

Quelques articles en vrac…

 

AlphaGeometry un champion des mathématiques par DeepMind

Un système d’intelligence artificielle mis au point par DeepMind a réussi à résoudre des exercices mathématiques grâce à une méthode inédite. Cette nouveauté est-il un grand pas en avant dans le travail vers les intelligences artificielles générales ?

 

Le résultat

Google DeepMind ont dévoilé AlphaGeometry, une IA capable de résoudre des problèmes de géométrie, selon une étude parue le 17 janvier 2024 dans Nature. Leurs résultats sont impressionnants : cette IA parvient à résoudre des exercices du niveau des Olympiades internationales de mathématiques (une compétition annuelle de très haut niveau organisée pour les lycéens).

« Lors d’un test d’évaluation de 30 problèmes de géométrie des Olympiades, AlphaGeometry en a résolu 25 dans le temps imparti », relatent les chercheurs de Google. « À titre de comparaison, le système précédent [d’IA] avait résolu 10 de ces problèmes de géométrie ». Du côté des médaillés humains, ceux-ci arrivent en moyenne à résoudre quasiment 26 problèmes.

Pas mal du tout !

La technique maintenant

Bien qu’en anglais, je vous laisse lire le papier de Blog : AlphaGeometry: An Olympiad-level AI system for geometry

Et l’article publié sur Nature : Solving olympiad geometry without human demonstrations

Cette avancée ouvre de nombreuses portes à l’IA

Avant la mise au point et la publication d’AlphaGeometry, les chercheurs étaient confrontés à un autre problème de taille : le manque de données nécessaires à l’entraînement de l’IA. C’est l’autre gros challenge auxquelles les IA étaient jusque-là confrontées en mathématiques : les IA ont besoin de s’entraîner sur de vastes ensembles de données afin d’apprendre et de fournir des résultats pertinents. Or, s’il existe de grosses bases de données textuelles et imagées, ce n’était pas le cas pour les mathématiques.

« Avec AlphaGeometry, nous démontrons la capacité croissante de l’IA à raisonner logiquement et à découvrir et à de nouvelles connaissances », s’enthousiasment beaucoup chercheurs en mathématiques.

Autre référence : Une intelligence artificielle fait ses preuves en maths (La lecture complète est réservée aux abonnés)
Publié sur Le Monde par David Larousserie le 17 janvier 2024