Skip to main content
search
Quantum & IA

Facebook vient de changer de nom et devient : Meta

Dans les pages suivantes je parlerai toujours de Facebook (j’ai pas envie de tout changer), par la suite les nom Meta sera utilisé.

Le logo de Meta détourné par le public

En effectuant mes recherches je suis tombé sur quelques détournements, je vous laisse apprécier (ou pas) :

 

Je tiens à m’excuser auprès des auteurs car, sur le moment je n’ai pas conservé les sources des ces images.

Merci pour leur compréhension.

La série continue :

 

Un modèle développé par Facebook traduit automatiquement un langage informatique vers un autre

Il est l’œuvre des chercheurs du laboratoire parisien de Facebook AI Research

Transcoder, c’est le petit nom du modèle développé par des chercheurs du laboratoire de Facebook AI Research, basé à Paris depuis cinq ans. Il est capable de traduire un code source vers un autre. Il a été présenté dans un article (PDF) le 5 juin.

Du Python vers du C++

Transcoder de son petit nom est un transcompilateur, c’est-à-dire qu’il prend le code source d’un langage de programmation et le compile dans un autre langage de programmation. En temps normal un transcompilateur utilise des techniques qui manquent souvent de lisibilité et ne respecte pas toujours les conventions du langage de destination. Cela induit le besoin d’avoir recours à des corrections manuelles, plus longues et donc plus couteuses.

En tant que transcompilateur neuronal non supervisé, Transcoder améliore significativement la précision avec laquelle un code source est traduit. Selon Guillaume Lample, l’un des chercheurs du projet joint par lemondeinformatique, l’utilité de Transcoder est de « convertir du code écrit dans un langage lent à l’exécution, comme Python, vers un langage plus rapide comme le C ou le C++ ». Il permettra également de convertir des programmes et des librairies de code datés comme Cobol. L’un des avantages du modèle créer par l’équipe de Facebook AI Research est de ne requérir « aucune expertise dans les langages source ou cible et peut être facilement généralisée à d’autres langages de programmation ».

La traduction de langues naturelles comme inspiration pour Transcoder

Pour parvenir à ce résultat, les scientifiques se sont basés sur leurs travaux datant de 2 ans sur la traduction du langage naturel avec peu de ressources. Facebook portant une attention particulière aux IA dans le domaine des langues naturelles. Guillaume Lample a expliqué à lemondeinformatique, « On entraine un modèle à traduire du Python vers le C++, et on l’entraine à reconstruire le code Python initial en se basant sur la traduction générée, approximative, en C++ ». Entrainé sur des codes en open source puis testé de différentes façons, les chercheurs démontrent avoir obtenu des résultats supérieurs aux modèles du genre préexistant.

Lien technique : Avec Transcoder, Facebook AI Research accélère le portage d’un langage vers un autre
Publié sur Le Monde Informatique le 9 juin 2020 par Maryse Gros

Extrait :

Basé sur les méthodes conçues pour traduire les langues naturelles

« Notre méthode s’appuie exclusivement sur du code source monolingue, ne requiert aucune expertise dans les langages source ou cible et peut être facilement généralisée à d’autres langages de programmation », indiquent les chercheurs français dans leur article. « Une particularité du projet est que les méthodes utilisées sont les mêmes que celles développées pour la traduction de langues naturelles », nous a expliqué Guillaume Lample. « Nous avons développé ces méthodes il y a 2 ans, pour traduire des langues avec peu de ressources, telles que le Sinhala, Urdu, Pachto ou Népalais. Et ce sont exactement les mêmes techniques que nous avons utilisées pour traduire du code source d’un langage de programmation à un autre ». Les méthodes en question reposent sur trois principes illustrés ci-dessous.

Facebook AI Research s’appuie sur trois méthodes de traduction des langues naturelles : Cross-lingual masked language model pretraining, Denoising auto-encoding et Back-translation. (Crédit : Facebook AI Research / agrandir l’image)

« La méthode la plus intuitive est la « back-translation » », précise Guillaume Lample. « On entraine un modèle à traduire du Python vers le C++, et on l’entraine à reconstruire le code Python initial en se basant sur la traduction générée, approximative, en C++ », décrit-il en renvoyant également sur un billet de blog qui résument ces techniques appliquées aux langues naturelles…

Une des IA traductrices les plus puissantes au monde

Contrairement à la majorité des traducteurs, cette nouvelle intelligence artificielle développée par Facebook ne s’appuie pas sur les données de la langue anglaise.

Facebook a dévoilé M2M-100, le premier modèle de traduction automatique multilingue (MMT) basé sur l’intelligence artificielle qui peut traduire un contenu dans 100 langues différentes, sans se baser sur les données de la langue anglaise. Disponible en open source, cet outil puissant permettrait « d’améliorer la qualité des traductions pour des milliards de personnes », promet Facebook.

Un modèle basé sur 15 milliards de paramètres

À l’heure actuelle, la plupart des modèles multilingues instantanés se basent sur les données de la langue anglaise pour effectuer leurs traductions. Pour passer du chinois au français par exemple, la majorité des outils feront d’abord un cheminement du chinois vers l’anglais, avant de passer de l’anglais au français. Un procédé qui laisse souvent place à des traductions hasardeuses.

Le département de recherche en intelligence artificielle de Facebook a travaillé à changer cela avec M2M-100, un modèle de traduction multilingue capable de traduire 100 langues entre elles, et qui passe directement d’une langue à une autre sans se baser sur l’anglais. Résultat : les traductions obtenues se montrent bien plus précises et justes que celles générées par les modèles connus jusqu’à présent.

Pour parvenir à ce résultat, les scientifiques en charge du projet ont passé plusieurs années à récolter 7,5 milliards de phrases traduites dans différentes langues dans l’objectif d’entraîner leur modèle qui comporte aujourd’hui 15 milliards de paramètres. Un travail long et fastidieux qui a commencé par l’utilisation de CommonCrawl (ccAligned, ccMatrix) pour recueillir des exemples de textes sur le web. FastText, un système de classification de texte que Facebook a développé il y a quelques années, a ensuite permis d’identifier les langues dans lesquelles étaient écrits les textes.

Enfin, le protocole de minage LASER a été capable de repérer automatiquement des phrases traduites en différentes langues. Angela Fan, assistante de recherche pour ce projet, détaille : « Il (LASER) lit les phrases, prend les textes et crée une représentation mathématique de ces derniers, de sorte à ce que les phrases qui ont la même signification, correspondent à la même pensée ».

M2M-100 transcendera les traductions instantanées sur Facebook

Pour Facebook, l’utilisation de M2M-100 est toute trouvée. Grâce à ce modèle puissant, le réseau social de Mark Zuckerberg pourra considérablement améliorer la qualité des traductions instantanées disponibles sur sa plateforme, offrant ainsi une plus grande lisibilité à ses utilisateurs. Pour rappel, chaque jour, ce sont 20 milliards de traductions qui sont opérées sur Facebook. Néanmoins, avant d’en arriver là, le modèle de traduction automatique multilingue devra encore se soumettre à encore plusieurs tests de conformité.

Article source : Facebook a créé l’une des IA traductrices les plus puissantes au monde
Publié sur SiècleDigital le 20 octobre 2020 par Joana Pimenta

Document interne FaceBook :

Deux vidéo sur les scandales liés à Facebook.

De gauche à droite :

  • What is the Cambridge Analytica scandal?
  • Facebook’s Cambridge Analytica data scandal, explained

En anglais (facile) ; sous-titrage français possible

Reconnaissance faciale : Facebook va payer 650 millions de dollars pour clore une action judiciaire

Retour en 2015 dans l’Illinois. Des utilisateurs de Facebook ont déposé un recours contre le réseau social pour dénoncer une fonctionnalité de Facebook qui permet de reconnaître le profil d’un ami en recourant à la reconnaissance faciale. L’outil pioche justement dans les images précédemment postées pour identifier nos contacts. Cette option violerait la loi Biometric Information Privacy Act (BIPA), en vigueur dans cet État.

Chaque plaignant touchera … 345 USD !

New AI research to help predict COVID-19 resource needs from a series of X-rays

Depuis le site Facebook AI research.

As part of our ongoing collaboration with NYU Langone Health’s Predictive Analytics Unit and Department of Radiology, we have developed three machine learning (ML) models that could help doctors predict how a patient’s condition may develop, in order to help hospitals ensure they have sufficient resources to care for patients:

1) a model for predicting patient deterioration based on a single X-ray,
2) a model for predicting patient deterioration based on a sequence of X-rays, and
3) a model for predicting how much supplemental oxygen (if any) a patient might need based on a single X-ray.

En français :

Dans le cadre de notre collaboration engagée avec l’unité d’analyse prédictive et le département de radiologie de NYU Langone Health, nous avons mis au point trois modèles d’apprentissage machine (ML) qui pourraient aider les médecins à prédire l’évolution de l’état d’un patient, afin d’aider les hôpitaux à s’assurer qu’ils disposent de ressources suffisantes pour s’occuper des patients :

1) un modèle permettant de prédire la détérioration de l’état du patient à partir d’une seule radiographie,
2) un modèle de prédiction de la détérioration du patient basé sur une séquence de rayons X, et
3) un modèle permettant de prédire la quantité d’oxygène supplémentaire (le cas échéant) dont un patient pourrait avoir besoin sur la base d’une seule radiographie.

Pour lire l’ensemble :

New AI research to help predict COVID-19 resource needs from a series of X-rays
Publié sur le site interne Facebook AI Research le 15 janvier 2021

Grâce à l’IA Facebook rend les scanners IRM quatre fois plus rapides

Le modèle d’intelligence artificielle n’a besoin que d’un quart des données pour prédire les résultats du scanner.

NDLR : Ce point correspond à une expérience personnelle. Atteins d’une tumeur para-cervicale j’ai passé plus de 14 IRM du cerveau…

Les chercheurs en intelligence artificielle de Facebook et les médecins de l’Ecole de médecine de l’Université de New York ont développé un système qui reconstitue parfaitement des images d’IRM tout en étant quatre fois plus rapide qu’un examen standard.

La division d’intelligence artificielle de Facebook (le FAIR) et l’Université de New York (NYU) ont travaillé conjointement pour améliorer les performances des scanners IRM grâce au deep learning. Le projet baptisé fastMRI, alimenté par l’intelligence artificielle, permet aux scanners d’être quatre fois plus rapides que la normale.

Un réseau de neurones pour compléter les images
Traditionnellement les IRM utilisent une formule mathématique pour générer des images à partir des données issues de la résonance magnétique. Collecter les données nécessaires peut souvent prendre plus d’une heure. Un examen qui peut être compliqué à réaliser pour les personnes malades, blessées, claustrophobes ou en bas âge. C’est pourquoi le projet FastMRI cherche à réduire la durée des IRM.

Comment ?

Les équipes ont planché sur le développement d’un réseau de neurone capable de combler un manque de données pour reconstituer une image. Les équipes de Facebook assurent avoir « expérimenté des milliers de variantes du modèle » avant de trouver un algorithme qui arrive à recréer une image fiable et précise en comblant lui-même les lacunes issues du manque de données. Pour parvenir à ce résultat, le réseau de neurones a été entraîné à reconstituer des images à partir d’une base de données comportant près de 1 200 IRM du genou. Afin de tester la fiabilité de l’algorithme, six radiologues ont été conviés à analyser deux séries d’IRM du genou provenant de 108 patients. Les images qui leur ont été montrées étaient bien évidemment anonymes. Pour chaque patient, deux jeux d’images ont été fournies : les unes provenant d’une IRM standard et les autres de la méthode rapide.
Le réseau neuronal a appris au fil des tests. Il a désormais une idée « abstraite » de ce à quoi ressemble une image médicale. Il se sert de cette base pour faire une prédiction sur le résultat final. C’est un peu comme un architecte qui a construit des dizaines de piscines. Au fil des années, de son apprentissage et de son expérience, il a une idée plus précise d’où se trouve les machines, le petit bassin, le plongeoir, etc. Il peut donc dessiner ses plans plus rapidement qu’au début. C’est la même chose avec l’intelligence artificielle sauf qu’il ne lui faut pas autant d’années pour apprendre.

Le modèle d’IA fait des prédictions

Selon Dan Sodickson, professeur de radiologie au sein de la NYU Langone Health :
« Le réseau neuronal connaît la structure globale de l’imagerie médicale. D’une certaine manière, nous nous efforçons de remplir ce qui est unique dans le cas de ce patient en particulier, en nous basant sur les données à notre disposition. C’est une étape majeure vers l’intégration de l’IA dans l’imagerie médicale ».

Cette découverte pourrait non seulement permettre d’améliorer le confort des patients avec des examens plus rapides, mais aussi de recevoir plus de patients pour faire des IRM. L’ensemble des travaux de recherches et le modèle développé sont en accès libre sur GitHub. Les partenaires expliquent avoir une approche ouverte afin de permettre à chacun d’avancer sur ce sujet. Les recherches sur l’utilisation de systèmes d’intelligence artificielle dans le domaine de la radiologie sont nombreuses. Mais très souvent, les équipes cherchent à établir directement des diagnostics à la place du médecin et non pas à compléter les lacunes éventuelles de l’examen lui-même.

Pour le futur

L’étape suivante consiste désormais à introduire cette technologie dans les hôpitaux, là où elle peut réellement aider des patients qui viennent passer des scanners IRM mais il faudra vaincre aussi la résistance des professionnels. L’équipe de fastMRI est convaincue que cela peut se faire assez rapidement, peut-être en quelques années seulement. De nombreuses intelligences artificielles accompagneront bientôt nos professionnels de santé. Une IA est par exemple capable de détecter des maladies rares à partir du visage d’un patient. Une autre peut détecter le cancer du poumon ou encore la malade d’Alzheimer 6 ans avant son diagnostic par un médecin humain. Bref, l’IA va devenir incontournable dans le secteur de la santé.

Voir aussi la page : L’IA dans la Santé

Covid 19 : Facebook launches AI to help hospitals anticipate serious cases

Researchers at Facebook and New York University (NYU) claim to have developed three machine learning models that could help doctors

Researchers at Facebook and New York University (NYU) claim to have developed three machine learning models that could help doctors predict how a COVID-19 patient’s condition might develop. The open-sourced models, all of which require no more than a sequence of X-rays, ostensibly predict patient deterioration up to four days in advance and the amount of supplemental oxygen (if any) a patient might need.

 

The novel coronavirus pandemic continues to reach alarming new heights in the U.S. and around the world. In the U.S. last week, daily deaths exceeded 4,000 for the first time since the start of the health crisis. Record numbers of infections in the hundreds of thousands per day have placed a strain on health systems nationwide, with states like California struggling to maintain space in overtaxed intensive care units.

Huiying Medical, Alibaba, RadLogicsLunit, DarwinAI, Infervision, Qure.ai, and others have developed AI algorithms that ostensibly diagnose COVID-19 from X-rays with high accuracy. What differentiates the approach taken by Facebook and NYU, however, is that it attempts to predict long-term clinical trajectories. Stanford, Mount Sinai, and electronic health record vendors Epic and Cerner have developed models that turn out risk scores for a patient’s chances of dying or needing a ventilator, but few (if any) make these predictions from a single scan or electronic medical record…

Les chercheurs de Facebook et de l’Université de New York (NYU) affirment avoir mis au point trois modèles d’apprentissage automatique qui pourraient aider les médecins à prédire l’évolution de l’état d’un patient atteint du COVID-19. Les modèles en libre accès, qui ne nécessitent pas plus qu’une séquence de radiographies, pourraient prédire la détérioration de l’état du patient jusqu’à quatre jours à l’avance et la quantité d’oxygène supplémentaire (le cas échéant) dont il pourrait avoir besoin.

La nouvelle pandémie de coronavirus continue d’atteindre des niveaux alarmants aux États-Unis et dans le monde entier. Aux États-Unis, la semaine dernière, le nombre de décès quotidiens a dépassé 4 000 pour la première fois depuis le début de la crise sanitaire. Le nombre record d’infections, qui se comptent par centaines de milliers par jour, a mis à rude épreuve les systèmes de santé dans tout le pays, des États comme la Californie luttant pour conserver de l’espace dans des unités de soins intensifs surchargées.

Huiying Medical, Alibaba, RadLogics, Lunit, DarwinAI, Infervision, Qure.ai et d’autres ont mis au point des algorithmes d’IA qui diagnostiquent ostensiblement le COVID-19 à partir de radiographies avec une grande précision. Ce qui différencie l’approche adoptée par Facebook et NYU, cependant, est qu’elle tente de prédire les trajectoires cliniques à long terme. Stanford, Mount Sinai et les fournisseurs de dossiers médicaux électroniques Epic et Cerner ont développé des modèles qui produisent des scores de risque pour les chances d’un patient de mourir ou d’avoir besoin d’un ventilateur, mais peu d’entre eux (voire aucun) font ces prédictions à partir d’un seul scanner ou dossier médical électronique…

La suite de cet article : Facebook claims its AI can anticipate COVID-19 outcomes using X-rays
Publié sur VentureBeat le 15 janvier 2021 par Kyle Wiggers

Autres articles sur ce sujet :

Voir aussi la page : L’IA dans la Santé

Comment fonctionne l’algorithme du fil d’actualité

Comme beaucoup, je me suis intéressé au fonctionnement du fil d’actualité Facebook ; voici la réponse.

En cherchant un peu sans vraiment d’espoir, je suis tombé sur une page interne de Facebook qui donne toutes les explications !
Bon, c’est en anglais mais facile à comprendre.

Page : How Does News Feed Predict What You Want to See?https://www.blogdumoderateur.com/facebook-comment-fonctionne-algorithme-fil-actualite/

Facebook AI Research industrialise la reconnaissance d’images

Une équipe de chercheurs franco-américaine du groupe démontre qu’il est possible de créer un modèle de vision auto-supervisé partant d’un data set d’apprentissage massif, aléatoire… et non-labellisé.

Les laboratoires en intelligence artificielle de Facebook basés à Paris et à New York sont parvenus à créer un modèle de reconnaissance d’images entraîné à partir d’un volume massif de données photographiques non-étiquetées. Un modèle dont les résultats sont étonnamment précis. Bâti à partir d’un data set d’apprentissage d’un milliard de photos piochées de manière aléatoire sur Instagram, il atteint un taux de reconnaissance de 84,2% en le confrontant à ImageNet, une base de données d’images de référence dans l’IA. Contre 81% atteint à périmètre équivalent sur une architecture de learning supervisé de dernière génération (basée sur RegNet) déployée par Facebook pour l’occasion. Mieux encore : en partant d’un entrainement sur seulement 1% des 14 millions de contenus stockés dans ImageNet, sa performance se hisse à 60,5% sur l’ensemble de la base du même nom.

« L’objectif était de démontrer la supériorité de l’apprentissage auto-supervisé sur l’apprentissage supervisé. Ce qui avait déjà été réalisé sur de petits data sets d’entrainement présélectionnés et filtrés, mais jamais sur des milliard d’images aléatoires. C’est désormais chose faite. D’autant que nous ne nous attendions pas à atteindre ce niveau de performance sur ImageNet », se félicite Armand Joulin, chercheur français au sein de FAIR Paris.

Baptisé SEER (pour SElf-supERvised) (PDF), le modèle de Facebook combine le réseau de neurones convolutifs RegNet avec SwAV, un algorithme de clustering auto-supervisé conçu par FAIR.

Le modèle de Facebook associe un réseau de neurones (à gauche) à un algorithme en ligne de clustering auto-supervisé (à droite). © Facebook

« SwAV clusterise sur une même machine les images aux caractéristiques graphiques similaires », explique Armand Joulin. Grâce à une exécution dite « en ligne », le modèle s’entraîne sans repasser une seconde fois sur les mêmes données. Au lieu de comparer toutes les photos entre elles à la manière d’un algorithme contrastif, il les compare au fur et à mesure de leur ingestion aux caractéristiques de chaque cluster. « Cette technique a permis d’aboutir à une phase de learning six fois moins longue comparé à l’état de l’art précédent en apprentissage auto-supervisé », argue-t-on chez Facebook. Armand Joulin ajoute : « Toute la difficulté consistait à savoir comment obtenir ces clusters, et comment les mettre à jour à la volée en tenant compte des nouvelles images. Le tout de manière efficace et à grande échelle. »

« SEER s’applique à n’importe quelle base d’images, sans nécessiter de data préparation, tout en réduisant les biais »

Le principal défi technique du projet ? La taille du modèle. Pour atteindre le niveau de performance et de précision ciblé, il devait non seulement absorber des milliards d’images, soit un volume environ 100 fois supérieur à celui des méthodes supervisées, mais aussi atteindre un milliard de paramètres. C’est là où RegNet entre dans la danse. Doté d’une architecture à la hauteur en termes d’exécution et de gestion de la mémoire, le réseau de neurones convolutifs est en effet conçu pour gérer jusqu’à des trillions de paramètres.

L’auto-supervisé bat le supervisé

Au final, SEER parvient donc à dépasser la performance des méthodes d’apprentissage supervisé, tout en passant outre la labellisation du dataset d’entrainement. « En evitant l’étiquetage, on gagne beaucoup de temps et on évite de se focaliser sur un signal lié à l’annotation comme le type d’objet. Cela permet aux representations d’être plus générales », détaille Armand Joulin.

Autre bénéfice de SEER, et pas des moindres : il pourra permettre de développer des modèles dans des domaines où les data set sont limités, telle l’imagerie médicale par exemple. Un élément clé à l’heure où les laboratoires pharmaceutiques sont dans la course aux traitements et vaccins contre le Covid et ses variants. Mais au-delà de la santé, la découverte de Facebook peut répondre à beaucoup d’autres cas d’usage. On peut penser à la détection de produits défectueux sur les chaînes de montage, à l’identification des étalages nécessitant des réapprovisionnements en magasin, ou encore au repérage de mouvements suspects via la vidéosurveillance. La liste n’est évidemment pas exhaustive.

Vers un modèle universel de vision

Facebook publie en open source la bibliothèque (baptisée VISSL) mise au point pour bâtir SEER. Reposant sur PyTorch, sa célèbre librairie de deep learning, elle regroupe différentes méthodes auto-supervisées taillées pour optimiser la vitesse d’apprentissage tout en réduisant la consommation GPU nécessaire. Elles recourent notamment aux technologies open source Nvidia Apex, Torch.utils.checkpoint ou encore FairScale. Des scripts et exemples sont proposés pour gérer des processus d’entrainement à différentes échelles, de quelques centaines de milliers à un milliard d’images. SEER est construit avec les mêmes outils que VISSL précise Facebook, mais combinés à un chargeur de données personnalisé pour PyTorch avec un débit plus élevé que la solution proposée par défaut dans la bibliothèque.

« La communauté va ainsi pouvoir s’emparer de notre découverte et appliquer notre modèle à des data set aléatoires à la fois plus volumineux et plus variés. L’avantage de SEER est de pouvoir fonctionner immédiatement avec n’importe quelle base d’images, sans nécessiter de data préparation, tout en réduisant les biais comme évoqué précédemment. Les projets tirant parti de VISSL devraient rapidement se multiplier », conclut Armand Joulin. Et pour la suite ? « La prochaine étape sera d’aboutir à un modèle universel de vision par ordinateur capable d’ingérer des quantités d’images encore plus importantes. »

On a hâte de voir ça !

GrokNet : l’IA de Facebook capable d’identifier automatiquement les articles que vous mettez en vente

GrokNet, le nom de ce nouvel outil de reconnaissance visuelle est capable d’identifier les produits que vous mettez à vendre sur Facebook pour simplifier la vie des internautes. C’est une première étape du plan de Facebook qui consiste à rendre consommable tout ce que vous verrez sur ses différentes plateformes.

Source : blog interne Facebook

In this paper, we present GrokNet, a deployed image recognition system for commerce applications. GrokNet leverages a multi-task learning approach to train a single computer vision trunk. We achieve a 2.1x improvement in exact product match accuracy when compared to the previous state-of-the-art Facebook product recognition system. We achieve this by training on 7 datasets across several commerce verticals, using 80 categorical loss functions and 3 embedding losses. We share our experience of combining diverse sources with wide-ranging label semantics and image statistics, including learning from human annotations, user-generated tags, and noisy search engine interaction data. GrokNet has demonstrated gains in production applications and operates at Facebook scale.

Dans cet article, nous présentons GrokNet, un système de reconnaissance d’images déployé pour les applications commerciales. GrokNet exploite une approche d’apprentissage multi-tâches pour former un seul tronc de vision par ordinateur. Nous obtenons une amélioration de 2,1 fois la précision de la correspondance exacte des produits par rapport au précédent système de reconnaissance de produits Facebook à la pointe de la technologie. Nous y parvenons en nous entraînant sur 7 jeux de données dans plusieurs secteurs verticaux du commerce, en utilisant 80 fonctions de perte catégorielle et 3 pertes d’intégration. Nous partageons notre expérience de la combinaison de diverses sources avec des sémantiques d’étiquettes et des statistiques d’images très variées, y compris l’apprentissage à partir d’annotations humaines, de balises générées par les utilisateurs et de données d’interaction bruyantes des moteurs de recherche. GrokNet a démontré des gains dans des applications de production et fonctionne à l’échelle de Facebook.

Vraiment, Facebook veut lancer sa place de marché avec le maximum de services !

Les projets open source initiés par Fair Paris

Inauguré en juin 2015, Facebook AI Research Paris (Fair Paris) compte parmi les quatre plus grands laboratoires de recherche fondamentale de Facebook en IA aux côtés de Menlo Park (Californie), New York et Montréal. Installé au siège de Facebook France à Paris, au cœur du Silicon Sentier, le centre regroupe 30 chercheurs, 20 ingénieurs de recherche, et 30 doctorants originaires de diverses structures : CNRS, INRIA, universités… Soit un total de 80 personnes représentant 12 nationalités.

Ses travaux vont de la reconnaissance d’images au traitement du langage naturel en passant par l’apprentissage auto-supervisé.

En cinq ans, Fair Paris a imprimé sa marque sur plus de 200 publications scientifiques. Le laboratoire livre en open source les technologies issues de ses travaux. Certaines ont depuis été intégrées par Facebook, par exemple pour détecter les vidéos sous copyright postées sur le réseau social ou encore pour gérer la traduction automatique des langues rares.

Projets en cours :

Nouveaux projets à venir :

Résoudre des équations matricielles

Le principe d’entrainement de Blender est assez simple. Les 1,5 milliard de fils de discussion disponibles publiquement sur Reddit ont été soumis au réseau de neurones du chatbot qui, à partir de là, devait tenter de prévoir à l’aveugle les réponses et réactions des internautes. De fil de discussion en fil de discussion, le modèle s’est affiné au fur et à mesure. « Une fois ce learning réalisé, Blender pouvait prédire les réponses à fournir à l’interlocuteur. Tout l’enjeu étant évidemment d’éviter de faire le perroquet !

Prochaines briques de Blender à laquelle Fair Paris devrait contribuer : des modèles capables de raisonner. FAIR a créé des architectures d’apprentissage auto-supervisé, basées sur les méthodes de back-translation, permettant de traduire un texte, par exemple du français à l’anglais, sans avoir fourni de dictionnaire à la machine.

Pour cette prouesse, le laboratoire parisien a reçu en 2018 le prix du meilleur article à la conférence EMNLP (pour Empirical Methods in Natural Language Processing – PDF). La technique a d’ailleurs été utilisée, parmi d’autres, pour construire le système de dialogue de Blender. Elle est aussi mise en œuvre au cœur du réseau social de Facebook pour automatiser les traductions, notamment dans le cas des langages peu parlés.

En 2019, Fair s’est tourné vers un tout autre type de langage : les mathématiques. L’enjeu est dès lors de savoir si les technologies que nous avons conçues pour la traduction linguistique pourraient s’appliquer au champs des démonstrations mathématiques. Dans la même logique, l’idée est de donner au réseau de neurones des équations à résoudre, puis de comparer les résultats obtenus avec les bonnes réponses, le modèle s’ajustant au fil de l’eau. In fine, le défi est d’aboutir à un réseau de neurones capable de solutionner des équations auxquelles il n’aurait jamais été confronté. En décembre 2019, Fair Paris a publié un premier article sur le sujet (Deep Learning for Symbolic Mathematics) qui démontre comment un algorithme de deep learning peut parvenir à résoudre des dérivés, des équations différentielles etc. de manière plus efficace que les approches historiques type Matlab.

Une IA qui développe ses propres programmes

Fair cherche maintenant à savoir si une machine est capable de réaliser un raisonnement, faire des hypothèses, réaliser des déductions. L’un des chantiers à plus long terme étant de trouver des pistes pour améliorer Blender ; au-delà de sa couche conversationnelle, le défi est notamment de doter Blender de l’habilitée à résoudre des problèmes à plusieurs contraintes. Par exemple si un groupe d’amis souhaite aller au restaurant, il s’agirait de prendre en compte une série de paramètres dans une matrice de décision en vue d’aboutir à une réponse convenant à tous : type de restaurant, localisation, prix…

Mais pour développer un raisonnement, une IA pourrait actionner d’autres leviers. Pourquoi ne pas imaginer une machine qui serait capable d’écrire ses propres programmes pour résoudre une tâche complexe. Pour répondre en temps réel à une question d’actualité sur l’état d’avancement de la pandémie de Covid-19 par exemple, un chatbot pourrait bâtir ses propres requêtes de recherche, pour accéder ou enrichir ses sources, tout en définissant un mode de sélection et de synthèse de contenus ad hoc.

Tout ceci est très alléchant !

AI predicts effective drug combinations to fight complex diseases faster

Comment le labo de Facebook participe à la recherche pharmaceutique

Finding new ways to repurpose or combine existing drugs has proved to be a powerful tool to treat complex diseases. Drugs used to treat one type of cancer, for instance, have effectively strengthened treatments for other cancer cells. Complex malignant tumors often require a combination of drugs, or “drug cocktails,” to formulate a concerted attack on multiple cell types. Drug cocktails can not only help stave off drug resistance but also minimize harmful side effects.

But finding an effective combination of existing drugs at the right dose is extremely challenging, partly because there are near-infinite possibilities.

Trouver de nouvelles façons de réutiliser ou de combiner des médicaments existants s’est révélé être un outil puissant pour traiter des maladies complexes. Des médicaments utilisés pour traiter un type de cancer, par exemple, ont effectivement renforcé les traitements contre d’autres cellules cancéreuses. Les tumeurs malignes complexes nécessitent souvent une combinaison de médicaments, ou « cocktails de médicaments », pour formuler une attaque concertée contre plusieurs types de cellules. Les cocktails de médicaments peuvent non seulement aider à éviter la résistance aux médicaments, mais aussi minimiser les effets secondaires nocifs.

Mais trouver une combinaison efficace de médicaments existants à la bonne dose est extrêmement difficile, en partie parce que les possibilités sont quasi infinies.

Aujourd’hui, Facebook AI et le Helmholtz Zentrum München présentent une nouvelle méthode qui permettra d’accélérer la découverte de nouvelles combinaisons de médicaments efficaces. Nous avons construit le premier modèle d’IA unique qui prédit les effets des combinaisons de médicaments, les dosages, le calendrier et même d’autres types d’interventions, comme l’élimination ou la suppression de gènes. Nous mettons en libre accès ce modèle, appelé Compositional Perturbation Autoencoder (CPA), qui comprend une API facile à utiliser et un package Python. Nous avons détaillé le travail dans un article qui est maintenant disponible pour la communauté des chercheurs en tant que préprint sur bioRxiv. Ce travail sera également soumis à une revue à comité de lecture.

Today, Facebook AI and the Helmholtz Zentrum München are introducing a new method that will help accelerate discovery of effective new drug combinations. We’ve built the first single AI model that predicts the effects of drug combinations, dosages, timing, and even other types of interventions, such as gene knockout or deletion. We’re open-sourcing this model, called Compositional Perturbation Autoencoder (CPA), including an easy-to-use API and Python package. We have detailed the work in a paper now available to the research community as a preprint on bioRxiv. The work will also be submitted to a peer-reviewed journal.

But finding an effective combination of existing drugs at the right dose is extremely challenging, partly because there are near-infinite possibilities.

 

Today, Facebook AI and the Helmholtz Zentrum München are introducing a new method that will help accelerate discovery of effective new drug combinations. We’ve built the first single AI model that predicts the effects of drug combinations, dosages, timing, and even other types of interventions, such as gene knockout or deletion. We’re open-sourcing this model, called Compositional Perturbation Autoencoder (CPA), including an easy-to-use API and Python package. We have detailed the work in a paper now available to the research community as a preprint on bioRxiv. The work will also be submitted to a peer-reviewed journal.

Mais trouver une combinaison efficace de médicaments existants à la bonne dose est extrêmement difficile, notamment parce qu’il existe des possibilités quasi infinies.

Aujourd’hui, Facebook AI et le Helmholtz Zentrum München présentent une nouvelle méthode qui permettra d’accélérer la découverte de nouvelles combinaisons de médicaments efficaces. Nous avons construit le premier modèle d’IA unique qui prédit les effets des combinaisons de médicaments, les dosages, le calendrier et même d’autres types d’interventions, comme l’élimination ou la suppression de gènes. Nous mettons en libre accès ce modèle, appelé Compositional Perturbation Autoencoder (CPA), qui comprend une API facile à utiliser et un package Python. Nous avons détaillé le travail dans un article qui est maintenant disponible pour la communauté des chercheurs en tant que préprint sur bioRxiv. Ce travail sera également soumis à une revue à comité de lecture.

Computational methods for exploring new combinations so far have been limited to drug interactions included in the training data set and break down when handling high-dimensional molecular-level changes, such as different doses and timing. CPA uses a novel self-supervision technique to observe cells treated with a finite number of drug combinations and predicts the effect of unseen combinations. For a simplified example, let’s say that data contains information about how drugs affect different types of cells A, B, C, and A+B. Now the model can learn the individual impact of each drug in a cell-type specific fashion (i.e., on different types of cells) and then recombine them in order to extrapolate combinations of A+C, B+C, or even how A+B interacts with C+D.

Jusqu’à présent, les méthodes informatiques permettant d’explorer de nouvelles combinaisons se limitaient aux interactions médicamenteuses incluses dans l’ensemble de données d’apprentissage et s’avéraient inefficaces lorsqu’il s’agissait de traiter des changements de haute dimension au niveau moléculaire, tels que des doses et des moments différents. L’ACP utilise une nouvelle technique d’auto-surveillance pour observer les cellules traitées avec un nombre fini de combinaisons de médicaments et prédire l’effet des combinaisons non vues. Pour un exemple simplifié, disons que les données contiennent des informations sur la façon dont les médicaments affectent différents types de cellules A, B, C et A+B. Le modèle peut alors apprendre l’impact individuel de chaque médicament en fonction du type de cellule (c’est-à-dire sur différents types de cellules), puis les recombiner afin d’extrapoler les combinaisons A+C, B+C, ou même la façon dont A+B interagit avec C+D.

Pharmaceutical researchers can use CPA to generate hypotheses, guide their experimental design process, and help narrow down billions of choices to run experiments in the lab. For example, previously, it would typically take years and many cell-line experiments to test different combinations of 100 drugs and doses — researchers can now screen all possible combinations in silico (in simulation) within just a couple hours, and select top results as hypotheses for validation and follow-up. More broadly, this work advances AI that can do compositional reasoning, which has implications beyond biomed and could lead to AI that can better understand, for instance, language. Compositional reasoning gives meaning to language and makes representations of nuanced ideas about the world.

Les chercheurs pharmaceutiques peuvent utiliser l’ACP pour générer des hypothèses, guider leur processus de conception expérimentale et aider à réduire les milliards de choix pour réaliser des expériences en laboratoire. Par exemple, auparavant, il fallait généralement des années et de nombreuses expériences sur des lignées cellulaires pour tester différentes combinaisons de 100 médicaments et doses. Les chercheurs peuvent désormais passer en revue toutes les combinaisons possibles in silico (en simulation) en quelques heures seulement, et sélectionner les meilleurs résultats comme hypothèses pour la validation et le suivi. Plus largement, ces travaux font progresser l’IA capable de raisonner par composition, ce qui a des implications au-delà de la biomédecine et pourrait conduire à une IA capable de mieux comprendre, par exemple, le langage. Le raisonnement par composition donne un sens au langage et permet de représenter des idées nuancées sur le monde.

La suite : AI predicts effective drug combinations to fight complex diseases faster

Passé à la deuxième partie de ce dossier : Facebook – 2

 

Close Menu