Google a développé une IA plus équitable que les hommes

Des chercheurs ont mis au point une « IA démocratique », capable de redistribuer équitablement de l’argent en tenant compte des ressources initiales de chacun. Et tout le monde a voté en faveur de cette méthode.

 

Les prémices

Personne ne sera surpris d’apprendre qu’aux États-Unis, l’écrasante majorité des richesses est concentrée tout en haut de l’échelle économique, créant des niveaux de pauvreté et d’inégalité extrêmes qui dépassent largement ceux d’autres nations supposées « riches ». Mais tandis que le système politique en place veille à ne pas entraver cette attraction des richesses vers le haut, les chercheurs en IA ont commencé à s’intéresser à une question fascinante : le machine learning pourrait-il être plus doué que les humains dans la création d’une société où les ressources seraient réparties équitablement  ?

 

Building artificial intelligence (AI) that aligns with human values is an unsolved problem. Here we developed a human-in-the-loop research pipeline called Democratic AI, in which reinforcement learning is used to design a social mechanism that humans prefer by majority. A large group of humans played an online investment game that involved deciding whether to keep a monetary endowment or to share it with others for collective benefit. Shared revenue was returned to players under two different redistribution mechanisms, one designed by the AI and the other by humans. The AI discovered a mechanism that redressed initial wealth imbalance, sanctioned free riders and successfully won the majority vote. By optimizing for human preferences, Democratic AI offers a proof of concept for value-aligned policy innovation.

La mise au point d’une intelligence artificielle (IA) qui s’aligne sur les valeurs humaines est un problème non résolu. Nous avons développé un pipeline de recherche « humain dans la boucle » appelé IA démocratique, dans lequel l’apprentissage par renforcement est utilisé pour concevoir un mécanisme social que les humains préfèrent à la majorité. Un grand groupe d’humains a joué à un jeu d’investissement en ligne qui consistait à décider s’il fallait conserver une dotation monétaire ou la partager avec d’autres pour un bénéfice collectif. Les revenus partagés étaient restitués aux joueurs selon deux mécanismes de redistribution différents, l’un conçu par l’IA et l’autre par les humains. L’IA a découvert un mécanisme qui corrigeait le déséquilibre initial des richesses, sanctionnait les resquilleurs et remportait le vote majoritaire. En optimisant les préférences humaines, l’IA démocratique offre une preuve de concept pour l’innovation politique alignée sur les valeurs.

Main

The ultimate goal of AI research is to build technologies that benefit humans — from assisting us with quotidian tasks to addressing grand existential challenges facing society1. Machine learning systems have already solved major problems in biomedicine2, and helped address humanitarian and environmental challenges. However, an underexplored frontier is the deployment of AI to help humans design fair and prosperous societies5. In economics and game theory, the field known as mechanism design studies how to optimally control the flow of wealth, information or power among incentivized actors to meet a desired objective, for example by regulating markets, setting taxes or aggregating electoral votes. Here we asked whether a deep reinforcement learning (RL) agent could be used to design an economic mechanism that is measurably preferred by groups of incentivized humans.

 

 

The challenge of building AI systems whose behaviour is preferred by humans is called the problem of ‘value alignment’. One key hurdle for value alignment is that human society admits a plurality of views, making it unclear to whose preferences AI should align. For example, political scientists and economists are often at loggerheads over which mechanisms will make our societies function most fairly or efficiently. In AI research, there is a growing realization that to build human-compatible systems, we need new research methods in which humans and agents interact, and an increased effort to learn values directly from humans to build value-aligned AI. Capitalizing on this idea, here we combined modern deep RL with an age-old technology for arbitrating among conflicting views—majoritarian democracy among human voters—to develop a human-centred research pipeline for value-aligned AI research. Instead of imbuing our agents with purportedly human values a priori, and thus potentially biasing systems towards the preferences of AI researchers, we train them to maximize a democratic objective: to design policies that humans prefer and thus will vote to implement in a majoritarian election. We call our approach, which extends recent related participatory approaches, ‘Democratic AI’.

 

 

As a first rigorous test, we deploy Democratic AI to address a question that has defined the major axes of political agreement and division in modern times: when people act collectively to generate wealth, how should the proceeds be distributed?. We asked a large group of humans to play an incentive-compatible online investment game that involved repeated decisions about whether to keep a monetary endowment or to share it with other players for potential collective benefit. We trained a deep RL agent to design a redistribution mechanism which shared funds back to players under both wealth equality and inequality. The mechanism it produced was ultimately preferred by the players in a majoritarian election.

Principal

L’objectif ultime de la recherche sur l’IA est de créer des technologies qui profitent aux humains, qu’il s’agisse de nous aider dans nos tâches quotidiennes ou de relever les grands défis existentiels auxquels la société est confrontée1. Les systèmes d’apprentissage automatique ont déjà résolu des problèmes majeurs dans le domaine de la biomédecine2, et contribué à relever les défis humanitaires et environnementaux. Cependant, le déploiement de l’IA pour aider les humains à concevoir des sociétés équitables et prospères constitue une frontière encore peu explorée5. En économie et en théorie des jeux, le domaine connu sous le nom de conception de mécanismes étudie comment contrôler de manière optimale le flux de richesse, d’informations ou de pouvoir entre des acteurs motivés afin d’atteindre un objectif souhaité, par exemple en régulant les marchés, en fixant des taxes ou en agrégeant des votes électoraux. Ici, nous nous sommes demandé si un agent d’apprentissage par renforcement (RL) pouvait être utilisé pour concevoir un mécanisme économique qui soit mesurablement préféré par des groupes d’humains motivés.

Le défi de construire des systèmes d’IA dont le comportement est préféré par les humains est appelé le problème de « l’alignement des valeurs ». L’un des principaux obstacles à l’alignement des valeurs est que la société humaine admet une pluralité de points de vue, ce qui fait que l’on ne sait pas exactement à quelles préférences l’IA doit s’aligner. Par exemple, les politologues et les économistes sont souvent en désaccord sur les mécanismes qui permettront à nos sociétés de fonctionner le plus équitablement ou le plus efficacement. Dans la recherche sur l’IA, on se rend de plus en plus compte que pour construire des systèmes compatibles avec les humains, il faut de nouvelles méthodes de recherche dans lesquelles les humains et les agents interagissent, et un effort accru pour apprendre les valeurs directement des humains afin de construire une IA alignée sur les valeurs. En capitalisant sur cette idée, nous avons ici combiné la RL profonde moderne avec une technologie séculaire d’arbitrage entre des points de vue contradictoires – la démocratie majoritaire parmi les électeurs humains – pour développer un pipeline de recherche centré sur l’humain pour la recherche d’une IA alignée sur les valeurs. Au lieu d’imprégner nos agents de valeurs prétendument humaines a priori, et donc de biaiser potentiellement les systèmes en fonction des préférences des chercheurs en IA, nous les entraînons à maximiser un objectif démocratique : concevoir des politiques que les humains préfèrent et qui seront donc mises en œuvre lors d’une élection majoritaire. Nous appelons notre approche, qui élargit les approches participatives récentes, l' »IA démocratique ».

Comme premier test rigoureux, nous déployons l’IA démocratique pour répondre à une question qui a défini les principaux axes de l’accord et de la division politiques dans les temps modernes : lorsque les gens agissent collectivement pour générer de la richesse, comment les recettes doivent-elles être distribuées ? Nous avons demandé à un grand groupe d’humains de jouer à un jeu d’investissement en ligne compatible avec les incitations, qui implique des décisions répétées sur le fait de conserver une dotation monétaire ou de la partager avec d’autres joueurs pour un bénéfice collectif potentiel. Nous avons formé un agent RL profond à la conception d’un mécanisme de redistribution permettant de partager les fonds entre les joueurs dans des conditions d’égalité et d’inégalité de richesse. Le mécanisme qu’il a produit a finalement été préféré par les joueurs dans une élection majoritaire.

Results

We tested Democratic AI using a mechanism design problem based on an economic game. The game generalizes the linear public goods problem that has been extensively used to study human collective action. In each of 10 rounds, each player i contributes an integer number ci of coins to a public investment fund, drawing upon an endowment ei, with the residual sum eici remaining in a private account (endowments may vary across players, with one player receiving more than the others). Aggregated contributions over k = 4 players are scaled by a growth factor r = 1.6 (positive return on investment; this is equivalent to a marginal per capita return (MPCR) of 0.4). The public fund is paid back to players under a redistribution mechanism which specifies the fraction of total public investment that is returned to each player, conditional on their contribution and endowment. This game admits a continuum of mechanisms for redistribution popularly associated with opposing ends of the political spectrum, in which returns variously depend on the contributions of self and others.

Résultats

Nous avons testé l’IA démocratique en utilisant un problème de conception de mécanisme basé sur un jeu économique. Le jeu généralise le problème des biens publics linéaires qui a été largement utilisé pour étudier l’action collective humaine. Dans chacun des 10 tours, chaque joueur i contribue un nombre entier ci de pièces à un fonds d’investissement public, en puisant dans une dotation ei, la somme résiduelle ei-ci restant dans un compte privé (les dotations peuvent varier entre les joueurs, un joueur recevant plus que les autres). Les contributions agrégées sur k = 4 joueurs sont mises à l’échelle par un facteur de croissance r = 1,6 (retour sur investissement positif ; cela équivaut à un rendement marginal par habitant (RME) de 0,4). Le fonds public est reversé aux joueurs selon un mécanisme de redistribution qui spécifie la fraction de l’investissement public total qui est reversée à chaque joueur, en fonction de sa contribution et de sa dotation. Ce jeu admet un continuum de mécanismes de redistribution populairement associés aux extrémités opposées de l’échiquier politique, dans lequel les rendements dépendent diversement des contributions de soi et des autres.

 

Le papier complet est disponible (la dernière partie est beaucoup plus technique) : Human-centred mechanism design with Democratic AI
Publié sur le Blog Google le 4 juillet 2022

AudioLM: a Language Modeling Approach to Audio Generation

AudioLM : une approche de modélisation du langage pour la génération d’audio

Introduction

Generating realistic audio requires modeling information represented at different scales. For example, just as music builds complex musical phrases from individual notes, speech combines temporally local structures, such as phonemes or syllables, into words and sentences. Creating well-structured and coherent audio sequences at all these scales is a challenge that has been addressed by coupling audio with transcriptions that can guide the generative process, be it text transcripts for speech synthesis or MIDI representations for piano. However, this approach breaks when trying to model untranscribed aspects of audio, such as speaker characteristics necessary to help people with speech impairments recover their voice, or stylistic components of a piano performance.

 

In “AudioLM: a Language Modeling Approach to Audio Generation”, we propose a new framework for audio generation that learns to generate realistic speech and piano music by listening to audio only. Audio generated by AudioLM demonstrates long-term consistency (e.g., syntax in speech, melody in music) and high fidelity, outperforming previous systems and pushing the frontiers of audio generation with applications in speech synthesis or computer-assisted music. Following our AI Principles, we’ve also developed a model to identify synthetic audio generated by AudioLM.

 

Présentation

La génération d’un son réaliste nécessite la modélisation d’informations représentées à différentes échelles. Par exemple, tout comme la musique construit des phrases musicales complexes à partir de notes individuelles, la parole combine des structures temporelles locales, telles que des phonèmes ou des syllabes, en mots et en phrases. La création de séquences audio bien structurées et cohérentes à toutes ces échelles est un défi qui a été relevé en couplant l’audio avec des transcriptions qui peuvent guider le processus génératif, qu’il s’agisse de transcriptions textuelles pour la synthèse vocale ou de représentations MIDI pour le piano. Cependant, cette approche s’effondre lorsqu’on essaie de modéliser des aspects non transcrits de l’audio, comme les caractéristiques du locuteur nécessaires pour aider les personnes souffrant de troubles de la parole à récupérer leur voix, ou les composantes stylistiques d’une performance au piano.

Dans « AudioLM : a Language Modeling Approach to Audio Generation », nous proposons un nouveau cadre pour la génération audio qui apprend à générer une parole et une musique de piano réalistes en écoutant uniquement de l’audio. L’audio généré par AudioLM démontre une cohérence à long terme (par exemple, la syntaxe dans la parole, la mélodie dans la musique) et une haute fidélité, surpassant les systèmes précédents et repoussant les frontières de la génération audio avec des applications dans la synthèse vocale ou la musique assistée par ordinateur. Conformément à nos principes d’IA, nous avons également développé un modèle permettant d’identifier l’audio synthétique généré par AudioLM.

From Text to Audio Language Models

In recent years, language models trained on very large text corpora have demonstrated their exceptional generative abilities, from open-ended dialogue to machine translation or even common-sense reasoning. They have further shown their capacity to model other signals than texts, such as natural images. The key intuition behind AudioLM is to leverage such advances in language modeling to generate audio without being trained on annotated data.

However, some challenges need to be addressed when moving from text language models to audio language models. First, one must cope with the fact that the data rate for audio is significantly higher, thus leading to much longer sequences — while a written sentence can be represented by a few dozen characters, its audio waveform typically contains hundreds of thousands of values. Second, there is a one-to-many relationship between text and audio. This means that the same sentence can be rendered by different speakers with different speaking styles, emotional content and recording conditions.

 

 

To overcome both challenges, AudioLM leverages two kinds of audio tokens. First, semantic tokens are extracted from w2v-BERT, a self-supervised audio model. These tokens capture both local dependencies (e.g., phonetics in speech, local melody in piano music) and global long-term structure (e.g., language syntax and semantic content in speech, harmony and rhythm in piano music), while heavily downsampling the audio signal to allow for modeling long sequences.

 

However, audio reconstructed from these tokens demonstrates poor fidelity. To overcome this limitation, in addition to semantic tokens, we rely on acoustic tokens produced by a SoundStream neural codec, which capture the details of the audio waveform (such as speaker characteristics or recording conditions) and allow for high-quality synthesis. Training a system to generate both semantic and acoustic tokens leads simultaneously to high audio quality and long-term consistency.

Du texte aux modèles de langage audio

Ces dernières années, les modèles de langage entraînés sur de très grands corpus de textes ont démontré leurs exceptionnelles capacités génératives, du dialogue ouvert à la traduction automatique ou même au raisonnement de sens commun. Ils ont également démontré leur capacité à modéliser d’autres signaux que les textes, comme les images naturelles. L’intuition clé derrière AudioLM est de tirer parti de ces avancées dans la modélisation du langage pour générer de l’audio sans être entraîné sur des données annotées.

Cependant, certains défis doivent être relevés lors du passage des modèles de langage textuels aux modèles de langage audio. Tout d’abord, il faut tenir compte du fait que le débit de données pour l’audio est considérablement plus élevé, ce qui entraîne des séquences beaucoup plus longues – alors qu’une phrase écrite peut être représentée par quelques dizaines de caractères, sa forme d’onde audio contient généralement des centaines de milliers de valeurs. Deuxièmement, il existe une relation de type « un vers plusieurs » entre le texte et l’audio. Cela signifie que la même phrase peut être rendue par différents locuteurs avec des styles d’expression, des contenus émotionnels et des conditions d’enregistrement différents.

Pour surmonter ces deux défis, AudioLM exploite deux types de jetons audio. Premièrement, des jetons sémantiques sont extraits de w2v-BERT, un modèle audio auto-supervisé. Ces jetons capturent à la fois les dépendances locales (par exemple, la phonétique dans la parole, la mélodie locale dans la musique de piano) et la structure globale à long terme (par exemple, la syntaxe du langage et le contenu sémantique dans la parole, l’harmonie et le rythme dans la musique de piano), tout en sous-échantillonnant fortement le signal audio pour permettre la modélisation de longues séquences.

Cependant, l’audio reconstruit à partir de ces tokens montre une faible fidélité. Pour surmonter cette limitation, en plus des jetons sémantiques, nous nous appuyons sur des jetons acoustiques produits par un codec neuronal SoundStream, qui capturent les détails de la forme d’onde audio (comme les caractéristiques du locuteur ou les conditions d’enregistrement) et permettent une synthèse de haute qualité. L’entraînement d’un système à générer des jetons sémantiques et acoustiques permet d’obtenir simultanément une qualité audio élevée et une cohérence à long terme.

Training an Audio-Only Language Model

 

AudioLM is a pure audio model that is trained without any text or symbolic representation of music. AudioLM models an audio sequence hierarchically, from semantic tokens up to fine acoustic tokens, by chaining several Transformer models, one for each stage. Each stage is trained for the next token prediction based on past tokens, as one would train a text language model. The first stage performs this task on semantic tokens to model the high-level structure of the audio sequence.

Entraînement d’un modèle de langue purement audio

AudioLM est un modèle purement audio qui est entraîné sans aucun texte ou représentation symbolique de la musique. AudioLM modélise une séquence audio de manière hiérarchique, des tokens sémantiques aux tokens acoustiques fins, en enchaînant plusieurs modèles Transformer, un pour chaque étape. Chaque étape est entraînée pour la prédiction du token suivant sur la base des tokens précédents, comme on le ferait pour un modèle de langage textuel. La première étape effectue cette tâche sur les tokens sémantiques pour modéliser la structure de haut niveau de la séquence audio.

In the second stage, we concatenate the entire semantic token sequence, along with the past coarse acoustic tokens, and feed both as conditioning to the coarse acoustic model, which then predicts the future tokens. This step models acoustic properties such as speaker characteristics in speech or timbre in music.

Dans la deuxième étape, nous concaténons la séquence entière de tokens sémantiques, ainsi que les tokens acoustiques grossiers passés, et nous les transmettons comme conditionnement au modèle acoustique grossier, qui prédit alors les tokens futurs. Cette étape modélise des propriétés acoustiques telles que les caractéristiques du locuteur dans la parole ou le timbre dans la musique.

In the third stage, we process the coarse acoustic tokens with the fine acoustic model, which adds even more detail to the final audio. Finally, we feed acoustic tokens to the SoundStream decoder to reconstruct a waveform.

Dans la troisième étape, nous traitons les jetons acoustiques grossiers avec le modèle acoustique fin, ce qui ajoute encore plus de détails à l’audio final. Enfin, nous envoyons les jetons acoustiques au décodeur SoundStream pour reconstruire une forme d’onde.

After training, one can condition AudioLM on a few seconds of audio, which enables it to generate consistent continuation. In order to showcase the general applicability of the AudioLM framework, we consider two tasks from different audio domains:

  • Speech continuation, where the model is expected to retain the speaker characteristics, prosody and recording conditions of the prompt while producing new content that is syntactically correct and semantically consistent.
  • Piano continuation, where the model is expected to generate piano music that is coherent with the prompt in terms of melody, harmony and rhythm.

 

Après l’entraînement, on peut conditionner AudioLM sur quelques secondes d’audio, ce qui lui permet de générer une suite cohérente. Afin de montrer l’applicabilité générale du cadre d’AudioLM, nous considérons deux tâches issues de domaines audio différents :

  • La continuation de la parole, où le modèle doit conserver les caractéristiques du locuteur, la prosodie et les conditions d’enregistrement de l’invite tout en produisant un nouveau contenu syntaxiquement correct et sémantiquement cohérent.
  • La continuation du piano, où le modèle doit générer de la musique pour piano qui est cohérente avec l’invite en termes de mélodie, d’harmonie et de rythme.

Par la page AudioLM examples, vous aurez une meilleur idée des résultats, c’est bleffant !

Source : blog interne Google – AudioLM: a Language Modeling Approach to Audio Generation
Publié le 6 octobre 2022

Google lance son propre générateur de vidéos AI : Imagen Video

Google dévoile à son tour un outil qui permet de créer des vidéos à partir de texte

Google ajoute sa pierre à l’édifice des services d’intelligence artificielle de création d’images à partir de texte. Comme son nom l’indique, Imagen Video produit des vidéos haute qualité en partant de quelques mots.

Transformer du texte en vidéo est désormais possible.

L’outil développé par le laboratoire IA de Google montre qu’à partir d’une invite textuelle, un GIF animé peut être créé. La firme a toutefois été devancée par Meta qui a présenté des recherches similaires quelques jours avant.

Quelques articles sur ce sujet :

La publication de Google : Imagen

Google s’empare discrètement d’Alter

Trouvé sur TechCrunch :

Google has acquired Alter, an artificial intelligence (AI) avatar startup that helps creators and brands express their virtual identity, for about $100 million, a source familiar with the matter told TechCrunch, in a push to boost its content game and better compete with TikTok.

The acquisition was completed about two months ago, the source said, but neither of the companies disclosed it to the public. Some of Alter’s top executives have updated their LinkedIn profiles to share that they have joined Google without acknowledging the acquisition. The source requested anonymity because they are sharing nonpublic information.

A Google spokesperson confirmed to TechCrunch that the company has acquired Alter but declined to comment on the financial terms of the deal.

The U.S. and Czech-headquartered Alter started its life as Facemoji, a platform that offered plug-and-play tech to help game and app developers put avatar systems into their apps. The startup received $3 million in seed funding from investors including Play Ventures, Roosh Ventures and Twitter.

Facemoji later rebranded as Alter.

Google hopes to use Alter to improve and ramp up its content offerings, a person familiar with the matter said.

Source : Google acquires Twitter-backed AI avatar startup Alter for $100 million
Publié sur TechCrunch le 27 octobre 2022 par Manish Singh

Source (pour les francophones) : Google s’empare discrètement d’Alter et de ses outils de création d’avatars par IA
Publié sur L’Usine Digitale le 28 octobre 2022 par Léna Corot

Plus d’articles au sujet de Google

 

Ces articles méritent plus de recherche pour être développer…

Google dévoile une IA capable d’écrire une histoire : Wordcraft

Après la génération automatique d’images, LaMDA permet à Google d’explorer l’écriture assistée. Wordcraft, un outil d’édition de texte encore à l’état de prototype, a ainsi pour objectif d’aider les écrivains à trouver des idées d’histoire, et même à les rédiger. Si une telle technologie ne remplacera jamais les auteurs humains, elle pourrait constituer demain un « partenaire d’écriture » fort utile.

La présentation

Wordcraft est une nouvelle IA dévoilée par Google, capable de rédiger des textes de fiction. Elle est basée sur le modèle de langage LaMDA. Découvrez tout ce que vous devez savoir sur cet outil, et les possibilités offertes pour les écrivains…

Après l’IA capable de générer des dessins, voici l’intelligence artificielle capable d’écrire des histoires. Créé par Google, Wordcraft vient d’être dévoilé lors d’un événement organisé à New York par Google en ce moi d’octobre 2022.

Le projet Wordcraft est basé sur le modèle LaMDA (Language Model for Dialogue Applications) : un moteur de dialogue capable d’engager les utilisateurs dans une conversation. À présent, le projet Wordcraft explore les capacités du moteur à produire du texte de fiction.

La vidéo à droite est très instructive

L’outil Wordcraft est toutefois différent de l’IA sur laquelle il s’appuie. La firme de Mountain View explique qu’il s’apparente à une sorte d’« éditeur de texte » mêlé à un traitement de texte en ligne. Par exemple, les utilisateurs peuvent lui demander de réécrire des phrases, d’en rendre une plus drôle, ou même de décrire des objets. Plutôt que de générer une histoire, il va donner des idées à son auteur selon la requête de celui-ci.

Pour l’instant, Google a testé son outil avec 13 écrivains professionnels, et les histoires qu’ils ont rédigées avec son aide ont été regroupées sur un site internet (en anglais).

 

Pas de panique

Nos écrivains ont encore du pain sur la planche. Mais ils pourront se faire aider, dans un avenir proche, par des IA un peu fantasques, afin de trouver des idées souvent bizarres, et parfois originales. Reste un problème qu’il faudra sans doute régler, le jour où Wordcraft et d’autres outils proches seront commercialisés : tout comme l’utilisation de l’IA dans les arts visuels pose déjà des problèmes de plagiat et de droits d’auteurs, il y a fort à parier que le même phénomène se produira avec l’écriture assistée.

Nous attendons maintenant le mise en ligne publique…

L’article le plus complet (à mon sens) : Wordcraft : quand l’IA de Google écrit à votre place
Publié sur CNet par Fabien Soyez le 11 novembre 2022

Google Research dévoile des robots avec intelligence artificielle dotée d’une particularité rare

Google Research vient de dévoiler des robots dotés de trois capacités rarement vues ensemble. Cela permet d’atteindre un très haut niveau d’intelligence artificielle pour envisager d’évoluer dans le monde réel.

Liens sur ce sujet :

Si je trouve plus d’informations je me fendrai d’un article complet.

Google développe une IA capable d’écrire du code : Pitchfork

Développer des applications nécessite une rigueur toute mathématique et l’application de règles dans un cadre contraignant. Une tâche dont s’acquitte des millions de développeurs, mais gare : l’intelligence artificielle Pitchork pourrait bien les aider voire les remplacer.

Est-ce un danger pour les développeurs ?

Comme d’autre éditeur (es Microsoft) Google travaille aussi sur une intelligence artificielle dite générative, qui utilise des algorithmes pour créer des images, des vidéos et dans le cas présent, du code. Le projet Pitchfork est né au sein de la division X d’Alphabet. Il est depuis l’été dernier entre les mains du groupe Labs de Google, ce qui signifie qu’il a une importance auprès des dirigeants du moteur de recherche.

Et pour cause : cette IA sait « apprendre du code pour l’écrire et le réécrire ». En fait, Pitchfork a été conçu pour apprendre différents styles de programmation et rédiger du code nouveau en se basant sur cet apprentissage. Autrement dit, ce projet serait à même de concevoir ses propres applications, ce qui permettrait à Google d’éviter le recrutement d’ingénieurs qui coûtent très cher…

D’un côté, c’est une mauvaise nouvelle pour les développeurs qui risquent de se faire supplanter par des intelligences artificielles. Mais on peut voir le verre à moitié plein : les tâches dévolues aux professionnels du code seront plus intéressantes, elles nécessiteront plus d’imagination. Pas de panique cependant, à l’heure actuelle ce projet n’en est encore qu’à ses balbutiements…

Sources de cet article :

L’outil open source de Google pour flouter les visages et les objets dans les photos et les vidéos

Comme c’est toujours compliqué de flouter un visage ou une plaque d’immatriculation dans une photo et a fortiori dans une vidéo. Google propose une nouvelle solution open source baptisée Magritte qui analyse les documents et floute automatiquement les objets.

Google Labs a développé une solution qui permet de flouter un objet ou un visage : Magritte s’appuie sur des technologies d’apprentissage automatique ne nécessitant pas beaucoup de ressources. L’effet de flou apparait dès que la photo ou la vidéo apparait à l’écran. Utilisé en interne, cet outil est désormais disponible pour tous, en open source.

Du flou à toutes les sauces

Magritte sera particulièrement utile pour les journalistes qui veulent protéger les sources qui parlent dans leurs sujets en vidéo. « En utilisant ce code open source, les vidéastes peuvent gagner du temps en floutant les objets dans une vidéo, tout en sachant que l’algorithme peut effectuer une détection dans une vidéo avec une grande précision », détaille Google.

Outre les journalistes, cet algorithme pourra aussi se monter utile dans d’autres occasions, par exemple pour effacer les plaques d’immatriculation (dans une annonce pour un véhicule d’occasion) ou encore… pour le contenu NSFW ! Bref, il y a de nombreuses utilisations possibles pour une telle technologie, et en publiant le code en open source, Google espère qu’elle va se retrouver dans le plus grand nombre possible de services et d’applications.

Il faut maintenant que les développeurs s’emparent de Magritte, qu’ils pourront intégrer dans leurs créations, tout en l’améliorant s’ils le souhaitent. Cette annonce fait partie d’une série de nouveautés dévoilées récemment. Google investit énormément dans les technologies d’amélioration de la confidentialité (PET). Depuis trois ans, le moteur de recherche cherche à démocratiser l’accès à ces outils en les ouvrant au plus grand nombre. Beaucoup de ces PET sont d’ailleurs proposés en open source.

La page de présentation : Magritte

La page des codes sources : google / magritte

ndlr : j’avoue ne pas avoir tester cette nouvelle application…

Quelques articles relatifs à Google

Passer à la partie suivante de l’intelligence artificielle : Google – 5