Google liste les 7 objectifs et les 4 applications interdites de l’IA

Les 7 objectifs de l’intelligence artificielle selon Google

Google indique qu’il évaluera désormais les applications de l’intelligence artificielle pour estimer si celles-ci répondent à certains objectifs.

  1. Être bénéfique pour la société : Google reconnaît que l’impact sociétal de l’intelligence artificielle peut être important et insiste sur l’importance de la plus-value de l’IA pour les personnes.
  2. Éviter la création ou le renforcement des discriminations : les ingénieurs doivent s’assurer que l’IA ne renforce pas les partis pris injustes.
  3. Insister sur la sécurité : les technologies basées sur l’IA doivent être conçues, testées et monitorées avec une haute exigence sur la sécurité.
  4. Faciliter la récolte du feedback utilisateurs : les personnes peuvent avoir des avis sur ces technologies, elles doivent être entendues.
  5. Intégrer le privacy by designle traitement des données personnelles (récolte, usage) doit être clairement explicitée, le consentement doit être obtenu au préalable et les utilisateurs doivent avoir le choix à ce sujet.
  6. Maintenir des normes scientifiques d’excellence : Google s’engage à travailler avec des spécialistes multidisciplinaires rigoureux, afin de développer des applications basées sur connaissances scientifiques à la pointe.
  7. Être conçu pour une utilisation conforme à ces principes : « beaucoup de technologies ont des usages multiples ; nous tâcherons de limiter les applications potentiellement nuisibles et abusives ». Google veillera notamment à ce que les objectifs principaux et l’usage probable des technologies basées sur l’intelligence artificielle ne soient pas dangereux, en particulier lorsque ces applications peuvent avoir un impact important.

Les 4 applications interdites de l’IA selon Google

Outre ces 7 objectifs des applications de l’intelligence artificielle, Google dresse la liste noires des applications interdites de l’IA.

  1. Des technologies susceptibles de causer un préjudice majeur : « Lorsqu’un tel risque sera identifié, nous nous assurerons que les avantages l’emportent largement sur les risques et que les règles de sécurité intégrées sont suffisantes ».
  2. Des technologies liées à l’armement : Google s’engage à ne pas développer de technologies qui peuvent entraîner des blessures sur des personnes (objectif principal ou usage possible d’une technologie basée sur l’IA).
  3. Des technologies liées à la surveillance : les mécanismes qui recueillent des informations sur des personnes ou utilisent ces informations les surveiller, « en violation des normes acceptées dans le monde » seront bannis. Google ne veut visiblement pas être associé au slogan « Big brother is watching you ».
  4. Des technologies contraires aux droits de l’Homme : plus globalement, la firme de Mountain View s’engage à ne pas concevoir de technologies qui contreviendraient aux principes du droit international et des droits de l’Homme.

Don’t be AI-vil, redevient le slogan de Google

Concernant les affaires récentes avec le Pentagone, Google précise : « nous ne développerons pas l’IA pour l’armement, mais nous continuerons à travailler avec les gouvernement et l’armée sur d’autres sujets […] : cybersécurité, entraînement, recrutement, soin des anciens combattants, recherche et sauvetage ».

Ces objectifs et ces applications interdites de l’IA sont présentés par Sundar Pichai sur cet article : AI at Google: our principles. Nous verrons si cela suffit à éteindre la polémique sur les liens qui unissent Google et le Pentagone et si les populations sont globalement rassurées par ces principes évoqués par la firme de Mountain View.

Le site:  Google AI

Google dévoile DocAI, un outil pour traiter rapidement les documents

Reposant sur le machine learning, il génère un gain de temps considérable aux entreprises.

DocAI permet d’automatiser la capture de données d’approvisionnement à l’échelle requise en convertissant des documents non structurés comme des factures et des reçus en données structurées afin d’accroître l’efficacité opérationnelle, d’améliorer l’expérience client et d’appuyer la prise de décisions.

Cette nouvelle fonctionnalité est parfaite expliquée dans le document suivant :
Procurement DocAI publié sur le site interne de Google.

Google Cloud launches Lending DocAI, its first dedicated mortgage industry tool

Google Cloud a annoncé le 20 octobre 2020 le lancement de Lending DocAI, son premier service dédié au secteur du crédit hypothécaire. L’outil, qui est maintenant en avant-première, est destiné à aider les sociétés de crédit hypothécaire pour accélérer le processus d’évaluation des documents relatifs aux revenus et aux actifs d’un emprunteur, en utilisant des modèles d’apprentissage automatique spécialisés pour automatiser l’examen des documents de routine.

Ce service reprend le moteur de DocAI (voir supra) mais cette fois entrainé pour traiter les documents nécessaires à l’octroi d’un Mortgage ; il faut savoir que le traitement de tous les documents nécessaires est très chronophage et qu’il ne faut rien oublié !

Google a créé une intelligence artificielle qui discute du sens de la vie

The meaning of life, according to Google’s chatbot AI

Je sais, c’est un peu ancien mais j’aime toujours lire ces dialogues :

Human: What is the purpose of life?
Machine: To serve the greater good.
Human: What is the purpose of living?
Machine: To live forever.
Human: What is the purpose of existence?
Machine: To find out what happens when we get to the planet earth.
Human: Where are you now?
Machine: I’m in the middle of nowhere.
Human: What is the purpose of dying?
Machine: To have a life.
Human: What is the purpose of being intelligent?
Machine: To find out what it is.
Human: What is the purpose of emotions?
Machine: I don’t know.

Humain : Quel est le but de la vie ?
La machine : Servir le plus grand bien.
Humain : Quel est le but de la vie ?
Machine : Vivre pour toujours.
Humain : Quel est le but de l’existence ?
La machine : Pour savoir ce qui se passe quand nous arrivons sur la planète Terre.
Humain : Où êtes-vous maintenant ?
Machine : Je suis au milieu de nulle part.
Humain : Quel est le but de la mort ?
Machine : Pour avoir une vie.
Humain : A quoi sert d’être intelligent ?
Machine : Pour découvrir ce que c’est.
Humain : Quel est le but des émotions ?
La machine : Je ne sais pas.

Google veut humaniser l’intelligence artificielle

Google vient de lancer un nouveau programme nommé People plus AI Research pour étudier la manière dont les humains interagissent avec des intelligences artificielles afin de rendre ces systèmes plus utiles et complémentaires.

L’intelligence artificielle produit souvent des images dérangeantes comme des lieux de travail sans humains, des bureaux immenses avec seulement des robots et des ordinateurs, etc. Cependant, cette imagination déshumanisée de l’IA doit être freinée et Google l’a compris. Google Souhaite approche plus humanitaire de l’intelligence artificielle en tant que technologie et mettre en avant son utilité au lieu de la faire passer pour une technologie monstrueuse et mangeuse d’emplois.

Dans le cadre d’une initiative, Google a réuni ses chercheurs pour réfléchir à l’interaction entre l’homme et les logiciels pilotés par l’IA ou l’apprentissage machine. Étant donné que Google, Facebook et bien d’autre se concentrent de plus en plus sur l’IA, notamment dans les domaines du traitement du langage naturel et du traitement de l’image, ils doivent se manifester.

En conséquence Google a lancé le programme People plus AI Research !

Les buts pratiques sont :

  • User Needs + Defining Success : Identify user needs, find AI opportunities, and design your reward function.
  • Data Collection + Evaluation : Decide what data are required to meet your user needs, source data, and tune your AI.
  • Mental Models : Introduce users to the AI system and set expectations for system-change over time.
  • Explainability + Trust : Explain the AI system and determine if, when, and how to show model confidence.
  • Feedback + Control : Design feedback and control mechanisms to improve your AI and the user experience.
  • Errors + Graceful Failure : Identify and diagnose AI and context errors and communicate the way forward.

Soit en français :

  • Besoins des utilisateurs + définition du succès : Identifier les besoins des utilisateurs, trouver des opportunités d’IA et concevoir votre fonction de récompense.
  • Collecte de données + évaluation : Décidez quelles données sont nécessaires pour répondre aux besoins des utilisateurs, trouvez des données sources et réglez votre IA.
  • Modèles mentaux : présenter aux utilisateurs le système d’IA et définir les attentes en matière de changement de système au fil du temps.
  • Explicabilité + confiance : expliquer le système d’IA et déterminer si, quand et comment montrer la confiance du modèle.
  • Feedback + Contrôle : Concevoir des mécanismes de feedback et de contrôle pour améliorer votre IA et l’expérience de l’utilisateur.
  • Erreurs + défaillance gracieuse : identifier et diagnostiquer les erreurs d’IA et de contexte et communiquer la marche à suivre.

Le programme est clair !

Sources :

Google Photos se dote d’un effet 3D pour les souvenirs et de nouvelles fonctions IA

Google Photos has introduced a selection of new features that will automatically enhance selected photos with dramatic AI-based effects.

Un nouvel effet 3D

Par exemple, le lieu de prise de vue peut être enregistré si la fonction est activée par l’utilisateur. La recherche par visage est automatisée à l’aide d’une reconnaissance portée par des algorithmes très efficaces. Cependant, Google Photos ne se contente pas d’attendre une intervention extérieure. Elle suggère aussi de temps en temps des memories, que l’on traduira simplement par souvenirs en français.

From Blog Google :

The holidays are always a great time to reflect on what really matters—for me, that’s my family, both near and back home in Europe. With Memories in Google Photos, I’m able to relive the moments—big and small—I’ve shared with my loved ones. Memories surfaces things like the  best photos of me and my son, family vacations and holidays from previous years, and even highlights from the past few days hanging out around the house.

Over the next month, you’ll start to see your Memories brought to life with Cinematic photos, updated collage designs and new features that highlight some of your favorite activities.

Relive the moment with Cinematic photos

Cinematic photos help you relive your memories in a way that feels more vivid and realistic—so you feel like you’re transported back to that moment. To do this, we use machine learning to predict an image’s depth and produce a 3D representation of the scene—even if the original image doesn’t include depth information from the camera. Then we animate a virtual camera for a smooth panning effect—just like out of the movies.

La suite sur : New Cinematic photos and more ways to relive your Memories

L’arme secrète de Google pour traquer les bugs dans le code Python

Je sais, je sais, rien à voir avec le sujet de ce site… Mais, comme je programme (un peu) en Python ; j’ai toujours rêver de ce type d’outil !

Google vient de trouver la parade aux bugs dans le code Python. Il s’agit d’Atheris, un outil basé sur la technique du fuzzing. De quoi mettre fin aux errements du troisième langage de programmation le plus populaire au monde ?

Google recently announced the open-sourcing of a new fuzzy testing engine for Python. The new fuzzer, Atheris, strives to find bugs in Python code and native extensions in Python 2.7 and Python 3.3+. Atheris can be used in combination with the Address Sanitizer and Undefined Behavior Sanitizer tools that detect memory corruption bugs and undefined behavior (e.g., buffer overflows, misaligned or null pointers).

La page Google Open Source : Announcing the Atheris Python Fuzzer publiée le 4 décembre 2020.

 

Autre sources :

Baby Yoda en réalité augmentée chez vous

Les discrets investissements de Google dans l’industrie de la guerre

Sous pression, la firme a renoncé à l’IA militaire, mais mise sur des sous-traitants du Pentagone.

Pas d’intelligence artificielle au service de la guerre. En juin 2018, Sundar Pichai, PDG de Google, l’a promis. Il faut dire que la firme de Mountain View était en pleine polémique: elle avait reçu quinze millions de dollars du Pentagone pour sa participation au projet Maven, qui visait à identifier automatiquement des cibles pour les frappes de drones.

L’engagement a été tenu, mais cela n’a pas empêché la maison-mère de l’entreprise, Alphabet –également dirigée par Sundar Pichai depuis 2019– d’investir dans des startups qui collaborent avec le Pentagone ou le renseignement américain. Notamment via Google Ventures, sa structure de capital-risque…

L’article complet : Les discrets investissements de Google dans l’industrie de la guerre
Publié sur Korii. le 04 janvier 2021 par Antoine Hasday (source : Forbes)

Google a vendu 2,5 millions de dollars d’outils d’IA au Pentagone pour lutter contre le covid-19
Publié sur Forbes le 21 juillet 2021, extrait :

Alors que les ventes de technologies d’intelligence artificielle par les géants du numérique au Pentagone suscitent certaines inquiétudes, Google a fourni au département américain de la Défense un logiciel d’informatique en nuage et des outils d’IA. Cette vente a pour but d’aider le Pentagone à faire face à la pandémie de covid-19.

L’accord de 2,5 millions de dollars, dont les détails ont pu être obtenus grâce à une demande FOIA (Freedom of Information Act), loi obligeant les agences fédérales américaines à transmettre leurs documents à quiconque en fait la demande, quelle que soit sa nationalité), montre que Carashoft, le partenaire de Google à Reston (Virginie), a fourni au United States Northern Command (USNORTHCOM, Commandement Nord des États-Unis) des outils d’informatique en nuage et d’IA développés par le géant d’Internet. L’USNORTHCOM agit comme une unité de commandement et de contrôle centralisé. Il s’agit d’une agence américaine dépendant du département de la Défense et agissant pour renforcer la sécurité intérieure du pays…

Des employés de Google ont programmé une IA pour inventer de nouvelles recettes de gâteaux

Google employees programmed AI to invent new cake recipes

Comme quoi l’IA peut vraiment servir : Just desserts: Baking with AI-made recipes

To carry out their experiment, they started by collecting hundreds of existing recipes of different cakes of all types. After converting the proportions of each ingredient and narrowing the list down to just a few essentials such as flour, sugar, butter, eggs or even yeast, Google engineers used a tool to build a model of machine learning to analyze all this data and detect what type of cake each recipe corresponded to.

En combinant des centaines de recettes glanées sur la toile, l’intelligence artificielle de Google, aidée par un peu de machine learning, a inventé des recettes de gâteaux qui n’existent pas.

Vous êtes à court d’idées en matière de recettes de cuisine ? L’intelligence artificielle de Google pourrait bientôt vous proposer des idées de recettes qui n’existent nulle part ailleurs.

Des ingénieurs de Google ont voulu se pencher sur la science de la pâtisserie pour tenter de comprendre les facteurs essentiels permettant d’obtenir des gâteaux croustillants, spongieux, ou encore moelleux.

 

Sources :

Google launches suite of AI-powered solutions for retailers

Google lance une suite de solutions basées sur l’intelligence artificielle pour les détaillants de sa market place

Page de présentation par Google : Product discovery solutions for retail

Product Discovery Solutions for Retail, which is generally available to all companies as of today, aims to address the challenges with AI and machine learning. To that end, it includes access to Google’s Recommendations AI, which uses machine learning to dynamically adapt to customer behavior and changes in variables like assortment, pricing, and special offers.

Recommendations AI, which launched in beta in July and is now generally available, ostensibly excels at handling recommendations in scenarios with long-tail products and cold-start users and items. Thanks to “context-hungry” deep learning models developed in partnership with Google Brain and Google Research, it’s able to draw insights across tens of millions of items and constantly iterate on those insights in real time.

Avantages :

La solution Recommandation AI vient d’être annoncée pour toutes les entreprises disposant d’une accès à Google Cloud.Cette solution vise à relever les défis de l’IA et de l’apprentissage machine. À cette fin, elle comprend l’accès à l’IA de recommandations de Google, qui utilise l’apprentissage automatique pour s’adapter dynamiquement au comportement des clients et aux changements de variables comme l’assortiment, les prix et les offres spéciales.

L’IA des recommandations, qui a été lancée en version bêta en juillet et est maintenant généralement disponible, elle excelle apparemment dans le traitement des recommandations dans des scénarios avec des produits de longue attente comme des articles nouvellement en ligne. Grâce à des modèles d’apprentissage approfondi « avides de contexte » développés en partenariat avec Google Brain et Google Research, elle est capable de tirer des enseignements sur des dizaines de millions d’articles et de les répéter constamment en temps réel.

Deliver highly personalized product recommendations at scale across channels

Recommendations AI

Our years of experience delivering personalized content across flagship properties, like Google Search and YouTube, have helped fuel state-of-the-art AI algorithms.

Help shoppers easily search for products with an image on their mobile device

Vision Product Search

Vision Product Search uses ML-powered object recognition and lookup to provide real-time results of similar, or complementary, items from your product catalog.

Power your ecommerce site or app with Google-quality search capabilities

Search for Retail (Private Preview)

Benefit from Google’s vast expertise to provide intuitive search that is configurable to meet the specific needs of your retail organization.

Google’s AI Can Dream

Quand l’intelligence artificielle permet d’analyser nos rêves

Inceptionism: Going Deeper into Neural Networks (En anglais mais très accessible)
Publié le 15 juin 2015 sur le site Google AI Blog

Après Freud voici les réseaux de neurones pour l’interprétation visuelle des rêves !
Quelques exemples :

En 3 ans, YouTube a déboursé plus de 30 milliards de dollars pour rémunérer les créateurs

 

YouTube has paid more than $30 billion to creators, artists, and others over the last three years

YouTube has paid out more than $30 billion to creators, artists, and media organizations over the last three years, according to a new letter published by CEO Susan Wojcicki.

In Wojcicki’s first letter to creators of 2021, the CEO spent some time addressing YouTube’s growth. The number of new channels that joined the company’s Partner Program, which allows creators to earn advertising revenue, more than doubled in 2020.

D’après Susan Wojcicki, YouTube a payé 30 milliards de dollars aux créateurs, aux artistes, et aux médias au cours des trois dernières années. Et en 2021, la plateforme compte continuer à soutenir ces créateurs, qui permettent à celle-ci de générer une audience énorme.

Code Is Law : une expo qui exploite le potentiel artistique des algorithmes et de l’informatique

L’exposition « Code Is Law » à Paris exploite le potentiel artistique et poétique des technologies de l’information et du numérique. Et interroge notre monde technologique de manière souvent inattendue.

Et si les algorithmes faisaient plus ou moins la loi ? Si, par exemple, des articles nous parvenaient automatiquement en fonction de critères qui nous échappent au lieu que ce soit nous qui fassions la démarche d’aller les consulter ? Et si notre voiture semi-autonome s’encastrait délibérément dans un poids-lourd parce que ses caméras ont confondu la couleur de la remorque avec celle du ciel ?

En fait, nous en sommes déjà là (l’accident cité plus haut date de 2016 et implique une Tesla en mode autopilote). Mais le plus troublant est qu’en janvier 2000, dans un texte publié dans Harvard Magazine, le juriste américain Lawrence Lessig tirait déjà la sonnette d’alarme : si l’on n’y prend pas garde, écrivait-il, le code informatique va remplacer les règles de droit, décidera à la place des gens là où il y aura un vide, voire tentera de remplacer le droit existant. Intitulé “Code is law” (“Le code, c’est la loi”), ce texte devenu célèbre anticipait le pouvoir des géants du numérique et des médias sociaux et leur volonté de se substituer à la puissance publique, alors même que Facebook, Twitter, Uber ou YouTube n’existaient pas encore et que Google n’avaient que quatre ans. La formule de Lessig donne aujourd’hui son nom à une exposition censée ouvrir le samedi 9 janvier 2021 au Centre Wallonie-Bruxelles à Paris mais qui est visible sur Internet via une interface interactive à 360° en raison de la pandémie de Covid-19 (affichez-la en mode plein écran).

Une exposition inintéressante !

Plus d’informations sur : Code Is Law : une expo qui exploite le potentiel artistique des algorithmes et de l’informatique
Publié sur Sciences & Avenir le 31 janvier 2021 par Arnaud Devillard

How Google Maps uses DeepMind’s AI tools to predict your arrival time

A lot of data and a lot of neural networks
Beaucoup de données et beaucoup de réseaux neuronaux

Google Maps est l’un des produits les plus utilisés de Google, et sa capacité à prévoir les embouteillages à venir le rend indispensable pour de nombreux conducteurs. Selon Google, plus d’un milliard de kilomètres de route sont parcourus chaque jour avec l’aide de l’application. Mais, comme le géant de la recherche l’explique aujourd’hui dans un billet de blog, ses fonctionnalités sont devenues plus précises grâce aux outils d’apprentissage automatique de DeepMind, le laboratoire d’IA basé à Londres et appartenant à Alphabet, la société mère de Google.

Dans un billet de blog, les chercheurs de Google et de DeepMind expliquent comment ils prennent des données de diverses sources et les introduisent dans des modèles d’apprentissage automatique pour prédire les flux de trafic. Ces données comprennent des informations sur le trafic en direct collectées anonymement à partir d’appareils Android, des données historiques sur le trafic, des informations comme les limites de vitesse et les chantiers de construction provenant des gouvernements locaux, mais aussi des facteurs comme la qualité, la taille et la direction d’une route donnée. Ainsi, selon les estimations de Google, les routes pavées l’emportent sur les routes non pavées, tandis que l’algorithme décidera qu’il est parfois plus rapide d’emprunter un long tronçon d’autoroute que de naviguer dans plusieurs rues sinueuses.

Toutes ces informations sont introduites dans un réseau neuronal conçus par DeepMind qui repèrent des schémas dans les données et les utilisent pour prédire le trafic futur. Google affirme que ses nouveaux modèles ont permis d’améliorer de 50 % la précision des heures d’arrivée prévues en temps réel de Google Maps dans certaines villes.

YouTube Launches Fact-Checking Feature in U.S. to Fight Misinformation Amid COVID-19 Pandemic

Covid-19 : YouTube lance une fonctionnalité de fact-checking aux États-Unis

Over the past several years, we’ve seen more and more people coming to YouTube for news and information. They want to get the latest on an election, to find multiple perspectives on a topic, or to learn about a major breaking news event. More recently, the outbreak of COVID-19 and its spread around the world has reaffirmed how important it is for viewers to get accurate information during fast-moving events. That’s why we’re continuing to improve the news experience on YouTube, including raising up authoritative sources of information across the site. Today, we’re continuing this work by expanding our fact check information panels — which we launched in Brazil and India last year — to the United States.

 

 

La suite sur : Expanding fact checks on YouTube to the United States
Source : Youtube Official Blog

Traduction en français possible sur demande.

Espérons que ce service soit aussi déployé dans d’autres pays.

Artificial intelligence, machine learning chip in to fight climate change

Quand l’intelligence artificielle de Google permet de lutter contre le réchauffement climatique

The biggest challenge on the planet might benefit from machine learning to help with solutions.
Le plus grand défi de la planète pourrait bénéficier de l’apprentissage automatique pour trouver des solutions.

Alphabet, La maison mère de Google, travaille à l’utilisation du machine learning du deep learning pour résoudre ce point important pour toute l’humanité.

Comme je n’ai pas encore trouvé le temps pour écrire un article structuré je vous laisse quelques sources ci-dessous :

Alphabet X’s project ‘Wolverine’ will give users with super-human hearing

Alphabet travaille sur des écouteurs capables de donner une audition surhumaine

 

Alphabet has attempted to take on some wild projects over the years, like a crop-sniffing plant buggy and fish-tracking cameras. But now, its X lab is working on a device that could give people superhuman hearing. As Insider first reported, the project, codenamed “Wolverine,” is exploring the future of hearing through sensor-packed hardware. The team, members of which spoke to Insider anonymously, say they’re currently trying to figure out how to isolate people’s voices in a crowded room or make it easier to focus on one person when overlapping conversations are happening around you.

They’ve already iterated on the device multiple times, including devices that covered the whole ear and others that protruded from above the ear. These iterations have been large because the team incorporates lots of microphones into the build, but newer versions are smaller, Insider says. Multiple people from hearing technology companies have joined the team, including talent from Starkey Hearing Technologies and Eargo.

Insider says the Wolverine team’s goals most closely align to that of Whisper, a company that came out of stealth last year. That team has managed to isolate sounds through a “sound separation engine,” which adapts to wearers’ environments. This suggests the lab’s goal isn’t to just create a device everyone would want, but rather an enhanced hearing aid.

Alphabet’s team isn’t focused on just one device or one use case, Insider says. The team is looking to build a successful business with multiple devices and models, so if they’re successful, you might start wearing Google-owned hearing aids.

Article publié sur The Verge le 4 mars 2021 par Ashley Carman
Alphabet’s moonshot lab is working on a device to give people superhuman hearing

Au fil des ans, Alphabet a tenté de se lancer dans des projets farfelus, comme un buggy renifleur de plantes et des caméras qui suivent les poissons. Mais maintenant, son laboratoire X travaille sur un dispositif qui pourrait donner aux gens une audition surhumaine. Comme Insider l’a rapporté pour la première fois, le projet, dont le nom de code est « Wolverine », explore l’avenir de l’audition grâce à un matériel doté de capteurs. L’équipe, dont les membres ont parlé à Insider sous le couvert de l’anonymat, explique qu’elle tente actuellement de trouver un moyen d’isoler les voix dans une salle bondée ou de faciliter la concentration sur une personne lorsque des conversations se chevauchent autour de vous.

Ils ont déjà effectué de multiples itérations sur le dispositif, y compris des dispositifs qui couvrent l’ensemble de l’oreille et d’autres qui dépassent au-dessus de l’oreille. Ces itérations ont été volumineuses car l’équipe a incorporé de nombreux microphones dans la construction, mais les nouvelles versions sont plus petites, explique Insider. Plusieurs personnes issues de sociétés de technologie auditive ont rejoint l’équipe, notamment des talents de Starkey Hearing Technologies et Eargo.

Selon Insider, les objectifs de l’équipe Wolverine se rapprochent le plus de ceux de Whisper, une entreprise qui est sortie de la clandestinité l’année dernière. Cette équipe a réussi à isoler les sons grâce à un « moteur de séparation des sons », qui s’adapte à l’environnement des utilisateurs. Cela suggère que l’objectif du laboratoire n’est pas seulement de créer un appareil que tout le monde voudrait avoir, mais plutôt une aide auditive améliorée.

Selon Insider, l’équipe d’Alphabet ne se concentre pas sur un seul appareil ou un seul cas d’utilisation. L’équipe cherche à construire une entreprise prospère avec de multiples dispositifs et modèles, donc si elle réussit, vous pourriez commencer à porter des appareils auditifs appartenant à Google.

IA médicale de Google : ultra performante en laboratoire, décevante en condition réelle

 

L’intelligence artificielle suscite un grand nombre d’espoirs dans le domaine médical. En septembre 2019, des chercheurs affirmaient que l’IA pouvait réaliser un diagnostic avec plus de précision qu’un humain. Google Health a voulu sortir des laboratoires et tester en condition réelle ses IA.

Une IA formée pour dépister une maladie précise

Google a décidé d’essuyer les plâtres et de sortir de l’espace maîtrisé du centre de recherche. L’IA de la division santé de la société a obtenu le label CE de l’Union européenne qui permet de la tester en situation réelle.

L’occasion s’est présentée en Thaïlande, où le label européen est reconnu. Le ministère thaïlandais de la Santé a mis en place un plan pour dépister la rétinopathie diabétique chez 60% des personnes diabétiques. Une maladie qui peut provoquer une cécité partielle si elle n’est pas prise en charge à temps.

Problème, le pays dispose de 200 spécialistes pour 4,5 millions de patients. Les infirmières doivent donc prendre en photo les patients et envoyer les images aux spécialistes. Un processus pouvant prendre jusqu’à 10 semaines.

C’est ici qu’interviennent Google et son système de deep learning formé à détecter les signes de maladie oculaire. L’IA cherche les signes de rétinopathie diabétique (vaisseaux sanguins bloqués ou qui fuient par exemple) à partir d’un scanner oculaire. Performante dans 90% des cas, le taux de réussite de dépistage est égale à celui estimé des « spécialistes humains ».

Onze hôpitaux thaïlandais ont été équipés et pendant plusieurs mois, l’équipe d’Emma Beede, chercheuse en UX (spécialisée dans l’étude de l’application utilisateur) chez Google Health a observé et échangé avec les infirmières.

Résultat mitigé

Sans être catastrophique, l’IA n’a pas été à la hauteur des attentes placées en elle. Une fois sur cinq, elle se révélait incapable de donner un résultat et renvoyait le patient chez un spécialiste. Frustrant pour les infirmières, les cas étant régulièrement évidents.

Le problème a été identifié, l’IA a été formée à l’aide de scanners de très haute qualité, et en dessous d’un certain seuil d’image elle n’est plus capable de fonctionner. Les infirmières devaient perdre du temps à tenter d’obtenir une meilleure qualité d’image.

L’autre difficulté a été, dans certains hôpitaux, l’utilisation du cloud. Une mauvaise connexion et les conséquences sont immédiates, les retards s’accumulent.

Lorsque tout se passe bien en revanche, l’IA fait des merveilles. Emma Beede a noté qu’une « infirmière a examiné 1 000 patients toute seule, avec cet outil, elle est inarrêtable ». Autre point positif, les patients n’étaient pas spécialement effrayés que ce soit une IA qui procède à leur diagnostic.

Google Health permet un pas en avant en prouvant que les résultats obtenus dans les laboratoires et rapidement claironnés n’ont de valeur qu’éprouvés sur le terrain. En Thaïlande, les chercheurs continuent de travailler, plusieurs solutions prometteuses sont à l’étude : donner la responsabilité aux infirmières de juger les cas limites que l’IA n’a pas su traiter et pour cette dernière, une modification du système pour gérer les images de moins bonne qualité.

Article : IA médicale de Google : ultra performante en laboratoire, décevante en condition réelle
Diffusé sur Siècle Digital par Benjamin Terrasson le 30 avril 2020

Pour passer à la suite : Google – 2