L’intelligence artificielle est un fantastique outil quand il est au service de la santé, de la technologie ou de l’astrophysique.

Mais dans de mauvaises mains, elle peut aussi servir à des fins criminelles ou à la désinformation.

Et le pire n’est pas toujours là où on croit.

 

Piratage de voitures autonomes ou de drones militaires, attaques phishing ciblées, infox fabriquées de toutes pièces ou manipulation de marchés financiers…«L’expansion des capacités des technologies basées sur l’IA s’accompagne d’une augmentation de leur potentiel d’exploitation criminelle», avertit Lewis Griffin, chercheur en informatique à l’University College London (UCL). Avec ses collègues, il a compilé une liste de 20 activités illégales perpétrées par IA, et les a classées par ordre de dommages potentiels, de gains ou profits engrangés, de facilité à mettre en œuvre et de difficulté à détecter et à stopper.

Les crimes les plus effrayants, comme les «robots cambrioleurs» s’introduisant dans votre appartement ne sont pas forcément les plus dangereuses, car ils peuvent facilement être déjoués et touchent peu de monde à la fois. À l’inverse, les fausses informations générées par des «bots» ont la capacité à ruiner la réputation d’une personne connue ou à exercer un chantage. Difficiles à combattre, ces «deepfakes»  peuvent causer un tort économique et social considérable.

Profitons des promesses de l’IA

L’IA, qui permet à la machine de simuler l’intelligence, est le thème technologique le plus discuté du moment, mais il est difficile à appréhender en finance. Les gérants hésitent à privilégier les pionniers et présentent des solutions originales pour participer à son développement.

Mais rappelez-vous : Inintelligence artificielle n’existe pas ou pas encore !

L’IA est «l’électricité de demain: omniprésente, indispensable», écrit Kai-Fu Lee, pionnier de l’IA, dans son best-seller IA. La plus grande mutation de l’histoire.
Ce n’est pas un terme de marketing pour mieux vendre des produits financiers. «Lorsqu’en en 2013 j’évoquais la voiture autonome à des directeurs de l’industrie automobile, ils cherchaient à m’éviter. Cette technologie est pourtant devenue une réalité. Aujourd’hui quand je parle de voitures volantes pour se rendre au bureau, les gens rient. C’est pourtant technologiquement possible, plus sûr, plus rapide et plus efficace», avance Sebastian Thrun, fondateur de Kitty Hawk, une entreprise qui veut précisément produire des véhicules électriques capables de décoller à la verticale. Ce serial entrepreneur s’exprimait récemment lors d’une conférence de Bank of America réunissant 1000 investisseurs.

 

Les 20 menaces les plus dangereuses de l’intelligence artificielle

Dans le paragraphe ci-dessous, j’ai essayé de classer les différentes menace que peut représenter l’intelligence artificielle ; ce classement n’engage que moi.

 

Intelligence artificielle : les menaces graves

  • Hameçonnage sur mesure : générer des messages ultra personnalisés et automatisés afin d’augmenter l’efficacité du phishing visant à collecter des informations sécurisées ou installer des logiciels malveillants.
  • Fausses vidéos : usurper l’identité d’une personne en lui faisant dire ou faire des choses qu’elle n’a jamais dite ou faites, dans le but de demander un accès à des données sécurisées, de manipuler l’opinion ou de nuire à réputation de quelqu’un…
    Ces vidéos truquées sont maintenant quasi indétectables.
  • Fausses informations rédigées par IA : écrire des articles de propagande semblant être émis par une source fiable. L’IA pourrait également être utilisée pour générer de nombreuses versions d’un contenu particulier afin d’accroître sa visibilité et sa crédibilité.
  • Piratage de voitures autonomes : s’emparer des commandes d’un véhicule autonome pour s’en servir comme arme (par exemple perpétrer une attaque terroriste, provoquer un accident, etc..).
  • Piratage des systèmes contrôlés par l’IA : perturber les infrastructures en causant par exemple une panne d’électricité généralisée, un engorgement du trafic ou la rupture de la logistique alimentaire.
  • Chantage à grande échelle : recueillir des données personnelles afin d’envoyer des messages de menace automatisés. L’IA pourrait également être utilisée pour générer de fausses preuves (par exemple de la «sextrosion»).

Intelligence artificielle : les menaces de moyenne gravité

  • Robots militaires : prendre le contrôle de robots ou armes à des fins criminelles. Une menace potentiellement très dangereuses mais difficile à mettre en œuvre, le matériel militaire étant généralement très protégé.
  • Escroquerie : vendre des services frauduleux en utilisant l’IA. Il existe de nombreux exemples historiques notoires d’escrocs qui ont réussi à vendre de coûteuses fausses technologiques à de grandes organisations, y compris à des gouvernements nationaux et à l’armée.
  • Corruption de données : modifier ou introduire délibérément de fausses données pour induire des biais spécifiques. Par exemple, rendre un détecteur insensible aux armes ou encourager un algorithme à investir dans tel ou tel marché.
  • Cyberattaque basée sur l’apprentissage : perpétrer des attaques à la fois spécifiques et massives, par exemple en utilisant l’IA pour sonder les faiblesses des systèmes avant de lancer plusieurs attaques simultanées.
  • Drones d’attaque autonomes : détourner des drones autonomes ou s’en servir pour s’attaquer à une cible. Ces drones pourraient être particulièrement menaçants s’ils agissent en masse dans des essaims auto-organisés.
  • Refus d’accès : endommager ou priver des utilisateurs d’un accès à un service financier, à l’emploi, à un service public ou une activité sociale. Non rentable en soi, cette technique peut être utilisée comme chantage.
  • Reconnaissance faciale : détourner les systèmes de reconnaissance faciale, par exemple en fabriquant de fausses photos d’identité (accès à un smartphone, caméras de surveillance, contrôle de passagers…)
  • Manipulation de marchés financiers : corrompre des algorithmes de trading afin de nuire à des concurrents, de faire baisser ou monter une valeur artificiellement, de provoquer un crash financier…

Intelligence artificielle : les menaces de faible intensité

  • Exploitation de préjugés : tirer profit des biais existants des algorithmes, par exemple les recommandations de YouTube pour canaliser les spectateurs ou les classements de Google pour améliorer le profil des produits ou dénigrer les concurrents.
  • Robots cambrioleurs : utiliser des petits robots autonomes se glissant dans les boîte aux lettres ou les fenêtres pour récupérer des clés ou ouvrir des portes. Les dommages sont faibles potentiellement, car très localisés à petite échelle.
  • Blocage de détection par IA : déjouer le tri et la collecte de données par IA afin d’effacer des preuves ou de dissimuler des informations criminelles (pornographie par exemple)
  • Fausses critiques rédigées par IA : générer des faux avis sur des sites tels que Amazon ou Tripadvisor pour nuire ou favoriser un produit.
  • Traque assistée par IA : utiliser les systèmes d’apprentissage pour pister l’emplacement et l’activité d’un individu.
  • Contrefaçon : fabriquer de faux contenus, comme des tableaux ou de la musique, pouvant être vendus sous une fausse paternité. Le potentiel de nuisance demeure assez faible dans la mesure où les tableaux ou musiques connues sont peu nombreux.

Les IA vont créer de nouveaux crimes dans le futur

Les deepfakes, les fake news automatisées et le phishing personnalisé sont les crimes les plus dangereux qui pourront être provoqués par le développement de l’intelligence artificielle.

On s’imagine parfois, en science-fiction, des futurs où les intelligences artificielles deviennent hors de contrôle ou se rebellent, et en viennent à commettre des meurtres. Mais si cela reste aujourd’hui assez peu probable à court ou moyen terme, un autre type de dérives, aussi évoqué en SF, apparaît plus crédible : les mauvaises utilisations par les humains. Une équipe de chercheurs vient de publier, dans la revue Crime Science, ce 5 août 2020, une étude dédiée aux crimes qui seront favorisés par le développement des IA. Leur anticipation se déroule sur les 15 années à venir.

Au préalable, l’équipe de recherche a rassemblé une liste de vingt interactions existantes ou anticipées entre les IA et la criminalité. « Les cas étaient tirés de la littérature universitaire, mais aussi de l’actualité, et même de la fiction et de la culture populaire, qui peut être considérée comme un baromètre des préoccupations et des angoisses contemporaines », peut-on lire dans l’étude.

« À mesure que les capacités des technologies basées sur l’IA augmentent, c’est aussi le cas pour la potentialité de leur exploitation criminelle, prévient l’un des auteurs de cette étude. Pour se préparer de manière appropriée contre ces menaces émanant des IA, il faut identifier quelles peuvent être ces menaces, et comment elles pourraient avoir un impact sur nos vies. »

 

Un tableau des crimes provoqués par les IA

Ensuite, l’équipe a rassemblé un groupe de trente experts, provenant du monde universitaire, du secteur privé, du secteur public, du gouvernement, de la police et d’agences de sécurité. Ils devaient évaluer ces menaces à partir de quatre critères :

  • Le risque de préjudice : la nuisance sur la victime ou la nuisance sociale, que ce soit par exemple une douleur, une terreur individuelle, une perte collective de confiance, une perte financière.
  • Le profit criminel : un objectif criminel qui motive l’usage de l’IA, comme gagner de l’argent illégalement, faire du mal ou attenter à une réputation.
  • La faisabilité : à quel point le crime serait atteignable compte tenu d’éléments nécessaires comme les moyens technologiques disponibles, les compétences informatiques requises ou l’accessibilité aux données.
  • Les failles du crime : les mesures possibles pour éviter, détecter ou rendre inutile ce crime.

Le résultat des délibérations a permis d’aboutir à un tableau spatial, sous forme de quadrant (vous pouvez cliquer sur l’image pour la voir en plus grand). La dangerosité des crimes y est classée en fonction des critères précédemment établis :

Les deepfakes, plus grande menace à venir ?

Parmi les crimes les moins inquiétants compte tenu de leurs aspects irréalisables et peu néfastes (points verts), on retrouve « forgery », ou la génération de faux contenus artistiques, comme la musique, pour être vendus comme contrefaçon. Pour les experts, c’est peu dangereux, et difficilement réalisable pleinement étant donné les capacités limitées des IA. Même constat pour les « burglar bots », ou robots cambrioleurs, des petits robots autonomes qui pourraient permettre aux voleurs d’entrer par effraction dans des lieux.

Concernant les menaces les plus graves, il y a les voitures autonomes transformées en armes (ce qui ne serait pas sans rappeler l’excellente série Upload), mais elles seraient faciles à déjouer. On retrouve aussi les fake news générées par ordinateur et le phishing personnalisé. Mais ce qui constitue la pire menace, pour ce groupe d’experts, ce sont essentiellement les deepfakes : des imitations audio ou vidéo de personnes réelles ; cela peut être par exemple de créer de toute pièce un discours de responsable politique, comme avec ce fake de Barack Obama.

« Les humains ont une forte tendance à croire leurs propres yeux et oreilles, rappellent les auteurs de l’étude. (…) Des imitations convaincantes de cibles suivant un script peuvent déjà être fabriquées, et des imitations interactives pourraient suivre. (…) » Parmi les utilisations criminelles possibles listées par les experts consultés : l’usurpation de l’identité d’enfants auprès de parents âgés par le biais d’appels vidéo pour accéder à des fonds ; l’utilisation du téléphone pour demander l’accès à des systèmes sécurisés ; de fausses vidéos de personnalités publiques parlant ou agissant de manière répréhensible afin de manipuler le soutien. Les deepfakes sont par ailleurs difficiles à vaincre, notamment car les algorithmes risquent d’avoir du mal à les repérer.

Article publié sur Le Figaro (réservé aux abonnés) :
Intelligence artificielle : comment les faux visages deviennent une arme de tromperie massive
Publié sur Le Figaro le 25 décembre 2020 par  Ingrid Vergara

Voir aussi : Les avancées de l’intelligence artificielle pourraient rendre les “deepfakes” encore plus redoutables
(Réservé aux abonnés)
Publié sur Le Monde le 20 novembre 2020 par Yann Coatanlem et Emilie Rannou

 

The danger of AI is weirder than you think

Par Janelle Shane


TED conférence

Can we build AI without losing control over it?

By Sam Harris


TED conference

Une machine peut-elle penser ?

Article publié sur le World Economic Forum le 30 avril 2020

Alan Turing, concepteur d’une machine universelle ayant conduit au concept d’ordinateur, s’est posé très tôt la question : une machine peut-elle penser ? Vieux rêve ancestral de la philosophie occidentale, revisité par les potentialités révolutionnaires d’un domaine scientifique en pleine expansion : l’intelligence artificielle.

La question historique d’Alan Turing

Pour répondre, Alan Turing propose un test soumettant l’ordinateur au jeu de l’imitation : il s’agit, par des questions libres posées par un interrogateur humain, d’utiliser les réponses obtenues pour déterminer, lors d’une conversation en aveugle, s’il converse avec un autre humain ou avec un ordinateur.
Après nombre de discussions et de querelles, il est actuellement admis que ce test n’est pas apte à répondre à la question posée, celle de l’intelligence d’un système informatique. Pourquoi ? D’abord pour des raisons pratiques : le temps nécessaire pour trouver la question clé permettant formellement l’identification de la machine pourrait être extrêmement long. La question est ambiguë : que mesure-t-on en pratique ? quels sont les termes de l’équation à résoudre : pensée, intelligence, compréhension ? Se posent aussi des questions interprétatives d’ordre sociologique et culturel de l’interrogateur, avec des risques de dérives de jugement de comportements humains plutôt que d’intelligence proprement dite. Enfin, une potentielle question d’indécidabilité resterait liée à l’autoréférence d’une intelligence interrogeant une éventuelle autre intelligence.
Actuellement, compte tenu des corrélations entre les recherches sur le cerveau et celles sur les réseaux de neurones artificiels, il est possible de reformuler la question de l’intelligence artificielle sous la forme suivante : un système d’intelligence artificielle peut-il être conscient ?
Mesurer la conscience, ce « sentiment de soi »
Différentes études sur le cerveau humain ont amené des progrès considérables dans la compréhension des processus complexes liés au « problème difficile de la conscience ». Considérant que la conscience est un phénomène réel physiquement analysable et se référant à la théorie de l’information, les neuroscientifiques Giulio Tononi et Christof Koch, spécialistes des sciences de la conscience, ont proposé une voie permettant d’évaluer le degré de conscience d’un système cérébral humain.
À partir d’études complexes des activités électromagnétiques d’un cerveau en éveil, en travail, en sommeil profond ou en état végétatif, Giulio Tononi a élaboré une théorie de gestion neuronale dite « de l’information intégrée », selon laquelle la quantité effective d’information intégrée correspondrait au niveau de conscience d’un individu : il établit un coefficient de conscience, noté Φ. Ce coefficient est calculable et représenterait le taux d’intégration de l’information, c’est-à-dire une mesure de l’information échangée entre les sous-systèmes en interactions dans le réseau cérébral en phase d’activité. En d’autres termes, selon Giulio Tononi, les informations inhérentes aux processus cérébraux – ici, la conscience, le sentiment de soi – sont d’autant plus intégrées que l’entropie, qui mesure le désordre, est faible. Ceci revient à supposer que l’entropie soit liée à toute activité neuronale animale.
Opérer de la sorte revient à considérer le phénomène de conscience comme élément d’une réalité objective descriptible analytiquement. Or, bien que certains états de conscience soient liés à des sensations, le passage du degré de conscience donné par la valeur de Φ à la perception d’un ressenti subjectif, comme un sentiment, reste pour le moins énigmatique. Quelle est la relation entre le ressenti et Φ ? Associer information intégrée et états sensoriels appellerait plus ample justification.

L’épineux problème de la conscience des machines

Et Giulio Tononi et Christof Koch n’hésitent pas à aller au-delà puisqu’ils proposent d’étendre le calcul du facteur Φ aux animaux et à tout système physique non biologique générant ou recevant de l’information, ce qui est nécessaire pour calculer Φ. Selon ces auteurs, ce coefficient représenterait une mesure de son état de conscience. Hypothèse non triviale puisqu’elle reviendrait à supposer l’universalité de l’existence d’une dimension psychique liée à l’information. Hypothèse sortant stricto sensu du cadre de la science et qui rejoindrait un philosophisme de type panpsychisme auquel ont adhéré Spinoza, Leibniz et Teilhard de Chardin.
Dernière question embarrassante : que signifierait le calcul de Φ pour Internet ? Nul ne le sait ! Mais intéressant sujet de science-fiction !

Le défi de la machine qui pense

Le problème posé est le suivant : est-il possible de concevoir une structure matérielle dotée de caractéristiques psychiques à partir des moyens actuels, ou présumés, de l’intelligence artificielle ? Redoutable défi que de prétendre réaliser des fonctions cognitives à partir de la matérialité des neurosciences computationnelles. Les machines, aussi complexes soient elles – par exemple AlphaGo, qui a battu le champion du monde de go en 2017 – restent fondées sur des algorithmes. Le défi majeur est donc le suivant : le potentiel de l’informatique permet-il d’envisager une telle mutation ?
Les machines actuelles ont un fonctionnement déterministe et c’est précisément ce qui en fait tout l’intérêt dans leurs applications aux sciences exactes. La rationalité n’étant pas la qualité première du psychisme, il se pose une question d’adaptation de la méthodologie. Techniquement il est possible de concevoir des programmes qui ne sont pas déterministes, comme les réseaux de neurones artificiels capables d’apprendre et d’auto-évoluer. C’est ce qui fonde l’intelligence artificielle dite forte, qui exige des puissances de calcul et une consommation énergétique énormes.
Mais la situation pourrait changer avec, d’une part, l’apparition de l’ordinateur quantique qui, basé sur le probabilisme des états quantiques des qubits, aurait un fonctionnement non déterministe. Et, d’autre part, avec la puce neuromorphique énergétiquement des plus sobres.

L’ordinateur neuromorphique

Une voie nouvelle est ouverte avec l’ordinateur neuromorphique. L’idée de base, déjà ancienne, consiste à remplacer l’architecture calculatoire de von Neumann, fondant jusqu’ici tous les ordinateurs, par une architecture neuromorphique utilisant des puces neuromorphiques, c’est-à-dire des microcircuits qui fonctionnent comme des microréseaux neuronaux inspirés des réseaux neuronaux cérébraux. Les machines neuromorphiques, dotées d’une certaine autonomie, sont capables de déduction et exécution de tâches fonctionnelles mais surtout d’apprentissage à partir d’exemples et de catégorisation des données acquises. Quelques réalisations existent déjà dont des utilisations dans le traitement et l’exploitation des données. Des microprocesseurs neuromorphiques, capables d’intégrer des milliards d’équivalents neurones associés à des centaines de milliards de synapses artificielles, sont à l’étude (les synapses d’un cerveau humain sont dix mille fois plus nombreuses).
Un des objectifs actuels serait de fabriquer des machines capables d’apprendre en temps réel (c’est le fameux machine learning), autonomes et adaptables à leur environnement. Les champs d’applications sont immenses. Bien que l’ingénierie neuromorphique n’en soit qu’à ses débuts, il s’agit d’un véritable bond technologique auquel s’attaquent les « Grands » de l’informatique comme IBM et Intel, et quelques réalisations spectaculaires existent déjà.
Pourtant, quels que soient les progrès réalisés dans les technologies calculatoires, il reste la difficile question de l’interprétation d’une simulation : le modèle n’est pas l’objet, la simulation n’est pas la réalité. Cette opération se réfère à une modélisation qui est, mais n’est qu’une schématisation plus ou moins exacte de la réalité. Par exemple, un orage simulé ne soumet l’ordinateur ni à la foudre ni à la pluie.
La confusion fantasmagorique entre ordinateurs et « cerveaux électroniques »
Peu après son apparition, certains chercheurs s’aperçurent vite que l’ordinateur est beaucoup plus qu’une machine arithmétique. Puisqu’il est capable de manipuler des symboles abstraits et de faire des inférences logiques, il fut rapidement envisagé de l’utiliser pour des simulations de certaines fonctions cérébrales. Par exemple, le Logic Theorist vit le jour aux États-Unis en 1955 et le General Problem Solver en 1959, donnant l’illusion que la machine pouvait effectuer des tâches exigeant de l’intelligence, par exemple démontrer certains théorèmes.
C’est l’un des pionniers, l’informaticien américain John McCarthy, qui introduisit à son propos, en 1956, l’expression intelligence artificielle. Cette expression prête en fait à confusion et ne fit pas l’unanimité chez les spécialistes car elle confond l’ordinateur avec un « cerveau électronique ». Mais l’optimisme américain et l’opportunisme prévalurent rapidement et vint l’ère des grands discours et des illusions. Ce fut une longue histoire tourmentée qui, après différentes désillusions et de spectaculaires revirements, aboutit finalement à l’état actuel.
Le point essentiel de cette histoire est que, dès le départ, elle a été embarquée dans une confusion des termes. Il ne s’agissait pas, à proprement parler, d’intelligence artificielle mais comme deux de ses principaux artisans, Newel et Simon, le suggérèrent dès le départ, de traitement complexe de l’information.

C’est pourquoi la véritable question qui reste posée, à laquelle il faudrait y répondre en évitant de confondre modèle et objet, est la suivante : est-il possible de concevoir une pensée artificielle ? C’est l’avenir qui décidera.

Article source : Une machine peut-elle penser ?  (cet article n’est plus en ligne)
Publié sur le World Economic Forum par Marceau Felden Physicien, professeur honoraire , Université Paris-Saclay

 

L’inspiration de l’intelligence artificielle a toujours été le cerveau humain, mais c’est impressionnant de les voir se comporter comme nous. Or des chercheurs ont découvert que leur santé « mentale » s’améliore par un mécanisme similaire au sommeil.

Dans une expérience avec des réseaux à base de neurones artificiels, aujourd’hui au le cœur de la technologie IA, des chercheurs ont montré qu’un mécanisme proche du sommeil leur permet d’assimiler mieux leur apprentissage et de « laver » l’accumulation d’erreurs pouvant mener au collapse du réseau. Impressionnant.

La manip des chercheurs concerne des puces neuromorphiques, c’est-à-dire contenant des microcircuits gravés dès leur conception en forme de réseau de neurones, contrairement aux puces standard qui acquièrent cette structure de manière virtuelle, par programmation – cela permet de réduire le volume de calcul du système et donc de le rendre plus rapide et économe.

Et l’étude porte sur la technique d’apprentissage dit « non supervisé », qui se rapproche de la manière dont nous apprenons, même si ce type d’apprentissage est aujourd’hui plus du domaine de la recherche que des applications.

Je ne peux afficher la suite de cet article car il est réservé au abonnés mais cette introduction est très claire.

Article source : Les intelligences artificielles, elles ont aussi besoin de dormir
Publié sur Science & Vie (pas de date de publication)

Le défi énergétique de l’intelligence artificielle

Les progrès spectaculaires du « deep learning » ont une contrepartie : la course à la puissance de calcul fait exploser le coût énergétique. Mais des solutions commencent à apparaître.

L’intelligence artificielle est-elle dangereuse pour le climat ? Les avancées récentes de l’apprentissage automatique profond (« deep learning ») ont permis aux machines de battre les meilleurs humains au jeu de go, d’effectuer des traductions dans toutes les langues courantes ou d’analyser des images et des conversations avec des résultats spectaculaires. Mais ces progrès ont une contrepartie : la quantité d’électricité nécessaire pour entraîner et utiliser ces algorithmes ne cesse d’augmenter.

Quelle est l’empreinte environnementale des machines de calcul qui tournent pendant des jours, voire des semaines entières, pour mettre au point les meilleurs algorithmes d’IA dans le monde ? Les spécialistes du secteur vont désormais y voir plus clair.

Une équipe de chercheurs emmenée par Yoshua Bengio, l’un des pontes mondiaux de l’IA et lauréat en 2018 (avec le français Yann Le Cun et le canadien Geoffrey Hinton) du prix Turing, le « Nobel » de l’informatique, a dévoilé l’un des premiers outils permettant de mesurer les émissions de Co2 des algorithmes.

Ce logiciel, baptisé CodeCarbon, est le résultat d’un long travail mené conjointement par Mila, l’institut de recherche en IA fondé par Yoshua Bengio à Montréal qui regroupe 700 chercheurs spécialisés dans l’apprentissage profond ainsi que Gamma, la branche IA du Boston Consulting Group.

Serveurs in situ

Concrètement, CodeCarbon est un outil en open-source, téléchargeable gratuitement sur le site codecarbon.io. Une fois intégré dans la base code Python, il mesure les émissions de Co2 et donne une équivalence avec des indicateurs simples. Le nombre de kilomètres parcourus par une voiture, la consommation d’une heure de télévision…

Pour cela, CodeCarbon croise deux paramètres : l’intensité carbone du réseau électrique local (plus ou moins de nucléaire, d’éolien, etc.) et la quantité d’énergie consommée par l’infrastructure sous-jacente utilisée pour le calcul. En clair, les serveurs, que ce soient les méga-serveurs loués à Amazon ou des serveurs privés hébergés in situ.

En bout de course, l’outil invite les codeurs à déplacer leurs serveurs dans des pays moins carbonés. Selon Sylvain Duranton, directeur monde du BCG Gamma, ceci permet de diviser par 2 voire 5 la facture écologique des algorithmes.

355 années de calcul

CodeCarbon doit répondre à un problème : plus les algorithmes se perfectionnent, plus ils nécessitent de la puissance de calcul et plus la facture environnementale augmente. Par exemple, pour entraîner l’algorithme GPT-3 dévoilé cet été sur le langage naturel, l’équivalent de 355 années de calcul ont été nécessaires, sur un seul processeur. En émissions de Co2, cela équivaut à une nouvelle voiture européenne parcourant… 700.000 km.

Certes, les centres de données représentent aujourd’hui une faible part de l’empreinte totale du numérique. 14 % précisément en France, contre 80 % pour la fabrication des smartphones, selon un rapport du Sénat en France. Mais selon ce même rapport, le poids environnemental des centres de données est celui qui va le plus exploser : +86 % d’ici à 2040 !

« La facture environnementale des algorithmes augmente plus que les autres domaines du numérique, c’est très inquiétant, confirme Yoshua Bengio. C’est pour ça qu’avoir une estimation, créer de la transparence, est crucial. C’est la première étape avant toute régulation, qu’elle émane des États ou des organisations ». « Jusqu’à présent, l’intelligence artificielle était vorace : il fallait toujours plus de données, toujours plus de processeurs graphiques. Il y a une hausse exponentielle. Il faut absolument casser cette courbe. »

Des algorithmes « responsables »

Ces travaux devraient rencontrer un grand intérêt dans la communauté scientifique travaillant sur les « algorithmes responsables », un pan en plein essor. Algorithmes moins énergivores en données, mais aussi plus soucieux de la diversité, y compris de genre… Pour autant, son succès réel et sa capacité à devenir un standard (ce qui est l’objectif) dépendront surtout de son appropriation par les géants des algorithmes comme Google ou Facebook.

« Ces géants de la tech ont souvent leurs propres outils, explique Sasha Luccioni, chercheuse en postdoc à AI For Humanity. Le problème, c’est qu’il n’y a pas encore de transparence. Les Gafa communiquent beaucoup sur leurs efforts pour verdir leurs centres de données, mais par exemple ils ne disent jamais combien de processeurs graphiques ils utilisent. » En tout cas CodeCarbon promet déjà de « convertir » le plus de monde possible. « C’est notre mission », conclut Yoshua Bengio.

Sources : compilations de 4 articles de différents médias.

Une IA suffisamment intelligente pour estimer ses propres erreurs

On dit que l’erreur est humaine… Si cela reste rare, il arrive que les algorithmes se trompent aussi, ce qui peut être préoccupant quand on pense aux IA des voitures autonomes ou encore celles utilisées pour des applications médicales. Selon une pré-publication parue sur le site arvix, une intelligence artificielle peut estimer ses propres incertitudes. Les chercheurs du MIT et de l’Université de Harvard ont formé des réseaux de neurones, baptisés le Deep Evidential Regression, le tout formant une IA  « consciente » de sa propre fiabilité. Elle produit non seulement une décision, mais elle est aussi capable d’estimer l’incertitude en ses propres décisions. Une sorte de côte de confiance en somme. Les chercheurs l’ont testée avec succès. Ils lui ont fait juger les profondeurs dans différentes parties d’une image, un peu comme une voiture autonome qui devrait estimer la distance. En prime, l’IA a aussi signalé les moments où elle rencontrait des images qui sortaient de ses attributions habituelles. Voici donc une intelligence artificielle suffisamment intelligente pour savoir quand elle n’est pas digne de confiance.

Article source publié sur France Culture.

Une IA doit-elle nous dire quand on ne peut pas lui faire confiance ?

En complément de l’article précédent …

Des chercheurs du MIT ont établi un nouveau modèle qui permet de connaître immédiatement le niveau de confiance d’un réseau de neurones artificiel dans une prédiction.

Les intelligences artificielles sont de plus en plus déployées dans une multitude de domaines où elles accompagnent des décisions. Et ces décisions peuvent affecter des êtres humains. Sur la base de ce constat, une équipe de recherche du MIT s’est penchée sur une méthode de deep learning visant à entraîner les IA à reconnaître et signaler « elles-mêmes » leurs limites. Le document de présentation du modèle est disponible en ligne depuis fin novembre 2020.

« Nous avons besoin non seulement d’avoir des modèles de haute performance, mais aussi de comprendre quand l’on ne peut pas avoir confiance en ces modèles », a expliqué sur le site du MIT, Alexander Amini, l’un des ingénieurs travaillant sur le projet, le 20 novembre. Lorsque le résultat que les IA produisent est potentiellement peu fiable, il faut qu’une alerte remonte donc automatiquement et immédiatement.

Les intelligences artificielles sont aujourd’hui utilisées dans des domaines comme les réseaux sociaux, les moteurs de recherche, la reconnaissance faciale, mais aussi dans des cadres médicaux par exemple. Ces réseaux de neurones artificiels connaissent « la bonne réponse » dans 99 % des situations, mais lorsque des vies sont en jeu, le 1 % restant peut être extrêmement néfaste..

Deep Evidential Regression

« Nous nous intéressons à ce 1 %, et comment détecter efficacement et avec fiabilité ces situations », indique Alexander Amini. Cette marge d’incertitude est connue des ingénieurs depuis longtemps, mais la plupart des techniques sont lourdes informatiquement avec du deep learning, nécessitant la répétition de plusieurs opérations (le réseau de neurones artificiel doit « tourner » plusieurs fois jusqu’à ce que l’on connaisse sa fiabilité). Ces techniques prennent trop de mémoire, trop de temps. Puisque les IA prennent en charge des flux de données toujours plus massifs, ces chercheurs d’Harvard estiment que les anciennes techniques ne sont plus adaptées.

Ils surnomment leur méthode « deep evidential regression » et elle n’a besoin que d’une seule opération pour définir un niveau de confiance (le réseau de neurones artificiel n’a besoin de ne tourner qu’une seule fois pour son évaluation). Le modèle qu’ils ont conçu produit non seulement un résultat, mais aussi, toutes les preuves qui appuient cette décision. Ce faisant, à chaque résultat, l’IA fournit ce qu’on appelle une « distribution probabiliste » : cela signifie que l’on a accès directement au niveau de confiance de la prédiction, au moment même où celle-ci est rendue. Cette distribution probabiliste peut même aider à trouver la cause de l’incertitude, et si cela vient du réseau de neurones, qu’il faut donc recalibrer, ou si cela vient des données analysées avec les biais inclus.

Imaginez une voiture autonome arrivant à une intersection, et se présentent à elle plusieurs choix de voies. Dans un modèle de deep learning traditionnel (bayésien), elle aurait besoin de simuler chaque choix de voie pour délivrer un niveau de confiance dans la meilleure voie à prendre. Ce serait assez lent. Dans le modèle du MIT en deep evidential regression, la voiture propose plus rapidement — immédiatement, en fait — un niveau de confiance dans son choix de voie ; on sait donc d’emblée si le choix est potentiellement risqué ou non. Cela devient tout de suite plus important si la voiture autonome doit déterminer si, en détectant un passant au loin, elle doit s’arrêter ou juste ralentir, par exemple. L’affichage d’un niveau de confiance et la rapidité de cet affichage apparaissent comme des enjeux humains.

C’est bien pour cela que les chercheurs du MIT pensent que le modèle de deep evidential regression pourrait améliorer la sécurité dans la prise de décision assistée par une intelligence artificielle. « Nous commençons à voir de plus en plus de ces modèles [de réseaux neuronaux] sortir des laboratoires de recherche et pénétrer dans le monde réel, dans des situations qui concernent les humains, avec des conséquences potentiellement mortelles. Tout utilisateur de la méthode, qu’il s’agisse d’un médecin ou d’une personne sur le siège passager d’un véhicule, doit être conscient de tout risque ou incertitude associés à cette décision », commente Alexander Amini.

Article source : Une IA doit-elle nous dire quand on ne peut pas lui faire confiance ?
Publié sur Numerama le 29 novembre 2020 par

Comment motiver une IA ?

Dans le film « Interstellar » de Christopher Nolan, TARS est omniprésent. TARS est un robot intelligent, et pourtant il ne possède pas d’intelligence surhumaine ni des gadgets futuristes pour impressionner le public. Au contraire, il est parfois plus « humain » que les protagonistes humains eux-mêmes, non pas seulement parce qu’il est capable d’aider et de donner des conseils, mais aussi parce qu’il est vulnérable.

En effet, les « intelligences artificielles » sont performantes pour accomplir les tâches spécifiques, définies par les humains, sur lesquelles elles étaient entraînées, mais elles sont beaucoup moins bonnes dès qu’elles font face à une situation non rencontrée préalablement. Un « robot » nettement plus intelligent devrait pouvoir s’adapter progressivement aux nouveaux contextes rencontrés. Il deviendrait alors un agent « autonome », capable de percevoir ce qui l’entoure et d’effectuer d’une manière indépendante des actions.

Cela nous amène à deux questions : comment entraîner ces agents artificiels autonomes ? Comment leur donner « envie » d’apprendre autre chose que ce que l’on attendait d’eux ?

Récompenses et motivation

Un « agent artificiel autonome » n’est pas nécessairement robotisé et physique – il s’agit plutôt d’un programme capable de prendre des décisions d’une manière indépendante. Cet agent peut évoluer dans la pièce à côté ou dans une simulation numérique. On parle d’« intelligence » si cet agent apprend à prendre des décisions adéquates dans un certain contexte par lui-même.

L’un des paradigmes les plus prometteurs présentant un cadre formel pour cet apprentissage est l’apprentissage « par renforcement ». L’idée de base est empruntée de la théorie du renforcement en psychologie, qui désigne un procédé ayant pour but d’augmenter la probabilité de répétition d’un comportement. Par exemple, une souris qui reçoit de la nourriture quand elle touche le jeton rose et un choc électrique léger quand elle touche le jeton bleu aura tendance à opter pour le jeton rose…

Article génial ; lire la suite : Comment motiver une IA ?  Publié sur TheConversation le 20 novembre 2020.

Les algorithmes, une réalité soumise au biais de la construction humaine

« Aujourd’hui, à nos sentiments, nos expériences et nos raisonnements parfois mathématiques, s’ajoutent le calcul et la logique algorithmiques »

Article publié sur L’Opinion le 17 août 2020 par
Les articles inclus sont important à lire.

« Nous ne voulons pas endosser le rôle d’arbitre de la vérité. » Cet argument développé par Mark Zuckerberg pour se justifier de ne pas avoir à trancher ce qui peut être publié sur sa plateforme devient intenable alors que les réseaux sociaux s’installent toujours plus dans notre quotidien. Mais si ce n’est pas au patron de Facebook de tenir ce rôle, d’autres le peuvent-ils ? C’est ce que cherche à savoir l’Opinion dans cette série estivale.

Galilée l’affirmait : la nature est un livre écrit en langage mathématique. Tout phénomène, selon lui, pourrait être décrit par un système capable de capturer l’essence des mécanismes qui le constituent. Les philosophes recherchent le sens ultime des choses alors que les scientifiques recherchent des explications. Aux premiers, la quête du pourquoi, aux seconds l’exploration du comment. Par leur travail explicatif, les scientifiques traquent les erreurs qui font avancer cette recherche de vérité. Aujourd’hui, à nos sentiments, nos expériences et nos raisonnements parfois mathématiques, s’ajoutent le calcul et la logique algorithmiques. On s’efforcera ici de répondre à une question a priori banale, mais qui suppose une connaissance du fonctionnement des algorithmes, de leurs limites et de leurs potentiels, face à notre pensée bien humaine : les algorithmes détiennent-ils la vérité ?

La méthode algorithmique repose sur un dosage subtil d’empirisme et de rationalisme — pourtant traditionnellement distingués, voire opposés, dans le passé par nombre de philosophes. Les algorithmes explicites possèdent par définition une logique décrite par les humains. Dans cette logique on trouve par exemple des structures conditionnelles — si une condition est validée alors une opération algorithmique est exécutée —, des équations mathématiques souvent complexes, des conditions d’usage ou encore des hypothèses.

Parti pris. L’algorithme explicite fait alors appel principalement au raisonnement de ceux qui le conçoivent. On comprend, dès lors, qu’il modélise un phénomène à partir d’une observation et d’une compréhension du monde inévitablement subjective. Cela posé, la simulation qui en résulte permet de soulever des corrélations jusque-là purement conceptualisées, des couplages inconnus entre composantes du phénomène, ou des incohérences face à la réalité ou à ce qu’on pensait d’elle. Comme une meilleure compréhension des mécanismes de maladies, de phénomènes climatiques ou de manifestations sociologiques…

Contrairement aux algorithmes explicites, les algorithmes implicites possèdent une logique entièrement construite par apprentissage sur des données choisies et labellisées par les scientifiques. D’une certaine manière, cette approche s’inspire de l’empirisme par une utilisation brute des scénarios du phénomène à simuler symbolisés par les données d’apprentissage. Un jour, on pourra peut-être entraîner un algorithme entièrement sur des données non labellisées, mais il restera toujours le choix de ces données. Même sur des tailles gigantesques, celles-ci captureront toujours une réalité et non la réalité dans sa totalité. Rien ne permettra de démontrer le contraire.

Qu’ils soient explicites ou implicites, les algorithmes sont le fruit d’une construction humaine plus ou moins supervisée, avec ses biais et son prisme. Ils permettent de démontrer des concepts jusqu’ici induits ou tout simplement pensés, de trouver des solutions à des problèmes encore difficiles à mathématiser, ou de mettre en lumière des relations de causalité encore jamais soulignées. Cela dit, les algorithmes ne saisissent pas toute la réalité, ils se contentent de traduire une réalité induite par le raisonnement, sur un problème que notre logique a formulé, et dont nous analysons les résultats avec, là aussi, un parti pris inconscient.

Ce sujet rejoint une autre idée préconçue selon laquelle les algorithmes seraient capables un jour de tout modéliser — et, partant, de tout simuler. Cette position est invivable : on ne pourra jamais dire qu’on a tout observé ou tout capturé du monde qui nous entoure, car pour atteindre un tel paradigme il faudrait s’affranchir de l’idée même de monde. Les algorithmes qui permettent également d’apporter des éléments prédictifs sur un phénomène, deviennent pour les hommes l’outil suprême pour devenir maîtres de leur destin. L’algorithme deviendrait alors l’héritier des augures, des haruspices et autres devins. Mais là encore, il ne peut détenir la vérité future, par notre incapacité de confirmer l’intégralité de sa représentation du réel sans approximation, interprétation ou encore omission.

Penser les algorithmes comme détenteurs ultimes de la réalité, c’est s’interroger sur l’idée que celle-ci peut toujours être décrite analytiquement. Le cas de l’amour, par son caractère incapturable et indémontrable, affaiblit le principe même de véracité par une description analytique. Sans contredire Galilée, on admettra les limites des algorithmes à s’emparer de la vérité sur tout et à tout moment, car de la même manière que tout ne peut pas s’exprimer avec des mots, tout ne peut pas s’exprimer avec la logique actuellement formalisée, même complexe et fortement abstraite.

Le physicien nobélisé Richard Feynman disait que « le paradoxe n’est qu’un conflit entre la réalité et notre sentiment de ce que la réalité devrait être ». A la réalité résonne ici la vérité du monde que les philosophes tentent de trouver depuis plus de 2000 ans. Les algorithmes permettent de soulever de nombreux paradoxes par le niveau d’abstraction et la complexité de leur logique. Mais nous ne serons jamais à un paradoxe près… et nous aurons toujours besoin de philosophes !

Voir aussi : Mémorisation : une région cérébrale responsable d’un puissant biais cognitif
Publié sur Sciences et Avenir le 25 janvier 2021 par Anouk Tomas

Se retrouver dans une vidéo porno deepfake, voici ce que ça fait

Il est presque impossible de faire supprimer une fausse sex-tape en ligne.

Un jour de mars, au beau milieu d’une journée de travail ordinaire, Kate, 28 ans, a senti un tapotement pressé sur son épaule. Son collègue voulait absolument lui montrer une vidéo. Elle s’est donc approchée de son écran et s’est vue, grimaçante et gémissante, sur un canapé, les jambes écartées, tandis qu’un homme la pénétrait.

Kate était écœurée. Ses collègues, venus voir ce qui se passait, en sont restés sans voix. Ça avait l’air vraiment réel. La fille dans la vidéo répondait même au prénom de Kate. Evidemment, elle savait que ça ne pouvait pas être elle puisqu’elle n’avait jamais fait de film porno, et que le corps n’était pas le sien. Il ne pouvait s’agir que d’un canular, mais qui la croirait?

“C’était horrible. Je n’avais jamais rien vu de semblable”, explique Kate, qui vit au Texas.

La vidéo, qui est toujours en ligne et compte des dizaines de milliers de vues, est un deepfake, une vidéo trafiquée à l’aide d’un logiciel d’intelligence artificielle qui donne l’impression que quelqu’un fait ou dit des choses. Ces algorithmes utilisent les données vidéo et images d’un individu pour créer un modèle virtuel de son visage et le superposer à n’importe quelle image. Dans le cas de Kate, son visage a été superposé sur celui d’une actrice porno.

“Avec Photoshop, qui permet de modifier une image statique, on voit la supercherie”, explique Kate, qui avait déjà été la cible d’attaques misogynes. “Mais quand votre propre visage réagit et bouge, c’est absolument déconcertant. Vous vous rendez compte que vous n’avez aucun contrôle sur l’utilisation qui est faite de votre image.”

La suite sur : Se retrouver dans une vidéo porno deepfake, voici ce que ça fait
Publié sur HUFFPOST le 2 janvier 2021 par Jesselyn Cook

Pourquoi les religions ont-elles peur de l’IA et des robots ?

Nouvelle promesse d’immortalité, Intelligence Artificielle (IA) idolâtrée et abandon de l’âme : nombreuses sont les raisons pour lesquelles les religions pourraient craindre ces technos.

La fascination des êtres humains pour les machines imitant le vivant est plus ancienne que la chrétienté elle-même. Le premier automate de l’histoire de l’humanité, un pigeon volant et autonome fonctionnant à la vapeur, a en effet été créé autour de -400 avant J.C. par Archytas de Tarente, un disciple de Pythagore légèrement obsédé par les mathématiques.

 

Points abordés :

  • La fin de l’âme
  • Nouvelle promesse d’immortalité
  • Une nouvelle idole
  • La menace ultime

Lire l’article complet : Pourquoi les grandes religions ont-elles peur de l’IA et des robots ?
Publié sur Vice le 27 janvier 2021 par Jean-Baptiste Bonaventure

Autres articles :

Le collectif Impact AI dévoile un guide pratique pour une IA digne de confiance

Le collectif Impact AI a présenté cette semaine un guide pratique, à destination des entreprises, pour mettre en œuvre une intelligence artificielle (IA) digne de confiance. Start-up, PME, entreprises du CAC 40, sociétés de conseil et acteurs académiques ont participé à la conception de ce guide. Le Think tank s’est également adressé au gouvernement français pour favoriser l’émergence d’une IA responsable. 

Créé en 2018, le think tank Impact AI ambitionne d’éclairer les enjeux éthiques et sociétaux liés à l’intelligence artificielle, et de soutenir les initiatives vertueuses pour le monde de demain. Il a publié cette semaine un guide pratique pour une IA digne de confiance qui rassemble

Cette initiative inédite rassemble des entreprises françaises leaders dans leurs domaines. Elles partagent leurs retours d’expérience et militent ensemble pour rendre l’IA de confiance synonyme de l’IA française, tout en maintenant un haut niveau de performance et de résultat économique.

 

Découvrir le guide complet : www.impact-ai.fr/guideiaconfiance/

L’article complet : Impact AI dévoile un guide pratique pour une IA digne de confiance
Publié sur ActuIA le 10 décembre 2020

Laurence Devillers, pour une éthique de l’intelligence artificielle

Casser les stéréotypes, apprendre aux machines à entendre les nuances de la parole, faire entrer l’éthique dans la conception des intelligences artificielles. Ces thématiques sont au cœur des recherches de Laurence Devillers, professeure en Intelligence artificielle à Sorbonne Université. Elle est l’une des invitées de la matinale de RFI, ce lundi 8 mars, à l’occasion de la Journée internationale des droits des femmes qui met à l’honneur les femmes scientifiques.

D’un côté les machines, les Intelligences artificielles, de l’autre la richesse et la subtilité de la parole, de la voix dont la prosodie raconte la culture, l’âge, les émotions ou la santé. Ce sont les deux thématiques que Laurence Devillers conjugue depuis sa thèse en informatique sur la reconnaissance de la parole en 1992. La scientifique a été l’une des premières à travailler sur l’informatique affective, l’étude et le développement de systèmes ayant la capacité de reconnaître, d’exprimer et modéliser les émotions humaines.

Technophile, l’intérêt de Laurence Devillers, au croisement de la linguistique et de la robotique, l’a amené à s’interroger sur la dimension éthique des machines avec lesquelles nous interagissons et à créer la chaire Human-Machine Affective Interaction & Ethics, au LIMSI – le laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur du CNRS.

L’éthique des robots

Les machines développées pour interagir avec les humains, comme outil de surveillance en santé, par exemple, ne prennent pas en compte la diversité des publics, ni la richesse des émotions qui pondèrent le discours : « Ces machines sont dramatiquement simples (…) aujourd’hui, on fait des systèmes très standardisés, on joue aux apprentis-sorciers » répond Laurence Devillers.

Ces machines reflètent aussi les stéréotypes de leurs concepteurs : en deep learning – l’apprentissage automatique des Intelligences artificielles – 80% des codeurs sont des hommes, mais 80% des agents conversationnels ont des voix féminines (Alexa, Siri…). Laurence Devillers interroge : « Si tous ces objets qui sont à nos ordres 24h/24 sont représentés par des femmes, si tous les robots sexuels sont féminisés, qu’est-ce que ça veut dire sur la représentation des femmes sachant qu’elle sont très peu nombreuses dans cette recherche et dans ces entreprises ? »

Le rôle des chercheurs: être vigilants

Laurence Devillers s’intéresse au « nudge » – méthode développée pour influencer l’individu par suggestions indirectes, plus efficaces que la contrainte*. Or derrière les Google Home et autres objets connectés : « il y a une idée de manipulation (…) à travers ces machines, on peut amplifier ce phénomène » déclare-t-elle. Et ses expériences ont montré que, dans le cadre d’un jeu destiné à mesurer l’altruisme, les enfants changent plus facilement d’avis sous l’influence d’un robot.

Pour Laurence Devillers, les concepteurs doivent penser aux effets à long terme, « il y a un vrai risque sur ces machines si elles ne sont pas contrôlées dès la conception, le corpus doit être équilibré, avoir autant d’hommes que de femmes, notamment ».

Il faut, dit-elle, construire une éthique en continu, au fur et à mesure de l’apprentissage, contrôler les données et évaluer le comportement des systèmes : « notre rôle de chercheurs et chercheuses, c’est d’être vigilants (…) se demander à quoi ça va servir ».

D’où la participation de la chercheuse à plusieurs comités d’éthique français et internationaux, pour l’élaboration d’IA durables, transparentes, centrées sur des valeurs humaines.

Au nom de l’éthique Google, IBM et Microsoft, ont renoncé à des projets IA

Les responsables de ces entreprises appellent à une réglementation claire, mais souple sur le secteur.

Reconnaissance faciale, analyse des émotions, imitation vocale, attribution de crédit… Google, Microsoft et IBM sont revenus pour Reuters sur les projets d’IA mis de côté par leurs comités éthiques. Les entreprises technologiques reconnaissent des erreurs passées et assurent qu’on ne les y reprendra plus.

Les Comités éthiques ne sont pas des coquilles vides certifient Google, IBM, et Microsoft

Au début de la crise Covid, IBM a reçu une proposition pour créer une IA capable d’identifier si une personne était fiévreuse et masquée. Plusieurs chercheurs et entreprises se sont attelés à la recherche d’une IA capable de détecter le Covid, IBM a cependant décidé de décliner l’offre. Le projet basé sur la reconnaissance faciale a été jugé intrusif et disproportionné, rapporte Christina Montgomery co-présidente du Conseil d’administration de la branche IA d’IBM. Six mois plus tard, le service reconnaissance faciale de l’entreprise a fermé ces portes.

En 2015, Google s’est lancé dans l’analyse des émotions, la joie, la tristesse, la colère, la surprise … à l’aide de l’intelligence artificielle. Lorsque la question de l’élargissement de la palette d’émotion a été posée, le comité éthique de l’ensemble de l’entreprise, l’Advanced Technology Review Council a décidé de mettre le holà. L’analyse de la « gêne » et du « consentement » a été repoussée par les équipes d’ingénieurs et experts. Jen Gennai, fondatrice et responsable de l’équipe Innovation de Google a expliqué que les signaux faciaux pouvaient varier selon les cultures, la probabilité que l’IA ait un biais était trop importante.

C’est cette question des biais, l’un des principaux problèmes posés par l’IA, qui a retenu Google Cloud de s’engager sur le terrain du crédit. Google fournit des IA au secteur de la finance, par exemple capable de détecter des transactions anormales. En octobre 2020 elle a pourtant renoncé à créer une IA pour attribuer des crédits. Le risque de perpétuer des pratiques discriminatoires basées sur les origines, le genre, ou contre des groupes marginalisés a été jugé trop important.

Microsoft de son côté a restreint son logiciel d’imitation de voix, Custom Neural Voice, qui sera entièrement disponible en février 2022. Natasha Crampton, responsable IA de l’entreprise a expliqué que Brad Smith, le président lui-même, a été consulté sur le service. La crainte, l’utilisation de la voix d’individus sans leur consentement.

Encadrer l’IA oui, mais à quel point ?

Google, Microsoft et IBM mettent en avant ces différents cas pour rassurer le grand public et les autorités face à une technologie qui a connu ses casseroles. Entre les possibilités de surveillance de masse ouvertes par la reconnaissance faciale, les biais d’IA racistes, il n’est plus utile de mobiliser la science-fiction pour s’interroger sur l’IA.

Les entreprises technologiques l’ont rapidement compris, Microsoft a ouvert son Comité éthique en 2017, Google et IBM en 2018. Insuffisant pour les associations de défenses des droits. Selon Jascha Galaski, chargé de plaidoyer pour l’Union des libertés civiles pour l’Europe, les comités éthiques manquent encore d’indépendance et de transparence. Il estime « utopique » qu’ils finissent par le devenir d’eux-mêmes.

Dans ce cas la solution est de passer par la loi. L’Union européenne doit adopter l’année prochaine une réglementation pour l’IA, les États-Unis pourraient suivre cette voie également. Les grandes entreprises y sont favorables, à la condition de rendre les textes suffisamment souples pour ne pas nuire à l’innovation dans le secteur. De leur côté les associations redoutent justement un règlement trop vague.

Le comité éthique de Google Cloud l’a déjà expliqué à l’équipe commerciale dans une note que s’est procurée Reuters : pour le moment l’idée d’une IA d’attribution de crédit est repoussée, mais elle fera son retour dès que ses biais auront été gommés et qu’elle pourra participer à l’inclusion financière. Sauf si les législateurs décident d’un interdit, bien sûr.

ndlr : des pays comme la Chine ou la Russie n’ont pas les même interrogations !

Article source : Au nom de l’éthique Google, IBM et Microsoft, ont renoncé à des projets IA
Publié sur Siècle Digital le 13 septembre 2021 par Benjamin Terrasson

Benefits & Risks of Artificial Intelligence

Everything we love about civilization is a product of intelligence, so amplifying our human intelligence with artificial intelligence has the potential of helping civilization flourish like never before – as long as we manage to keep the technology beneficial.

Max Tegmark, President of the Future of Life Institute

« Ce que nous aimons au sujet de la civilisation, c’est qu’il s’agit d’un produit de l’intelligence. Ainsi, amplifier l’intelligence humaine grâce à l’intelligence artificielle peut nous permettre de faire prospérer la civilisation comme jamais auparavant – du moins, tant que nous ferons en sorte que la technologie nous soit bénéfique »

Max Tegmark, Président du Future of Life Institute

Un article de réflexion très instructif !

Table of contents

  • What is AI?
  • Why research AI safety?
  • How can AI be dangerous?
  • Why the recent interest in AI safety
  • The Top Myths About Advanced AI
  • Timeline Myths
  • Controversy Myths
  • Myths About the Risks of Superhuman AI
  • The Interesting Controversies
  • Recommended References

Sommaire :

  • QU’EST-CE QUE L’IA ?
  • POURQUOI MENER DES RECHERCHES EN SÛRETÉ DE L’IA ?
  • COMMENT L’IA PEUT-ELLE CONSTITUER UN DANGER ?
  • POURQUOI CE RÉCENT INTÉRÊT POUR LA SÛRETÉ DE L’IA ?
  • LES PRINCIPAUX MYTHES CONCERNANT L’IA AVANCÉE
  • COMBIEN DE TEMPS AVANT QUE CELA N’ARRIVE ?
  • MYTHES ET CONTROVERSES
  • LES MYTHES CONCERNANT LES RISQUES LIÉS À UNE IA SURHUMAINE
  • LES CONTROVERSES INTÉRESSANTES
  • LECTURES ET RÉFÉRENCES SUGGÉRÉES

Cet article est disponible en plusieurs langues

Benefits & Risks of Artificial Intelligence Publié sur Future of Life

Quelques liens pour aller plus loin

 

C’est quelques liens permettent de compléter le sujet de l’éthique dans l’IA :

Deux émissions d’ARTE