Sur cette page, j’ai rassemblé quelques textes de réflexion

 

Une information

Les utilisateurs du Web clignotent moins que d’habitude.

Une moyenne de 7 fois par minute, alors que la normale est de 20 fois. Vous savez maintenant pourquoi vous devez mettre autant de gouttes oculaires dans vos yeux.

 

Littérature, arts : “L’IA est trop sérieuse pour être laissée aux informaticiens”

Un texte très bon publié sur Les Univers du Livre – Actualité

Les universitaires n’ont pas baissé les bras devant les mesures sanitaires : les colloques dématérialisés, voire hybrides quand ce fut possible, ont permis de réunir les intervenants autour de projets de recherche. À ce titre, Alexandre Gefen, directeur de recherche au CNRS et historien des idées et de la littérature, a monté un projet tonitruant : IA Fictions. Un colloque — bilingue — réunissant une quarantaine d’intervenants autour des liens entre l’intelligence artificielle et l’écrit.

Alexandre Gefen le note dans son introduction : « L’IA est trop sérieuse pour être laissée aux informaticiens. L’IA, c’est un projet pluridisciplinaire allant des mathématiques aux sciences cognitives, mais faisant aussi intervenir les sciences humaines et sociales qui utilisent l’IA autant qu’elles pensent l’IA. »

IA Fictions s’est tenu du 3 au 5 juin 2021, et se présentait comme le premier rendez-vous de ce genre : au menu, littérature, séries, films, bandes dessinées, jeux vidéo ou arts plastiques. La perspective était de s’intéresser à la manière dont l’intelligence artificielle était perçue dans les arts et aux apports créatifs qu’elle permet, dans ces mêmes secteurs.

« La culture est le creuset dans lequel l’IA se nourrit et s’invente. [Elle] se nourrit de fictions elle s’est toujours nourrie de fictions », souligne le chercheur. Or, l’IA, moins que jamais, ne représente aujourd’hui une fiction. Et à ce titre, elle soulève des craintes qui remontent à la nuit des temps, depuis les mythes égyptiens, en passant par la fantasmagorie grecque, ou encore les soldats automates chargés de protéger les répliques de Bouddha.

Du golem, personnage d’argile de la mystique juive aux automates — même les imposteurs — l’image de l’intelligence artificielle planait. Et les fictions l’entourant, transitant de la machine magique à la machine pensante anthropomorphe alimentent les cauchemars de substitution à l’humanité autant que les perspectives de sociétés nouvelles.

« L’IA est devenu à la fois moins fantasmatique puisque nous pouvons parler à Siri, à notre assistant Google et plus fantasmatique, puisque l’horizon d’une IA générale — celle qui nous menace de sa singularité — se précise », relève Alexandre Gefen.

Or, si notre futur passe aussi par des échanges avec les IA, autant profiter de ce que la fiction nous a offert, pour anticiper, autant que faire se peut, le futur et leur présence parmi nous.

Et la littérature dans tout ça ?

La doxa littéraire, prompte à mettre sur le gibet tout ce en qui elle ne se retrouve pas, se fait d’ailleurs délicatement tordre le cou par Pascal Mougin, dans le cadre de ce colloque. Professeur en littérature et art contemporain à l’Université de Versailles Saint-Quentin/Paris Saclay, membre du Centre d’histoire culturelle des sociétés contemporaines, il intervenait sous le thème, joyeusement provocateur (et pas tant…) : Comment lire un roman écrit par une voiture ? La doxa littéraire face à l’IA.

Convoquant la notion de factitivité, chère aux linguistes, l’enseignant démontre brillamment comment les textes littéraires d’intelligences artificielles sont méprisés par l’orthodoxie livresque, alors même qu’ils représentent l’aboutissement dans la « délégation d’exécution ». Si les ateliers de maîtres en peinture ou sculpture connaissent et pratiquent ce principe depuis des siècles, le faire-faire par lequel l’IA écrit s’oppose à l’image idéalisée d’un écrivain, génie solitaire, « créature incréée ».

De fait, cette sous-traitance rédactionnelle s’apparenterait « au mercenariat industriel », qui débouche sur l’écriture des romans à l’eau de rose, codifiés à l’extrême, voire sur le recours aux écrivains fantômes : de quoi disqualifier immédiatement le procédé… à tort. À quand des éditeurs lassés « des prétentions financières de leurs auteurs et de leurs états d’âme », pour se ruer sur l’IA créatrice ?

Une intervention plus que passionnante qui remet l’humanité à sa place.

Article source : L’IA est trop sérieuse pour être laissée aux informaticiens
Publié sur Actallité le 23 juillet 2021 par Nicolas Gary

Le temps passe-t-il pour l’intelligence artificielle ?

Les systèmes d’intelligence artificielle sont des systèmes informatiques qui sont le plus souvent dotés de la possibilité d’évoluer, de s’adapter et de s’automodifier. Leurs concepteurs cherchent à les rendre aussi autonomes que possible et ils en viennent souvent à se demander dans quelle mesure de tels systèmes pourraient acquérir la notion du temps.

Le problème central est celui de l’interprétation des données que l’on fournit à une machine pour qu’elle apprenne : les données de l’expérience ont besoin du temps pour être interprétées et, réciproquement, le temps a besoin de l’expérience pour prendre sa consistance et permettre l’interprétation des données. Il y a donc une intrication. On peut bien sûr apprendre à une machine toute sorte de choses, comme distinguer des tumeurs bénignes de tumeurs malignes sur des photos médicales, mais comment un robot pourrait-il se construire une notion de « temps », avec toute la richesse que ce mot représente ? Par exemple, dans le contexte d’une interaction avec des êtres humains, comment faire en sorte qu’un robot sache de lui-même s’il n’est pas trop rapide ou trop lent ? Comment parviendrait-il à se rendre compte que quelque chose a brusquement changé dans le comportement de son interlocuteur ?

Les systèmes d’intelligence artificielle sont des systèmes informatiques qui sont le plus souvent dotés de la possibilité d’évoluer, de s’adapter et de s’automodifier. Leurs concepteurs cherchent à les rendre aussi autonomes que possible et ils en viennent souvent à se demander dans quelle mesure de tels systèmes pourraient acquérir la notion du temps.

Le problème central est celui de l’interprétation des données que l’on fournit à une machine pour qu’elle apprenne : les données de l’expérience ont besoin du temps pour être interprétées et, réciproquement, le temps a besoin de l’expérience pour prendre sa consistance et permettre l’interprétation des données. Il y a donc une intrication. On peut bien sûr apprendre à une machine toute sorte de choses, comme distinguer des tumeurs bénignes de tumeurs malignes sur des photos médicales, mais comment un robot pourrait-il se construire une notion de « temps », avec toute la richesse que ce mot représente ? Par exemple, dans le contexte d’une interaction avec des êtres humains, comment faire en sorte qu’un robot sache de lui-même s’il n’est pas trop rapide ou trop lent ? Comment parviendrait-il à se rendre compte que quelque chose a brusquement changé dans le comportement de son interlocuteur ?

Le temps des robots est le temps des microprocesseurs

À ce jour, l’ensemble des systèmes informatiques fonctionne sur les bases algorithmiques posées par Alan Turing en 1936. Alan Turing partit de l’hypothèse que toute méthode systématique de résolution d’un problème, c’est-à-dire tout algorithme, peut être traduite dans un langage qui s’adresse à une machine élémentaire réalisant des opérations de lecture-écriture sur un ruban infini.

Les systèmes informatiques dont nous disposons n’opèrent pas exactement sur ce type de machine, mais on admet généralement un principe d’équivalence : tout ce qui peut être réalisé par une machine donnée peut également être réalisé par cette machine de Turing, dite « universelle ».

Ce point est particulièrement important pour comprendre les évolutions temporelles des systèmes d’intelligence artificielle. En effet, ceux-ci utilisent des calculs « parallèles » : au lieu de faire une opération après l’autre, ces systèmes peuvent, comme dans un cerveau, faire interagir des milliers de composants simultanément. On parle souvent à propos de telles architectures de « connexionnisme » : il ne s’agit pas seulement comme dans le cas du parallélisme classique de faire interagir plusieurs systèmes en même temps, mais de parvenir à coordonner une myriade d’unités de calcul, et ce sans unité centrale.

Dans ce contexte, le principe d’équivalence énoncé par Turing tient encore : une architecture en réseau peut accélérer les calculs, mais ne peut jamais permettre de faire ce qui est hors de portée pour une machine séquentielle. En ce qui concerne le temps d’exécution des algorithmes, cela signifie que si j’ai une machine avec des millions de neurones formels qui changent d’état en parallèle, j’aurais probablement la possibilité d’effectuer des algorithmes de manière plus rapide, mais le temps intrinsèque de la machine sera toujours donné par le temps des horloges des microprocesseurs qui cadencent cette machine. Il existe plusieurs dispositifs de calcul non classiques, tels que les ordinateurs quantiques ou les puces dites neuromorphiques : certes, leur programmation oblige à penser de façon différente et sont la source de nombreuses promesses pour repousser les frontières du calcul, cependant ils n’échappent nullement au principe d’équivalence de Turing et aux limites que cette équivalence impose.

Un système d’intelligence artificielle reste donc conditionné dans son rapport au temps par sa structure algorithmique discrète, laquelle décrit l’évolution des systèmes pas à pas. Le temps informatique est donc toujours mesuré comme un nombre d’étapes, que celles-ci soient parallèles ou séquentielles.

Quelles sont les conséquences de telles limitations ?

Il y a une inhomogénéité fondamentale entre le temps des êtres humains et celui des machines. Il faut garder à l’esprit que n’importe quel ordinateur, téléphone, ou même n’importe quelle puce qui se trouve dans une machine à laver effectue des milliards d’opérations par seconde. En d’autres termes, l’échelle avec laquelle les cadences des microprocesseurs sont mesurées est le gigahertz. Si l’on pouvait se placer du point de vue des robots, nous verrions les êtres humains comme des lourdauds qui pensent et se meuvent à une vitesse phénoménalement lente. On peut faire une analogie avec la manière dont les plantes évoluent pour nous. Les robots seraient donc amenés à se brider considérablement pour « s’abaisser » à notre rythme !

D’ailleurs, ces problèmes ont été perçus dès le début de la réflexion sur la question de l’intelligence artificielle. Alan Turing, par exemple, dans son article de 1950, demande à ce que la machine qui remplace un être humain jouant au jeu de l’imitation marque un temps d’arrêt artificiel avant de donner le résultat d’une multiplication, sans quoi elle serait immédiatement démasquée. De tels délais sont aujourd’hui utilisés pour rendre les conversations des « assistants vocaux » plus naturels.

La science-fiction a aussi souvent exploité le filon de l’incommensurabilité du temps humain et du temps des machines. Par exemple, dans le film Her de Spike Jonze (2013), le protagoniste est séduit par son système d’exploitation et finit par tomber amoureux d’« elle ». Néanmoins, au plus fort de leur liaison (platonique), elle lui avoue que, pendant la durée de leur conversation intime, elle a pu lire plusieurs milliers de livres et converser avec plusieurs centaines d’autres personnes.

Le roman d’Antoine Bello Ada met en scène une créature virtuelle chargée d’écrire des romans à l’eau de rose et un inspecteur qui cherche à la retrouver après qu’elle s’échappe de l’atelier de ses créateurs. Ada sait jouer avec les sentiments de l’inspecteur et elle a la fâcheuse tendance à effectuer des recherches sur des éléments de sa vie en même temps qu’ils discutent. Quant à sa collègue, Jessica, celle-ci est programmée pour écrire des biographies personnalisées avec la faculté de traiter des dizaines de milliers de clients en parallèle… L’imaginaire de l’intelligence artificielle nous rappelle que les créatures artificielles manquent cruellement d’un ici et d’un maintenant pour pouvoir être considérées pleinement comme autre chose que des objets.

Les chercheurs qui essaient de donner aux machines la possibilité d’interpréter le langage humain font aussi face à des défis colossaux. Saisir la temporalité reste ce qu’il y a de plus difficile. Une simple phrase comme « Maintenant, ça suffit ! », qu’un enfant comprend immédiatement, reste une énigme pour des systèmes informatiques, car que signifie ce « maintenant » ? Certainement pas la même chose que dans « Maintenant, il est temps de passer à table ». Chacun comprend que seule une expérience de la vie permet de saisir les nuances de la langue et que tout ne se ramène pas à des « faits » que l’on peut encoder dans des systèmes informatiques. En particulier, notre propre perception du temps qui passe s’inscrit dans une rythmicité journalière, qui s’inscrit dans une rythmicité plus longue (le mois, l’année, etc.), qui elle-même s’inscrit dans le chemin d’une vie, chemin qui prend son sens dans son inscription dans une histoire plus longue, voire dans un rapport à un temps non mesurable comme le montrent les mythes de toutes les civilisations.

Le véritable danger de l’intelligence artificielle, en voulant sans cesse tout accélérer, ne serait-il pas d’occulter cette dimension fondamentale de l’être humain à savoir, non pas seulement que les choses prennent du temps, mais aussi que la maturation de toute bonne chose demande un temps incompressible ? Les blés ont besoin de temps pour mûrir et le pain a besoin d’un temps pour cuire. Si un jour les robots comprennent cela, on pourra dire qu’ils seront devenus alors véritablement… « humains ».

Texte publié sur The Conversation le 22 juillet 2021 : Le temps passe-t-il pour l’intelligence artificielle ?

La seule question qui importe dans l’intelligence artificielle: qui est in fine le responsable?

Il ne peut exister un “vide de responsabilité” qui ferait des développeurs – ou de leurs programmes en tant que tels – les seuls responsables »

Si les défis que pose l’intelligence artificielle (IA) ne sont pas nouveaux (libération de certaines tâches d’un côté, aliénation du travail de l’autre), le type de responsabilité qu’implique l’IA commence seulement à être exploré. La bonne compréhension de cette question est d’une importance cruciale dans la mesure où la stratégie des entreprises et la politique des Etats devront se définir à l’avenir autour de l’IA (en matière de santé, d’éducation, mais aussi d’indépendance industrielle et agricole). Or, la seule question qui importe dans l’IA est celle-ci : qui est in fine le responsable ?

Pour répondre à cette question, il faut d’abord revenir sur le paradoxe au cœur de l’IA. Nous faisons ici référence au couple automatisation/augmentation qui la nourrit de manière dynamique et récursive. En effet, la proposition que fait l’intelligence artificielle à l’activité humaine est double : soit elle remplace l’individu en automatisant des tâches humaines ; soit elle l’accompagne sur ces mêmes tâches dans la mesure où la machine place l’individu dans une position de supervision.

Les éléments de ce couple augmentation/automatisation ne sont pas exclusifs l’un de l’autre, mais peuvent évoluer dans le temps et ce, de manière circulaire (d’abord augmentation, ensuite automatisation, puis ré-augmentation, etc.). En outre, ce couple n’est pas manichéen. La complémentarité avec la machine peut être incapacitante et aliénante alors que le remplacement par la machine peut transformer positivement certains métiers et les réorienter vers des tâches de supervision et/ou des tâches créatrices de plus de valeur. Et vice-versa.

Dialogique. Au-delà de son acronyme même, l’IA constitue clairement une dyade au sens d’Edgar Morin, à savoir une dialogique où les termes sont « complémentaires, concurrents et antagonistes ». Il n’y a pas de solution à cette dialogique qui puisse dépasser et supprimer ce qui n’est pas toujours une contradiction….

La suite de cet article est réservée aux abonnés de l’Opinion … je ne peux pas vous dévoiler la suite.

Article source : La seule question qui importe dans l’intelligence artificielle: qui est in fine le responsable?
Publié sur l’Opinion le 11 juillet 2021 par Patrice Cailleba

Blaise Pascal et les prémisses de l’intelligence artificielle

Article publié sur The Conversation le 6 mars 2022.

On se souvient de Pic de la Mirandole comme de l’homme qui savait tout des connaissances de son temps. Mais Einstein nous avertit : « l’imagination est plus importante que le savoir ». Le savoir seul est stérile et ne permet pas le progrès. L’instrument du savoir c’est l’intelligence ou la raison, celui de l’imagination c’est l’instinct ou le cœur, selon les paroles mêmes de Pascal, et à cet aune de l’imagination, le grand penseur fait figure de visionnaire comme le prouve l’ensemble de ses contributions aussi bien en sciences qu’en philosophie.

« »L’intelligence n’a rien à prouver, elle a à déblayer. Elle n’est bonne qu’aux tâches serviles. » Simone Weil, La pesanteur et la grâce.

En particulier, Pascal peut être crédité de deux innovations obligatoires qui permettent d’envisager aujourd’hui l’intelligence artificielle (IA) : il met au point le premier calculateur mécanique de l’histoire et il développe les premiers rudiments du calcul des probabilités.

Pascal physicien et ingénieur

En 1631, Le jeune Blaise a 19 ans et la famille s’installe à Rouen où son père est nommé par le cardinal de Richelieu commissaire délégué pour le recouvrement de l’impôt et la levée des tailles, taxes très impopulaires de l’Ancien Régime. Afin de faciliter le fastidieux travail paternel, Blaise invente la première machine à calculer qui permet d’effectuer mécaniquement des additions et des soustractions de deux nombres ainsi que des multiplications et des divisions par répétition.

Une pascaline, signée par Pascal en 1652, au musée des arts et métiers du Conservatoire national des arts et métiers à Paris.

Elle fonctionne grâce à un système original de six roues à engrenages et comporte un cliquet ou sautoir qui reporte automatiquement les retenues des opérations. La machine sera appelée la Pascaline, on en voit un exemplaire au musée des Arts et Métiers de Paris. Une dizaine de machines furent construites, mais, trop chère à la vente, l’invention s’avèrera un échec commercial.

Pascal statisticien

En 1654 Pascal initie une discipline nouvelle qu’il appelle la géométrie du hasard. C’est une méthode qui éclaire le problème de la chance aux jeux de hasard et cela constitue le premier pas dans les calculs statistiques dont il peut être considéré le pionnier.

Avant lui, Galilée s’y était déjà frotté, répondant au grand-duc de Toscane qui demandait pourquoi, quand on lance 3 dés, la somme 10 sort plus souvent que 9 ? Avec des faces équiprobables, on trouve une probabilité 0,116 de tirer 9 et 0,125 de tirer 10 ; le grand-duc avait l’œil à tout.

Dans son Traité du triangle arithmétique, Pascal explique la technique des calculs appelés aujourd’hui des probabilités, il introduit en particulier le raisonnement par récurrence omniprésent en mathématiques.

Un ordinateur d’une part, une méthode de calcul statistique d’autre part, voila les deux ingrédients nécessaires et obligatoires pour développer une intelligence artificielle (IA).

Qu’est-ce que l’IA ?

L’IA est la faculté d’une machine artificielle, c’est-à-dire construite par l’homme, un ordinateur donc, de démontrer des propriétés qui égalent ou même dépassent le cerveau humain, fut-il celui d’Einstein.

L’IA est à la mode. La télévision, dans son journal du soir, a vanté récemment son bénéfice pour gérer de manière optimale la ronde des transports de camions entre divers points de livraison. L’intelligence nécessaire ici équivaut à celle d’une colonie de fourmis. Les programmes d’optimisation dans un problème de choix multiples sont connus depuis longtemps.

Pour maîtriser la complexité du monde, les physiciens, qui ont la haute main sur les techniques de calcul statistique, ont élaboré la simulation dite de Monte-Carlo, nom qui rappelle évidemment le jeu de roulette et le tapis vert. C’est la méthode de choix pour évaluer la possibilité de réalisation d’un problème gouverné par un grand nombre de paramètres corrélés, chacun étant astreint à suivre une loi compliquée de probabilités.

En pratique, on sait déjà qu’un ordinateur bat au jeu d’échecs le champion du monde, car il peut calculer à grande vitesse tous les mouvements envisageables et sélectionner sans coup férir le choix gagnant.

L’IA se retrouve en reconnaissance faciale ou dans la conduite d’une voiture autonome. De manière socialement plus engagée, un tribunal chinois l’utilise comme procureur de justice. Une machine est capable d’identifier divers délits courant : vol, fraude, conduite dangereuse… Entraînée sur 17000 dossiers, elle peut porter accusation avec une précision de 97 % sur la base d’une description verbale de l’affaire. Cela réduira d’autant la charge des juges, mais qui assumera la responsabilité en cas d’erreur ?

Notons que l’IA analyse nos comportements, par exemple à travers nos utilisations d’Internet, pour ensuite favoriser nos goûts ou nos habitudes et ainsi canaliser nos choix futurs, ce qui in fine contraint notre liberté.

Alors l’IA peut-elle émuler l’homme dans toutes ses activités ? Notre système nerveux opère à l’image d’un super ordinateur qui reçoit, emmagasine et retrouve l’information. Mais il peut aussi apprendre et concevoir. D’ores et déjà, certaines machines utilisent des mécanismes de rétroaction analysant une tendance pour adopter de nouveaux comportements plus aptes au succès de leur tâche. C’est le cas du refroidissement stochastique où l’information sur la dynamique d’un faisceau de particules accumulées dans un anneau circulaire est utilisée pour améliorer les qualités ultérieures du faisceau. Ainsi le CERN a développé un dispositif pour produire des faisceaux filiformes intenses d’antiprotons. En quelque sorte, le système est évolutif et créatif, il apprend, mais le mécanisme découle entièrement de l’intelligence de celui qui a conçu l’astucieux stratagème et Simon Van der Meer reçut un Prix Nobel en 1984 pour cette invention.

Tous ces exemples reposent sur des manipulations algorithmiques de plus en plus sophistiquées. Le problème est de savoir si l’IA peut aller au-delà de simples calculs pour faire preuve de l’imagination qui est, comme l’a rappelé Einstein, le moteur essentiel pour faire progresser les idées.

L’imagination est un art caché dans les profondeurs de l’âme humaine et nous n’arracherons sans doute qu’avec peine à la Nature le secret de ses vrais mouvements. Emmanuel Kant .

L’IA peut-elle être créatrice ?

L’ambition des promoteurs de l’IA n’est ni plus ni moins que de cloner le cerveau humain. Or celui-ci est capable non seulement de manipuler des savoirs, mais il sait aussi concevoir des pensées nouvelles, qui lui permettent d’explorer les domaines de l’art, des mathématiques, de la morale, du concept de Dieu… ce qui le différencie a priori d’un ordinateur qui n’accomplit que les opérations qu’on lui soumet. S’il y a une création de pensée en bout de chaîne des algorithmes, la méthode opératoire d’une machine copie celle du système nerveux et un super ordinateur pourra développer une IA. Sinon, l’IA sera limitée à l’intelligence servile dont parle Simone Weil.

Dans le cadre de la théorie de l’évolution, le subjectif naît à partir d’une « phosphorescence » de la matière, alors la faculté d’imagination est imputable à la seule propriété des phénomènes physiques qui agitent cette réalité matérielle, en conséquence des circuits imprimés devraient être un jour capables d’imagination. Mais si le subjectif a une autre source, impliquant une composante spirituelle autonome, alors le but ultime de l’IA ne sera jamais atteint.

Notons que la créativité qui prend son origine dans l’intuition se libère du déterminisme strict des lois de la physique classique pour donner sa chance à un hasard, au moins apparent. Le hasard semble être l’instrument de la créativité, or il y a du hasard dans une vie humaine, mais il n’y en a pas a priori dans un ordinateur, sinon celui des pannes électriques qu’on ne peut guère imaginer créatrices.

La conclusion de Pascal

Les moteurs de recherche aujourd’hui disponibles recèlent déjà infiniment plus de connaissances que le cerveau de Pic de la Mirandole. Il reste à savoir si un jour un robot très évolué pourra concurrencer Pascal au niveau de l’inventivité. Laissons-lui le dernier mot. Dans ses Pensées, il écrit, en prenant des accents de prophète : « La machine arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux. Mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux ». Or c’est la volonté, critère de la liberté du vivant, qui amène à la création tant artistique que scientifique. Ainsi pour Pascal, l’objectif affiché de l’IA semble un leurre.

Article source : Blaise Pascal et les prémisses de l’intelligence artificielle
Publié sur The Conversation le 6 mars 2022

Le véritable objectif de l’IA pourrait ne plus être l’intelligence

Certains spécialistes de l’IA préviennent que les technologies actuelles ne permettront peut-être jamais d’atteindre la « véritable » intelligence ou l’intelligence « humaine ». Mais une grande partie du monde pourrait ne pas s’en soucier.

Le mathématicien britannique Alan Turing a écrit en 1950 : « Je me propose d’examiner la question « Les machines peuvent-elles penser ? ». Son enquête a encadré le débat pendant des décennies de recherche sur l’intelligence artificielle. Pour deux générations de scientifiques qui se sont penchés sur l’IA, la question de savoir s’il était possible d’atteindre une intelligence « véritable » ou « humaine » a toujours constitué une partie importante du travail.

L’IA est peut-être à un tournant où ces questions importent de moins en moins à la plupart des gens.

L’émergence, ces dernières années, de ce que l’on appelle l’IA industrielle pourrait marquer la fin de ces préoccupations nobles. L’IA a plus de possibilités aujourd’hui qu’à n’importe quel moment au cours des 66 années qui ont suivi la création du terme « IA » par l’informaticien John McCarthy. Par conséquent, l’industrialisation de l’IA fait passer l’accent de l’intelligence aux réalisations.

De l’intelligence à la pratique

Ces réalisations sont remarquables. Elles comprennent un système capable de prédire le repliement des protéines, AlphaFold, de l’unité DeepMind de Google, et le programme de génération de texte GPT-3 de la jeune entreprise OpenAI. Ces deux programmes sont extrêmement prometteurs sur le plan industriel, qu’on les qualifie ou non d’intelligents.

Entre autres choses, AlphaFold permet de concevoir de nouvelles formes de protéines, une perspective qui a électrisé la communauté des biologistes. GPT-3 trouve rapidement sa place en tant que système capable d’automatiser des tâches commerciales, comme répondre par écrit aux demandes des employés ou des clients sans intervention humaine.

Ce succès pratique, stimulé par un secteur des semi-conducteurs prolifique, dirigé par le fabricant de puces Nvidia, semble pouvoir dépasser l’ancienne préoccupation de l’intelligence.

Dans aucun coin de l’IA industrielle, personne ne semble se soucier de savoir si ces programmes vont atteindre l’intelligence. C’est comme si, face à des réalisations pratiques dont la valeur est évidente, la vieille question « Mais est-ce intelligent ? » cessait d’avoir de l’importance.

L’article complet : Le véritable objectif de l’IA pourrait ne plus être l’intelligence
Publié sur ZDNet le 3 novembre 2022

Quelques textes et tribune en vrac

 

Voici quelques textes et tribunes à consulter :