Article publié sur le World Economic Forum le 30 avril 2020
Alan Turing, concepteur d’une machine universelle ayant conduit au concept d’ordinateur, s’est posé très tôt la question : une machine peut-elle penser ? Vieux rêve ancestral de la philosophie occidentale, revisité par les potentialités révolutionnaires d’un domaine scientifique en pleine expansion : l’intelligence artificielle.
La question historique d’Alan Turing
Pour répondre, Alan Turing propose un test soumettant l’ordinateur au jeu de l’imitation : il s’agit, par des questions libres posées par un interrogateur humain, d’utiliser les réponses obtenues pour déterminer, lors d’une conversation en aveugle, s’il converse avec un autre humain ou avec un ordinateur.
Après nombre de discussions et de querelles, il est actuellement admis que ce test n’est pas apte à répondre à la question posée, celle de l’intelligence d’un système informatique. Pourquoi ? D’abord pour des raisons pratiques : le temps nécessaire pour trouver la question clé permettant formellement l’identification de la machine pourrait être extrêmement long. La question est ambiguë : que mesure-t-on en pratique ? quels sont les termes de l’équation à résoudre : pensée, intelligence, compréhension ? Se posent aussi des questions interprétatives d’ordre sociologique et culturel de l’interrogateur, avec des risques de dérives de jugement de comportements humains plutôt que d’intelligence proprement dite. Enfin, une potentielle question d’indécidabilité resterait liée à l’autoréférence d’une intelligence interrogeant une éventuelle autre intelligence.
Actuellement, compte tenu des corrélations entre les recherches sur le cerveau et celles sur les réseaux de neurones artificiels, il est possible de reformuler la question de l’intelligence artificielle sous la forme suivante : un système d’intelligence artificielle peut-il être conscient ?
Mesurer la conscience, ce « sentiment de soi »
Différentes études sur le cerveau humain ont amené des progrès considérables dans la compréhension des processus complexes liés au « problème difficile de la conscience ». Considérant que la conscience est un phénomène réel physiquement analysable et se référant à la théorie de l’information, les neuroscientifiques Giulio Tononi et Christof Koch, spécialistes des sciences de la conscience, ont proposé une voie permettant d’évaluer le degré de conscience d’un système cérébral humain.
À partir d’études complexes des activités électromagnétiques d’un cerveau en éveil, en travail, en sommeil profond ou en état végétatif, Giulio Tononi a élaboré une théorie de gestion neuronale dite « de l’information intégrée », selon laquelle la quantité effective d’information intégrée correspondrait au niveau de conscience d’un individu : il établit un coefficient de conscience, noté Φ. Ce coefficient est calculable et représenterait le taux d’intégration de l’information, c’est-à-dire une mesure de l’information échangée entre les sous-systèmes en interactions dans le réseau cérébral en phase d’activité. En d’autres termes, selon Giulio Tononi, les informations inhérentes aux processus cérébraux – ici, la conscience, le sentiment de soi – sont d’autant plus intégrées que l’entropie, qui mesure le désordre, est faible. Ceci revient à supposer que l’entropie soit liée à toute activité neuronale animale.
Opérer de la sorte revient à considérer le phénomène de conscience comme élément d’une réalité objective descriptible analytiquement. Or, bien que certains états de conscience soient liés à des sensations, le passage du degré de conscience donné par la valeur de Φ à la perception d’un ressenti subjectif, comme un sentiment, reste pour le moins énigmatique. Quelle est la relation entre le ressenti et Φ ? Associer information intégrée et états sensoriels appellerait plus ample justification.
L’épineux problème de la conscience des machines
Et Giulio Tononi et Christof Koch n’hésitent pas à aller au-delà puisqu’ils proposent d’étendre le calcul du facteur Φ aux animaux et à tout système physique non biologique générant ou recevant de l’information, ce qui est nécessaire pour calculer Φ. Selon ces auteurs, ce coefficient représenterait une mesure de son état de conscience. Hypothèse non triviale puisqu’elle reviendrait à supposer l’universalité de l’existence d’une dimension psychique liée à l’information. Hypothèse sortant stricto sensu du cadre de la science et qui rejoindrait un philosophisme de type panpsychisme auquel ont adhéré Spinoza, Leibniz et Teilhard de Chardin.
Dernière question embarrassante : que signifierait le calcul de Φ pour Internet ? Nul ne le sait ! Mais intéressant sujet de science-fiction !
Le défi de la machine qui pense
Le problème posé est le suivant : est-il possible de concevoir une structure matérielle dotée de caractéristiques psychiques à partir des moyens actuels, ou présumés, de l’intelligence artificielle ? Redoutable défi que de prétendre réaliser des fonctions cognitives à partir de la matérialité des neurosciences computationnelles. Les machines, aussi complexes soient elles – par exemple AlphaGo, qui a battu le champion du monde de go en 2017 – restent fondées sur des algorithmes. Le défi majeur est donc le suivant : le potentiel de l’informatique permet-il d’envisager une telle mutation ?
Les machines actuelles ont un fonctionnement déterministe et c’est précisément ce qui en fait tout l’intérêt dans leurs applications aux sciences exactes. La rationalité n’étant pas la qualité première du psychisme, il se pose une question d’adaptation de la méthodologie. Techniquement il est possible de concevoir des programmes qui ne sont pas déterministes, comme les réseaux de neurones artificiels capables d’apprendre et d’auto-évoluer. C’est ce qui fonde l’intelligence artificielle dite forte, qui exige des puissances de calcul et une consommation énergétique énormes.
Mais la situation pourrait changer avec, d’une part, l’apparition de l’ordinateur quantique qui, basé sur le probabilisme des états quantiques des qubits, aurait un fonctionnement non déterministe. Et, d’autre part, avec la puce neuromorphique énergétiquement des plus sobres.
L’ordinateur neuromorphique
Une voie nouvelle est ouverte avec l’ordinateur neuromorphique. L’idée de base, déjà ancienne, consiste à remplacer l’architecture calculatoire de von Neumann, fondant jusqu’ici tous les ordinateurs, par une architecture neuromorphique utilisant des puces neuromorphiques, c’est-à-dire des microcircuits qui fonctionnent comme des microréseaux neuronaux inspirés des réseaux neuronaux cérébraux. Les machines neuromorphiques, dotées d’une certaine autonomie, sont capables de déduction et exécution de tâches fonctionnelles mais surtout d’apprentissage à partir d’exemples et de catégorisation des données acquises. Quelques réalisations existent déjà dont des utilisations dans le traitement et l’exploitation des données. Des microprocesseurs neuromorphiques, capables d’intégrer des milliards d’équivalents neurones associés à des centaines de milliards de synapses artificielles, sont à l’étude (les synapses d’un cerveau humain sont dix mille fois plus nombreuses).
Un des objectifs actuels serait de fabriquer des machines capables d’apprendre en temps réel (c’est le fameux machine learning), autonomes et adaptables à leur environnement. Les champs d’applications sont immenses. Bien que l’ingénierie neuromorphique n’en soit qu’à ses débuts, il s’agit d’un véritable bond technologique auquel s’attaquent les « Grands » de l’informatique comme IBM et Intel, et quelques réalisations spectaculaires existent déjà.
Pourtant, quels que soient les progrès réalisés dans les technologies calculatoires, il reste la difficile question de l’interprétation d’une simulation : le modèle n’est pas l’objet, la simulation n’est pas la réalité. Cette opération se réfère à une modélisation qui est, mais n’est qu’une schématisation plus ou moins exacte de la réalité. Par exemple, un orage simulé ne soumet l’ordinateur ni à la foudre ni à la pluie.
La confusion fantasmagorique entre ordinateurs et « cerveaux électroniques »
Peu après son apparition, certains chercheurs s’aperçurent vite que l’ordinateur est beaucoup plus qu’une machine arithmétique. Puisqu’il est capable de manipuler des symboles abstraits et de faire des inférences logiques, il fut rapidement envisagé de l’utiliser pour des simulations de certaines fonctions cérébrales. Par exemple, le Logic Theorist vit le jour aux États-Unis en 1955 et le General Problem Solver en 1959, donnant l’illusion que la machine pouvait effectuer des tâches exigeant de l’intelligence, par exemple démontrer certains théorèmes.
C’est l’un des pionniers, l’informaticien américain John McCarthy, qui introduisit à son propos, en 1956, l’expression intelligence artificielle. Cette expression prête en fait à confusion et ne fit pas l’unanimité chez les spécialistes car elle confond l’ordinateur avec un « cerveau électronique ». Mais l’optimisme américain et l’opportunisme prévalurent rapidement et vint l’ère des grands discours et des illusions. Ce fut une longue histoire tourmentée qui, après différentes désillusions et de spectaculaires revirements, aboutit finalement à l’état actuel.
Le point essentiel de cette histoire est que, dès le départ, elle a été embarquée dans une confusion des termes. Il ne s’agissait pas, à proprement parler, d’intelligence artificielle mais comme deux de ses principaux artisans, Newel et Simon, le suggérèrent dès le départ, de traitement complexe de l’information.
C’est pourquoi la véritable question qui reste posée, à laquelle il faudrait y répondre en évitant de confondre modèle et objet, est la suivante : est-il possible de concevoir une pensée artificielle ? C’est l’avenir qui décidera.
Article source : Une machine peut-elle penser ? (cet article n’est plus en ligne)
Publié sur le World Economic Forum par Marceau Felden Physicien, professeur honoraire , Université Paris-Saclay