Dans cette période d’exagération technologique autour de l’IA, justement dénoncée par Ed Zitron, AGI (Intelligence Artificielle Générale) et singularité, sont dans l’air du temps. J’ai voulu savoir s’il s’agissait d’un fantasme ou d’une réalité atteignable. Pour cela je me suis tourné vers Jean-Gabriel Ganascia, dont j’avais énormément apprécié le livre de 2019 “le mythe de la singularité”. Au passage, j’ai appris au cours de cette causerie, à distinguer ces deux termes. Voici un résumé de notre échange, que vous retrouverez dans le podcast associé. Cette interview a permis de remettre beaucoup de pendules à l’heure, notamment pour ce qui est des notions d’intelligence et de conscience. Mais sa conclusion frappante est sans doute qu’il faut certainement moins se méfier, à l’instar de Ray Bradbury, des IA pseudo-intelligentes que des humains aux intelligences malignes.
Intelligence artificielle générale : mythe ou réalité ?
Note : les lecteurs nous pardonneront la qualité d’enregistrement qui a été partiellement améliorée par l’intelligence artificielle (sic !) Voici encore une limite de ces technologies, pour ceux qui croient encore aux miracles.
Singularité, intelligence artificielle générale et Superintelligence
J-G Ganascia. Il est intéressant de reprendre les projections transhumanistes qui sont faites sur l’intelligence artificielle, dont la singularité était l’un des avatars. Il y en a d’autres aujourd’hui comme la super-intelligence de Nick Bostrom.
Mais il ne faut pas confondre tous ces termes.
La singularité, rêve ou cauchemar technologique
JGG. La singularité technologique est une idée née dans les années 50 selon laquelle à un moment donné les machines deviendraient aussi puissantes que l’humain, produisant ainsi une rupture dans l’histoire de l’humanité.
Cela veut dire qu’à un moment donné, les machines vont prendre le dessus. Soit elles vont nous dépasser complètement, et à ce moment-là, l’humanité telle qu’on la connaît disparaîtra. Soit l’humanité passera sous le pouvoir des machines et les hommes deviendront leurs esclaves.
Une autre possibilité, c’est que nous nous greffions avec les machines et que nous téléchargions notre conscience sur des ordinateurs et qu’ensuite cette conscience puisse être réincarnée sur des robots. Selon cette théorie, nous pourrions ainsi poursuivre notre existence au-delà du corps biologique. C’est ce que j’ai décrit dans un roman écrit sous le nom de Gabriel Naëj, ce matin, maman a été téléchargée.
C’est l’histoire d’un jeune homme dont la mère décide, à son décès, de télécharger sa conscience et de se réincarner sur un robot. Ce qui est très déconcertant pour ce jeune homme, c’est qu’elle a choisi le plus beau corps possible, celui d’un robot sexuel !
L’intelligence artificielle générale et la superintelligence
JGG. Ce qu’on appelle Intelligence artificielle générale est différent. C’est l’idée qu’il y a, avec les techniques actuelles d’intelligence artificielle, des fonctions cognitives spécifiques qui sont simulées par les machines, mais qu’un jour, on sera capable de tout simuler.
C’est l’idée qu’il existe une clé de l’intelligence, et qu’une fois qu’on l’a comprise, cela ouvre des espaces infinis, une ouverture sur une super intelligence. Le principe même de la singularité technologique supposait qu’il y avait une intelligence générale et que toutes les capacités cognitives étaient simulables sur les machines.
L’intelligence générale est en deçà de la singularité technologique et en même temps, elle est la suggestion d’un but. Et quand on parle d’intelligence générale, on ne parle pas de téléchargement de la conscience. On parle juste de la capacité de fabriquer des machines qui ont une très grande puissance intellectuelle.
Cela rejoint les projets de Nick Bostrom sur la superintelligence, qui porte sur le jour où l’intelligence des machines est plus grande que celle des hommes.
Il y a des liens entre ces concepts, mais ce n’est pas tout à fait la même chose.
En 2017, vous parliez du mythe de la singularité, en est-ce toujours un ?
JGG. Les premiers auteurs de science-fiction qui ont évoqué la singularité technologique, et entre autres, Vernor Vinge, prédisaient qu’elle adviendrait en 2023. Or, visiblement, elle n’est pas encore là. À moins qu’on ait déjà été tous téléchargés sur des machines à notre insu…
Et pourtant les IA sont bluffantes !
JGG. L’intelligence artificielle a fait des progrès considérables. Les machines sont capables de maîtriser le langage au point où, lorsqu’on leur pose une question, elles créent des textes bien construits, à défaut d’être pertinents.
De même, on est capable de fabriquer des images qui sont troublantes de ressemblance avec des personnes. Des vidéos aussi. Tout cela laisse songeur.
Jusqu’à présent, on pensait que la langue était d’abord le fait d’une grammaire, puis d’une syntaxe, et d’un vocabulaire. Or, on se rend compte que juste avec des probabilités, on peut reproduire ces capacités linguistiques.
C’est vraiment passionnant du point de vue intellectuel.
Mais cela ne veut pas dire que la machine, tout d’un coup, va prendre le pouvoir ni qu’elle va avoir à une volonté propre. Cela ne veut même pas dire qu’elle va dire la vérité.
Ces IA parlent comme les humains peuvent le faire. Dans certaines circonstances, de temps en temps, cela correspond tout à la norme. Mais parfois, cette « norme » est un peu absurde. Et dès qu’on décale un peu la situation, elles produisent des résultats carrément faux. Il m’arrive de les coincer avec des énigmes de logique.
En couplage avec de l’informatique classique, cela peut se résoudre
JGG. Tout à fait. C’est un problème très simple. On sait le résoudre. Il y a énormément de travaux là-dessus. Ce qui est intéressant, c’est que ces machines extrêmement puissantes qui sont capables de générer des textes qui nous semblent très pertinents, en même temps, ne savent pas raisonner.
C’est normal, d’ailleurs, car elles ne sont pas constituées pour cela, elles sont faites de modules capables de choisir des mots de façon probabiliste.
Yann Le Cun a des mots très durs contre l’IA générative et pourtant il croit en l’intelligence générale. Êtes-vous prêt à changer d’avis ?
JGG. Je ne suis absolument pas prêt à changer d’avis parce que je crois qu’il y a un malentendu sur ce que signifie le terme intelligence.
L’intelligence artificielle est une discipline scientifique.
Ce que fait l’IA, c’est de stimuler les différentes fonctions cognitives. Quelles sont-elles ? C’est la perception, c’est le raisonnement, la mémoire (au sens de l’exploitation de l’information, pas du stockage) et la communication. Dans ces domaines, on a progressé de manière considérable.
Prenons la perception : l’IA est capable de reconnaître un individu parmi des centaines de milliers, alors que nous-mêmes ne nous souvenons plus toujours des personnes qu’on a rencontrées. Ces performances sont extraordinaires.
Mais là où il y a un malentendu, c’est lorsque l’on dit que la machine sera plus intelligente que l’homme. L’intelligence est un ensemble de capacités cognitives. Il se peut effectivement que chaque capacité cognitive soit mieux simulée par des machines que ce qu’il y a chez les hommes. Mais cela ne veut pas dire que la machine aura plus d’esprit que les hommes, puisqu’elle n’a pas de conscience.
Elle ne se représente pas les choses ni n’a de volonté propre. En tout cas, c’est ça la vraie question qu’il faut se poser.
Ensuite, il y a un autre sens à donner au mot d’intelligence, c’est celui qui est en rapport avec l’ingéniosité.
On dit d’un élève ingénieux ou astucieux qu’il est intelligent, car il résout bien les problèmes de la vie ou des mathématiques. Est-ce que les machines sont plus astucieuses que nous ? Cela dépend. Il y a des cas de figure, bien sûr, où elles sont meilleures. Cela fait très longtemps, 25 ans, qu’on sait que les machines jouent mieux aux échecs que nous. Plus récemment pour le jeu de Go.
Donc, de ce point de vue là, bien sûr, elles sont plus intelligentes, mais ça ne veut pas dire qu’elles nous dépassent. En tout cas, ça ne veut pas dire qu’elles font preuve de volonté.
Blaise Pascal, il y a un peu plus de 400 ans, a expliqué que sa machine à calculer se rapproche plus de la pensée que tout ce que font les animaux, mais qu’il y avait une limite à cela.
La machine d’arithmétique fait des effets qui approchent plus de la pensée que tout ce que font les animaux ; mais elle ne fait rien qui puisse faire dire qu’elle a de la volonté, comme les animaux.
Blaise Pascal, les pensées
De ce point de vue là, c’est la même chose avec les ordinateurs. Leurs effets se rapprochent plus de la pensée que tout ce que font tous les animaux, y compris les hommes. Mais rien ne fait dire qu’ils puissent avoir de la volonté comme les animaux.
Je crois que c’est vraiment là qu’il y a malentendu.
Après, bien sûr, on peut énumérer toutes les performances des machines, et on a raison, c’est extraordinaire, mais on n’est pas sur le même plan.
Concernant la conscience, on peut aller un tout petit peu plus loin. Un des pionniers, Yoshua Bengio a co-écrit en août dernier un long article de 88 pages dans lequel il explique qu’aujourd’hui, les machines ont des indicateurs de conscience. Il a repris les travaux des neurosciences sur la conscience et déclare que cela est possible. Surtout, il laisse entendre que les machines en auront bientôt une.
Là encore, cela relève de malentendus.
Le terme de conscience, comme le terme intelligence, est éminemment polysémique.
D’abord, on peut dire qu’une machine est consciente au sens où on projette dessus un animal. C’est ce qui se produit avec votre téléphone portable quand on dit « Tiens, il sait ou ne sait pas telle chose », ou avec un robot aspirateur quand vous dites « Tiens, il va à tel endroit, parce qu’il sait qu’il y a de la poussière ». Vous attribuez à ces objets des intentions.
Cela s’appelle, en termes techniques, un agent cognitif. Un philosophe américain, Daniel Dennett, appelle ça des systèmes intentionnels. Et cela ne pose pas de problème.
La deuxième signification du terme conscience, c’est au sens où on réfléchit. C’est la conscience en tant que connaissance de soi-même. C’est-à-dire qu’on est en train de se rendre présent à soi-même pour se demander, voilà, je fais telle chose, est-ce que c’est bien ? C’est pour cela qu’on parle de conscience morale, où on peut se dire « J’ai fait telle chose dans le passé, et je peux m’améliorer ».
On peut avoir des machines, par exemple, qui apprennent en regardant ce qu’elles ont fait dans le passé, puis essayer de faire en sorte que leur comportement futur soit plus efficace dans le futur.
Si elles ont hésité entre différentes voies possibles, dans une situation analogue, elles n’hésiteront plus, mais prendront uniquement la bonne voie. Et de même pour la conscience morale.
Mon équipe travaille sur l’éthique computationnelle, c’est-à-dire qu’avant d’agir, la machine essaie de regarder les conséquences de ses actes, et à partir de ce moment, elle va prendre les décisions les plus sincèrement conformes aux prescriptions données.
Il y a aussi un troisième sens de la conscience, qui est le plus important, c’est celui de l’émotion. Est-ce qu’une machine peut éprouver de l’émotion ? Et qu’est-ce que cela veut dire ?
Si elle éprouve ce sentiment, elle pourrait se dire « Je veux faire en sorte d’avoir de bonnes émotions !». Et si vous lui demandez quelque chose à ce moment-là, elle n’obéira pas. Vous demandez ainsi à une voiture autonome, « Je veux aller à la plage » et elle répond « Non, parce qu’à la plage, il y a trop de poussière. Je vais t’emmener au cinéma, dans un endroit où il y a des parkings très propres. »
Ce serait dramatique d’avoir une telle machine. Heureusement, ça n’existe pas. Il faut absolument éviter que les machines prennent des décisions par elles-mêmes, il faut qu’elles nous soient toujours soumises.
Quand de grands acteurs de l’IA comme Sam Altman nous expliquent que ces machines vont prendre le pouvoir, il faut se méfier. C’est un peu comme s’ils nous disaient
« C’est nous qui possédons le savoir, car nous sommes les papes de l’intelligence artificielle, et vous, vous ne savez rien. Donc, laissez-nous les clés de la maison, et nous pourrons vous aider !»
Comme beaucoup de ces ingénieurs des très grandes sociétés du numérique, il est fasciné par ces machines. Il pense donc qu’il n’y a pas de limites à ce qu’elles feront dans le futur. Il veut simplement dire qu’elles vont réaliser toutes sortes de tâches mieux que nous.
Un moratoire a été rédigé il y a un peu plus d’un an, par les grands acteurs de l’Internet. Sam Altman n’en était pas signataire. Mais on y trouve Yoshua Bengio, Geoffrey Hinton, Elon Musk… Ils nous disaient, il faut arrêter l’intelligence artificielle générative parce que c’est très dangereux.
Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ?
Pause Giant AI Experiments: An Open Letter
Je suis désolé, mais je ne suis pas d’accord. Cela fait longtemps que je travaille sur l’intelligence artificielle. Je n’ai jamais vu « d’esprit non humain ». Ces machines rivalisent avec nous sur des tâches générales. Et de façon plus globale, les sciences cognitives nous le disent depuis longtemps, et Howard Gardner en particulier, l’intelligence s’est différenciée. Chacun a sa propre intelligence.
Les techniques d’imagerie fonctionnelle cérébrale permettent de visualiser les zones actives de notre cerveau en fonction des tâches que nous réalisons, et ces zones varient en fonction de chaque individu.
De même, on s’aperçoit en le cartographiant que les aires du cerveau ne sont pas développées de la même façon chez tous les individus, selon leur éducation, la génétique, etc.
Tout cela nous laisse entendre que l’intelligence ne peut pas être générale, puisqu’elle varie pour chaque individu.
La machine pourrait pourtant se reprogrammer ou corriger certaines de ses erreurs
JGG. C’est exactement la définition de l’apprentissage machine. C’est une machine qui est capable de réécrire son propre programme en fonction d’un certain nombre d’observations, d’expériences. De ce point de vue là, ce n’est pas nouveau.
La question est plutôt de savoir si cette machine a une volonté. C’est pour ça que Pascal pose admirablement le problème.
Daniel Andler hésite pourtant quant à la conscience des machines
JGG. Je crois qu’il faut également revenir sur la définition du terme de conscience. Que la machine soit capable d’inventer est une idée qui se développe depuis très longtemps. Alan Turing, dans son article de 1950 Computing Machinery and Intelligence, a réfuté un certain nombre d’objections à l’idée qu’une machine puisse être innovante. Et parmi ces objections, il y en avait une qui disait : « Une machine ne peut pas créer ».
Et de répondre qu’une machine peut très bien créer. Mais qu’est-ce que c’est que créer ? C’est quelque chose qui va nous surprendre. Or je peux faire un tout petit programme de quelques lignes dont le comportement ne peut être anticipé. De ce point de vue là, on peut faire des machines qui créent.
La vision selon laquelle les machines seraient incapables de surprendre est due, je pense, à une erreur de raisonnement à laquelle les philosophes et mathématiciens sont particulièrement sujets. Il s’agit de l’hypothèse selon laquelle, dès que l’on est témoin d’un fait, toutes les conséquences de ce fait surgissent à l’esprit au même moment.
Alan Turing, The Computing Machinery and Intelligence, 1950
Il y a toute une histoire de la créativité sur les machines qui est bien antérieure à l’IA générative.
Les premiers poèmes, d’ailleurs, datent de 1957
JGG. Dans le programme de composition musicale Illiac Suite de Lejaren Hiller et Leonard Isaacson (1957), le dernier mouvement comportait des éléments de programmation aléatoire et de créativité. L’utilisation de l’aléatoire dans ce contexte était en effet vue comme un moyen de produire quelque chose de « neuf » ou d’imprévisible, simulant ainsi une forme de créativité.
Certains artistes ont utilisé des ordinateurs. C’est le cas en France de Pierre Barbaud (1911-1990), qui est un grand pionnier dans le domaine. Les peintres aussi, dont Vera Molnar (1924-2023), qui a fait de magnifiques tableaux avec ses machines.
Il peut y avoir un débat sur la qualité de ce qui est généré par les IA. Car ce n’est pas parce que j’ai réalisé un faux Van Gogh avec l’IA que cela a un rapport avec Van Gogh ni que c’est intéressant.
Mais la question n’est pas là.
Est-ce que cette machine a une volonté propre qui s’opposerait à la nôtre ? C’est-à-dire, qu’à un moment donné, elle pourrait décider de s’arrêter sans raison ou de vous amener à un endroit que vous n’aviez pas imaginé et qui ne corresponde pas à un objectif donné.
Je crois que, de ce point de vue là qu’il n’y a pas de crainte à avoir.
Les machines ne vont pas prendre leur autonomie. En revanche, la société se transforme. Et les enjeux majeurs sont politiques et c’est sur cela qu’il faut être très vigilant.
En particulier, il faut se méfier de ceux qui possèdent ces technologies. C’est donc de M. Sam Altman qu’il faut se méfier. Il a tendance à nous endormir, à jeter une espèce de voile de fumée.
Sam Altman, en fait, c’est lui le danger !
De même quand M. Elon Musk veut nous protéger contre l’intelligence artificielle en renforçant nos capacités cognitives et en mettant des puces dans vos têtes. Si on va dans son sens, c’est M. Elon Musk qui décidera de ce qu’il y aura dans nos têtes.
Et ce sera la pire dictature que l’on ait jamais imaginée. Voilà le danger pour le futur !
Il faut être vigilant, mais il faut savoir où regarder et de quoi il faut se méfier.
La pseudo- intelligence des IA, moins dangereuse que les intelligences nocives des humains ?
JGG. Tout à fait ! Ray Bradbury, l’auteur de Fahrenheit 451 a écrit cette fameuse phrase :
« Non, je n’ai pas peur des robots, j’ai peur des gens, des gens, des gens !»
Lettre à Brian Sibley, 1974
Citation à retrouver sur azquotes
Acheter le dernier livre de Jean-Gabriel Ganascia, l’I.A. expliquée aux humains
The post De l’intelligence artificielle générale appeared first on Marketing and Innovation.