L’intelligence artificielle apparaît pleine de promesses mais aussi pleine de dangers. Hubert Krivine, auteur du « Petit Traité de hasardologie » (éditions Cassini, 2018) et « Comprendre sans prévoir, prévoir sans comprendre » (éditions Cassini, 2018) distingue l’intelligence de la pensée, les données des connaissances. Entretien.
Comment définirais-tu le ChatGPT ?
ChatGPT est une application particulière de l’intelligence artificielle (IA). L’IA peut-elle dépasser l’intelligence humaine ? C’est peu précis, car l’intelligence n’est pas définie. Comme d’autres concepts, l’amour, le hasard ou Dieu, elle n’a pas de définition axiomatique. C’est l’ambiguïté qui fait son intérêt. Alan Turing, un des créateurs de la notion d’IA, esquive habilement la question en disant qu’il y a des « preuves d’intelligence ». Il a imaginé un dialogue entre une machine ou un homme (on ne sait pas) et un homme (ou une femme). Au fil du dialogue, l’homme ou la femme qui interroge doit deviner s’il a affaire à un être humain ou une machine. S’il ou elle n’arrive pas à faire la distinction, on dit que c’est la machine qui est intelligente. C’est malin, mais c’est semi-convaincant.
Ces discussions sur l’IA sont polluées par un effet de loupe, en mettant en avant les résultats les plus stupéfiants, ceux qui marchent extrêmement bien, mais il y a aussi des résultats grotesques.
L’autre effet de loupe, c’est la polarisation des grands concepteurs de l’IA : il y a, d’un côté, Yann Le Cun, le pape de l’IA en Europe, qui croit que l’IA va dépasser à terme l’intelligence humaine et, de l’autre, Noam Chomsky ou Luc Julia qui n’y croient absolument pas. Le fait qu’ils y croient ou n’y croient pas entraîne facilement un biais de confirmation : les gens vont chercher chez eux la confirmation de leurs idées préconçues.
L’ancienne IA, elle, fonctionne de façon experte et explicable et repose sur un raisonnement de type : « si », « alors ». Donc sur une logique déductive : une base de données est interrogée, et la machine répond car elle a été instruite. C’est la même chose pour la traduction, et en général c’est très mauvais.
Aujourd’hui, l’ancienne IA est remplacée par le data mining, c’est-à-dire la recherche de corrélation sur des milliards et des milliards de données. Cette démarche est fondée sur l’induction, c’est-à-dire quand une propriété est vraie n fois, elle est vraie n+1 fois. Exemple : tes parents ont vécu jusqu’ici quelques milliers de jours, ils vont vivre un jour de plus, et toi aussi d’ailleurs. L’induction se contente de projeter, d’anticiper ce qu’elle connaît déjà. Les changements sont lents, donc ça fonctionne, mais il faut se méfier. Autre exemple d’induction sans théorie, la loi de Moore qui dit que tous les deux ans il y a un doublement de la puissance de calcul. C’est une donnée empirique et ça ne marche pas. Au bout d’un moment, ça sature. Il en va de même pour les extrapolations en IA. C’est faux mais pratique. C’est faux parce que les corrélations n’indiquent pas forcément une causalité. C’est faux, parce que sur les réseaux, les fake news sont majoritaires.
Oui, d’ailleurs, quel est le périmètre des milliards de données dans lesquelles ChatGPT pioche ?
Tout est dans le prompt, dans la requête que tu fais. C’est essentiel pour que ChatGPT marche un peu. Il y a maintenant une véritable usine de fabrique de prompts qui permettront de trouver des résultats un peu plus en accord. Il faut savoir que les données ne sont a priori pas triées. Tout est ajouté n’importe comment. C’est une démarche complètement différente de celle des sociologues quand ils font des analyses, parce qu’eux opèrent par quotas, ce qui change tout pour les biais.
Je veux insister sur le fait que l’évolution est dominée par les événements rares. C’est vrai en géologie, c’est vrai dans le domaine de la connaissance. Par exemple, la collusion de la Terre avec Theia il y a 4 milliards d’années qui va donner naissance à la Lune est un événement extrêmement rare. On ne serait pas là, s’il n’y avait pas eu ça. Très peu de connaissances sont révolutionnaires. Il y a la théorie de la relativité ou la mécanique quantique qui ont complètement changé notre vie. Par construction, ces événements rares et exceptionnels mais décisifs sont rares dans le Big Data. Quand on ratisse large, on marginalise.
La science qui veut choper ces éléments exceptionnels ne peut pas fonctionner par induction, car elle les loupe souvent. ChatGPT est erronément utilisée comme Wikipédia, qui pioche dans des connaissances humaines prédigérées par des humains. ChatGPT, c’est différent : il pioche tout, y compris les poubelles. Quand tu l’interroges, la notion de vrai disparaît complétement ; ce qui compte c’est la notion de « statistiquement arrivant ». La notion de vérité est totalement absente de ChatGPT, ce qui ne veut pas dire qu’il ne peut en sortir quelques fois quelque chose. Le mélange de vrai et de faux est infiniment plus toxique que le faux pur.
Il faut distinguer la pensée de l’intelligence qu’on peut définir comme une réaction d’adaptation d’un être vivant aux modifications de son environnement. Avec une définition si générale, les plantes sont intelligentes, les bactéries aussi. On peut être intelligent sans avoir de cerveau. Cette forme d’intelligence peut être consciente ou pas, individuelle ou collective. La pensée va au-delà, elle n’est pas nécessairement une réponse à un problème. Elle peut tourner autour de la curiosité, l’envie, l’enthousiasme, l’empathie, l’amour… La pensée nécessite un cerveau. La pensée n’exclut pas l’intelligence mais elle est plus générale.
ChatGPT va augmenter une double inégalité : ceux qui ont accès au net et ceux qui ne l’ont pas, ceux qui ont un capital culturel, comme dirait Bourdieu, et ceux qui ne l’ont pas
Le bon usage de ChatGPT ne nécessite-t-il pas de définir le périmètre des données mais aussi le but social et politique qu’on lui donne ?
C’est le sort de bien des nouveautés scientifiques si on veut qu’elles deviennent des progrès scientifiques. Les découvertes scientifiques ne sont pas en soi négatives. Cela dépend de ce qu’on en fait. Il y a une vision, malheureusement un peu majoritaire dans la « gauche », qui considère qu’il y a des inventions scientifiques qui sont taboues, nécessairement négatives. Pour moi, non, tout dépend de la société.
Quel impact aura ChatGPT dans certains secteurs où cela peut supprimer des emplois et est-ce qu’on crée un monstre ?
Il y a des milliards de dollars consacrés à l’IA avec l’idée qu’il ne faut pas louper le coche. Ces milliards seraient plus utiles dans l’éducation générale des citoyen·e·s. Quelle est l’idée des transhumanistes, des gens qui pensent qu’on peut améliorer le cerveau ? Selon eux, nous provenons de stromatolithes existants il y a 3,5 milliards d’années, des cyanobactéries sans cerveau, et, à la suite de l’évolution, nous sommes arrivés là où nous en sommes. Nous ne croyons pas à une force vitale mystérieuse qui expliquerait cela. On a mis 3 ou 4 milliards d’années pour obtenir ce résultat. Eux disent qu’avec l’IA, ces expériences peuvent se répéter extrêmement vite. Ils ne comprennent pas que le développement de la pensée a été contingent, est passé par une suite de bifurcations, de surprises. Dans la vraie vie, qui est un phénomène physique, les périodes de renouvellement prennent du temps. Il y a un temps physiologique et biologique inévitable. Le développement de la vie et du cerveau est contingent et nécessite un temps incompressible. Rien n’assure la fabrication possible d’un cerveau de type nouveau.
Est-ce qu’il peut y avoir une utilisation humaniste et socialisante de cet outil de collecte de données ?
ChatGPT (dans une forme améliorée par rapport à l’actuelle) fait partie du patrimoine de l’humanité. Dans la recherche scientifique, très peu de domaines y échappent. Mais ChatGPT et l’IA ne font aujourd’hui qu’anticiper sur les profits, et anticiper ce n’est pas comprendre.
Propos recueillis par Olivier Besancenot
Article initialement publié sur l’Anticapitaliste, le 7 juin 2023
Image : Inteligencia artificial, Cerebro y Pensar, par geralt (source : pixabay)