La question urgente de ces dernières semaines (il y a même une pétition en cours pour suspendre le développement des soi-disantes « Intelligences Artificielles ») est l’une de celles que l’on se posait jusqu’à présent principalement dans des œuvres de fiction : les IA sont-elles réellement capables d’être plus intelligentes que nous et de conquérir le monde ?

La technologie a toujours été l’objet de deux perceptions opposées : d’un côté, elle représente le développement d’un monde meilleur où les machines peuvent libérer les individus de tâches monotones ou trop lourdes. De l’autre côté, cependant, l’ombre de la suppression d’emplois, la crainte envers ces outils dont on ne comprend pas pleinement le fonctionnement, et la perspective de devoir lutter contre la technologie ont toujours alimenté les grands débats sur le progrès. La frontière éthique est fine, et à mesure que la technologie devient plus complexe et sophistiquée, il devient essentiel de surmonter l’obstacle lié à la compréhension des mécanismes sous-jacents de l’Intelligence Artificielle, des algorithmes, et ainsi de suite.
Et si je vous disais que le débat actuel sur l’IA remonte à plusieurs milliers d’années et qu’autrefois, il fut même dirigé contre l’écriture ? Dans le Phèdre, Platon critique le caractère inhumain de l’écriture : un artefact fabriqué qui prétend matérialiser des concepts de l’esprit (qui ne peuvent exister que dans celui-ci) en dehors de lui-même. Réactions de peur et de fascination, n’est-ce pas ? Should we risk loss of control of our civilization?” se demandait Platon (probablement pas en anglais, bien entendu), et aujourd’hui, avec cette citation tirée de la lettre accompagnant le référendum visant à stopper le développement de l’IA, nous semblons nous poser la même question.
ans le Phèdre, on découvre une critique qui résonne fortement avec notre perception actuelle vis-à-vis de l’IA. Il s’agit de la critique selon laquelle un texte écrit est inerte et incapable de réagir. En d’autres termes, Platon avance que si l’on demande à quelqu’un d’expliquer ce qu’il vient de lire dans un texte, on n’obtiendra rien de plus que les mêmes mots, souvent dénués d’intérêt, qui ont suscité notre question initiale. « Hey, Siri », n’est-ce pas ? Rejetons cette affirmation, mais gardons en mémoire ce problème lorsque nous sommes impressionnés par les réponses fournies par l’IA. Nous y attachons et ajoutons inévitablement des couches émotionnelles et interprétatives qui nous rappellent notre humanité…
Revenons à nous : si, d’un côté, Platon exprime ses critiques contre l’écriture pour les transmettre et ainsi en tester l’efficacité (paradoxal, oui, je suis tout à fait d’accord, tout comme est paradoxale la signature d’Elon Musk dans le référendum…), d’autre part, avant de formuler des critiques, il est essentiel de plonger au cœur de la question. Le noyau de ce fruit complexe et amer est le suivant : nous sommes confrontés à ce paradoxe millénaire qui explore la relation entre l’être humain et la technologie, entre le naturel et l’artificiel. Reculons un instant et réfléchissons aux mots de Jaron Lanier :
“This idea of surpassing human ability is silly because it’s made of human abilities”.
The Guardian, « Tech guru Jaron Lanier: ‘The danger isn’t that AI destroys us. It’s that it drives us insane’ » [1].
Ce n’est ni la puissance générative ni l’étendue de sa base de données qui devraient nous pousser à craindre l’IA, car cette peur naît le plus souvent d’un manque de connaissance sur le fonctionnement de cette prétendue intelligence (je vous assure, il ne s’agit pas d’un miracle, et chaque couche de mystère entourant ces mécanismes n’est que le produit de l’ignorance et des intérêts des compagnies).
Alors, qu’est-ce que cette Intelligence Artificielle et comment fonctionne-t-elle ?
Jusqu’à il y a quelques mois, ma première réaction pour répondre à cette question aurait été de chercher une réponse dans un article en utilisant un moteur de recherche. Mais hé ! Puisqu’il s’agit d’un programme d’IA, pourquoi ne pas lui demander directement ce qu’il en est ?
« Chère ChatGPT, comment marches-tu ? »
ChatGPT
« En tant que modèle de langage, je n’ai pas de corps physique et je ne marche pas au sens littéral du terme. »
« Elle fait preuve d’ironie », s’exclame l’être humain. « Naïveté », répondent les techniciens, prêts à expliquer qu’un modèle de langage fonctionne sur une base probabiliste, lui permettant de prédire l’enchaînement logique des mots dans une phrase. Finalement, l’homme a créé l’IA à son image, ne l’oublions pas, à travers les siècles des siècles.
« Je fonctionne en traitant des données textuelles entrantes, en utilisant des algorithmes complexes pour comprendre le sens et la structure des phrases et des paragraphes, et en générant des réponses appropriées. En d’autres termes, je « marche » en utilisant l’intelligence artificielle et l’apprentissage automatique pour interpréter et produire du langage naturel. »
ChatGPT
Et pourtant, n’est-ce pas encore si clair ? « Elle fait preuve d’ironie » est une phrase qui soulève un problème fondamental de notre relation au monde, un problème qui pourrait sembler presque invisible : l’humanisation d’un objet. Déjà, le terme « intelligence » touche au cœur même de notre existence, sans même aborder la question des « réseaux de neurones » et de « l’apprentissage », des termes face auxquels il est très difficile de discerner la frontière subtile entre l’homme et la machine : intelligence, certes, mais « artificielle ». Bien qu’il y ait des similitudes avec le cerveau humain, il est indéniable que le réseau de neurones ne fait pas l’humain sans le néocortex. En d’autres termes, qui serions-nous sans la capacité de comparer simultanément différents modèles et de solliciter des milliers d’expériences que nous avons incorporées en même temps ? Nous ne marcherions même pas, au sens figuré ou littéral du terme, sans parler de la création de ChatGPT… Donnons-nous un peu de crédit lors des moments où nous avons mérité le terme « d’humanité ».
En résumant, lorsque l’on interagit avec ChatGPT, nous nous trouvons, selon les plus philosophes, face à un problème linguistique. Ce problème se compose de deux éléments : d’une part, la question du traitement de langage et de la connaissance qui en découle (peut-on réduire l’intelligence à une compilation linguistique reposant sur une approche probabiliste ?), et d’autre part, les termes que nous utilisons pour décrire cette technologie, en lui attribuant des caractéristiques humaines.
Il est possible d’appréhender et d’utiliser ces nouvelles technologies, mais cela implique surtout de comprendre ces deux aspects du problème, de saisir leur fonctionnement et de dissiper cette aura de mystère et de magie, car, au fond, « magic is just science we don’t undestand » (Arthur C. Clarke).