Lorsqu’on parle d’intelligence artificielle, le problème réside avant tout dans le nom de cette chose : intelligence et artificielle. Or, pour ce qui tient au mot artificielle, il semble parfois se diluer à cause de sa deuxième place après celui qui retient toute notre attention, mais il s’agit bien d’une chose : de quelque chose, de fait, artificiel, créé par des êtres humains. En outre, même pour ce qui tient à intelligence, on pourrait en débattre à l’infini. Je vous propose néanmoins de réfléchir à ceci : quelle est la différence (s’il y en a une) entre intelligence et conscience ? Car trop souvent, lorsqu’on traite d’IA, on semble confondre ces deux termes philosophiquement très éloignés et dont la différence est essentielle pour comprendre les limites de cette technologie.

Nous sommes des êtres complexes. Qu’est-ce que c’est que la conscience ? On ne saurait pas encore la définir avec certitude : des milliers d’années de philosophie nous ont amenés à paraphraser le mot sous plusieurs déclinaisons (âme, états mentaux, …). Néanmoins, une idée récurrente en philosophie soutient qu’une intelligence sans émotions ni corps est fondamentalement limitée. Or, l’IA n’a ni corps, ni expériences sensibles, ni intuition.
Une Intelligence Limitée par sa Nature
Jusqu’à Descartes, fils de la dichotomie qui nous habite, on a eu tendance à considérer l’être vivant comme partagé entre âme et corps, états mentaux et physiques, sans pourtant avoir été capables de comprendre exactement comment ces deux entités qui nous habitent et font de nous ce que nous sommes puissent convivre.
C’est exactement dans ce manque qui, d’après Damasio, réside l’erreur de Descartes : dans la séparation radicale entre l’esprit et le corps, symbolisée par sa célèbre distinction « Je pense, donc je suis » (Cogito, ergo sum).
Nous sommes des êtres pensants, mais il ne faut néanmoins pas oublier, tout comme l’artificiel dans l’IA, que nous restons toujours des êtres et que ce corps que nous habitons joue un rôle essentiel dans la construction de la conscience et de l’esprit au travers de la perception. De fait, selon Damasio, la conscience n’émerge pas seulement de l’esprit, mais de ces interactions entre les processus cérébraux et corporels.
La conscience ne se limite pas à un phénomène abstrait de pensée, mais émerge des interactions dynamiques entre le corps et le cerveau, créant un sens de soi qui permet de comprendre et de naviguer dans le monde.
— Antonio Damasio, L’Erreur de Descartes (1994)
Ainsi, la conscience n’est pas simplement un produit de la cognition abstraite, mais résulte d’une expérience subjective enrichie par les émotions et les états physiques du corps. L’intelligence artificielle, en revanche, manque de ce substrat corporel et émotionnel.
Bien qu’une IA puisse simuler des comportements complexes, résoudre des problèmes et prendre des décisions en fonction de données programmées ou apprises, elle n’éprouve aucune sensation ni émotion, et donc ne peut accéder à l’expérience subjective qui caractérise la conscience humaine. En l’absence de cette relation entre le corps et l’esprit, l’IA reste incapable de développer une conscience véritable, se contentant de reproduire des comportements intelligents sans éprouver le ressenti qui définit l’expérience consciente.
Même si une IA devenait ultra-performante, pourrait-elle jamais être consciente ?
David Chalmers, philosophe de la conscience, nous invite à réfléchir à ce qu’il désigne comme le « problème difficile de la conscience ». Il distingue deux catégories de questions :
- les questions « faciles », qui cherchent à comprendre les mécanismes neuronaux et cognitifs qui nous permettent d’accomplir des tâches complexes,
- et les questions « difficiles », qui se penchent sur l’essence même de l’expérience subjective – comment et pourquoi des processus physiques dans notre cerveau donnent naissance à la sensation d’être conscient.
Selon Chalmers, même si une intelligence artificielle peut simuler des comportements intelligents et résoudre des problèmes complexes, elle ne vit pas l’expérience de ses actions.
Autrement dit, une IA peut traiter et reproduire des informations sans jamais ressentir quoi que ce soit. À l’inverse, les humains, en plus de traiter des données, font l’expérience de sensations personnelles – ce que le philosophe appelle les « qualia ». Ces sensations uniques, cette dimension subjective de la conscience, restent inaccessibles aux machines, aussi performantes soient-elles sur le plan cognitif.
Pour le simplifier : lorsque ChatGPT dit « Je t’aime », elle ne ressent rien du tout. Elle se contente de reproduire un schéma statistique issu de milliards de conversations humaines, sans jamais éprouver l’émotion qu’un être humain ressentrait en prononçant ces mots.
La frontière de la conscience demeure donc un territoire exclusivement humain, bien que l’intelligence artificielle puisse imiter nos capacités cognitives de manière impressionnante. En fin de compte, l’intelligence artificielle reste un reflet de nos propres capacités, sans jamais pouvoir accéder à l’expérience consciente et émotionnelle qui fait de nous des êtres humains. Son efficacité dans l’imitation et la résolution de problèmes met en lumière la puissance de nos créations, mais elle révèle aussi leurs limites : sans corps ni émotions, l’IA ne peut prétendre à la conscience que nous attribuons parfois à tort à toute forme d’intelligence. Cette distinction fondamentale entre intelligence et conscience devrait nous rappeler que, si la technologie peut démultiplier nos capacités cognitives, elle ne remplace pas pour autant la complexité de l’expérience humaine.
Ainsi, l’IA peut peut-être imiter notre intelligence, mais elle ne pourra jamais partager notre humanité, car seule la conscience donne un sens à nos pensées et à nos émotions.