L’intelligence n’est pas ce qu’on croit. Elle ne se résume ni à des diplômes, ni à des algorithmes. Elle peut être silencieuse, non conventionnelle, parfois invisible. L’intelligence c’est cette manière intime et parfois déroutante qu’a chacun de traiter le monde et elle relève d’une sensibilité particulière au réel, une façon d’agencer les perceptions, de capter les motifs, d’attribuer du sens où d’autres n’en voient pas. Elle n’est pas toujours visible, ni toujours verbalisée. Et pourtant, c’est elle qui façonne notre manière d’exister au monde.
Dans la tradition philosophique, l’intelligence n’est pas un bloc unique mais une constellation de facultés : raison, intuition, imagination, mémoire, jugement… Aristote parlait du nous, cette intelligence contemplative capable de saisir l’essence des choses et Descartes l’identifiait à une capacité de penser clairement et distinctement. Plus récemment, la philosophie de l’esprit a ouvert d’autres pistes : l’intelligence n’est plus seulement individuelle, mais parfois située, distribuée, incarnée dans des corps, des environnements, des contextes sociaux.
Et, aujourd’hui, on parle aussi d’une version artificielle qui, depuis qu’elle s’invite dans nos vies quotidiennes, je me demande souvent ce qu’elle dit de nous. Pas seulement sur le plan technique, mais éthique, existentiel : quelles formes d’intelligence ces technologies rendent-elles visibles, et lesquelles laissent-elles dans l’ombre ? Quand une IA impressionne par sa logique, sa mémoire ou sa créativité calculée, est-ce qu’elle confirme nos idéaux cognitifs… ou bien les redéfinit-elle ? Et surtout, à travers elle, que valorise-t-on comme « intelligent » dans notre culture ?
En particulier, je vois dans certains débats sur l’IA une résonance inattendue avec les perceptions qu’on porte sur les formes d’intelligences dites « atypiques », notamment celles des personnes autistes. Loin d’être un simple hasard, cette proximité interroge en profondeur nos cadres mentaux.
L’étude des parallèles entre certains fonctionnements cognitifs autistiques et les processus d’une IA (logique, systématique, littérale) soulève des questions essentielles sur la nature de l’empathie, de la cognition sociale, et plus largement, sur la diversité neurologique. Elle nous force à défaire, ou du moins à revisiter, nos définitions trop étroites de ce que signifie comprendre, ressentir, communiquer.

Autisme et IA : deux formes d’intelligences « atypiques »
Je suis souvent frappé par la manière dont on décrit l’IA : logique, rigoureuse, méthodique… mais peu sensible au contexte social, à l’implicite, aux émotions invisibles. Ces descriptions me sont familières, presque étrangement proches. Elles font écho à un autre type de discours, celui qu’on tient, parfois maladroitement, sur certaines manières humaines de penser : plus analytiques, moins intuitives dans les codes sociaux, mais tout aussi profondes.
Ce parallèle peut mettre mal à l’aise, et je comprends pourquoi. Il ne s’agit pas de confondre l’humain et la machine, encore moins de réduire la complexité des vécus singuliers à des lignes de code. Mais il y a là une résonance intéressante, presque philosophique, qui mérite d’être regardée de plus près.
Des études comme celle parue dans Scientific Reports (2024) montrent que certaines personnes autistes peuvent rencontrer des difficultés à décrypter les états mentaux d’autrui, tout en développant une sensibilité accrue à la cohérence, aux structures, aux détails souvent invisibles pour d’autres. C’est une autre forme de rapport au monde : plus analytique, parfois plus directe. Il ne s’agit pas seulement de comprendre le monde ; il s’agit aussi de le traduire, de l’ordonner, de l’appréhender avec une exigence presque viscérale de justesse.
Alors oui, certains aspects du fonctionnement de l’IA me semblent étrangement familiers. Comme si, à travers cette technologie, quelque chose se rejouait : un miroir déformé, certes, mais qui reflète malgré tout une manière minoritaire (et souvent incomprise) d’être au monde.
Repenser l’empathie
La notion d’empathie, traditionnellement définie comme « la capacité à comprendre et partager les sentiments d’autrui », est largement remise en question à mesure que l’IA gagne en présence dans nos vies. La philosophie morale occidentale a souvent mis l’accent sur l’empathie comme capacité à « se mettre à la place de l’autre ». Mais cette définition suppose une théorie de l’esprit très neurotypique ! Mais sait-on seulement ce qu’on entend par là ? Et pour qui cette définition fonctionne-t-elle vraiment ?
On parle beaucoup d’empathie, surtout lorsqu’on craint que les IA en soient dépourvues. Mais en réalité, cette crainte met en lumière nos propres angles morts. Si l’on prend l’exemple de l’autisme, les recherches montrent que l’empathie n’est pas absente, mais souvent exprimée autrement. Elle peut être plus sensorielle, plus directe, parfois plus intense, mais moins traduisible dans les codes émotionnels majoritaires. Et c’est justement ce décalage qui, souvent, crée l’incompréhension.
Mais en observant ces simulations, on en vient à s’interroger : qu’est-ce qu’une émotion ? Qu’est-ce qu’une compréhension de l’autre ? Et surtout, comment nos outils technologiques reflètent-ils nos biais sur ce qu’est une intelligence valide ?
Cela m’amène à douter que l’empathie soit une seule et même chose pour tout le monde. L’IA, elle, simule des comportements empathiques sans éprouver de vécu intérieur. Et pourtant, dans certains contextes, cette simulation suffit pour aider, comme le montrent des projets éducatifs fondés sur l’IA comme le Public Health-Driven Transformer (PHDT) qui a été conçu pour accompagner les enfants autistes dans le développement de leurs compétences sociales, en s’appuyant sur l’IA pour modéliser des interactions humaines.
Je me surprends souvent à penser que l’empathie n’est peut-être pas une chose unique, universelle, mais une pluralité de gestes, de perceptions, de silences. Une façon d’être attentif, à sa manière. En fin des comptes : faut-il éprouver pour comprendre ? Peut-on alors définir l’empathie uniquement comme la capacité à « ressentir comme » ? Ou est-ce aussi savoir s’ajuster, même sans ressentir, à ce que l’autre vit ?
Une seule éthique possible : inclure l’atypique
Tout se joue, je crois, dans la manière dont on conçoit ces outils. Une IA bien pensée peut devenir un levier d’accessibilité pour celles et ceux qui perçoivent et interagissent autrement avec le monde, mais aussi vice-versa : un étude récent (Breaking Barriers, 2024) met en lumière les avancées dans l’intégration de l’IA aux technologies d’assistance pour le diagnostic et l’accompagnement de l’autisme, en soulignant l’importance d’approches plus personnalisées et adaptatives.
Pour moi, il ne s’agit pas d’ajouter une option « accessibilité » en bas d’un menu. Il s’agit de comprendre que la norme, en matière d’intelligence comme d’interaction, est une construction sociale.
Le vrai obstacle, souvent, ce ne sont pas les différences elles-mêmes, mais le regard qu’on porte dessus. Beaucoup ne comprennent pas, non pas par manque de bienveillance, mais parce qu’ils ont été formatés autrement, selon des codes sociaux présentés comme évidents, universels, normaux. Et ces codes, il faut le rappeler, ne sont ni naturels ni neutres : ils sont le fruit d’habitudes culturelles, d’institutions, de statistiques. Ce sont des conventions, pas des vérités. Des normes sociales qui, à force d’être répétées, finissent par paraître naturelles, alors qu’elles ne font que refléter un point de vue dominant, souvent étroit.
C’est pourquoi l’enjeu éthique dépasse la simple accessibilité technique. Concevoir autrement, c’est refuser de penser la différence comme un écart à corriger, et commencer à la voir comme une variation légitime de l’humain. L’IA, si elle est bien utilisée, peut non seulement nous aider à mieux accompagner ces variations, mais aussi à les légitimer : à leur donner, enfin, la place qu’elles méritent dans la conception de l’Humain.
Le contraste dans lequel je me reconnais
Ce n’est pas la différence qui gêne. C’est le fait qu’elle ne rentre pas dans les cases prévues.
Longtemps, on a conçu les outils et les idées pour qu’ils s’adaptent à une certaine manière d’être au monde. Mais il existe d’autres manières, d’autres logiques, d’autres sensibilités, d’autres rythmes. Et elles ne sont pas des erreurs à corriger, mais des formes de vie à comprendre.
En observant l’IA, je me surprends parfois à reconnaître des façons d’être que je connais bien : l’analyse minutieuse, le besoin de logique, la difficulté face à l’implicite, mais aussi la capacité à détecter des motifs, à traiter des volumes d’information complexes, à être précis. Ce sont des traits que l’on retrouve dans bien des profils cognitifs autres, traits que la société commence à peine à reconnaître comme légitimes à part entière.
Ainsi, ce que l’IA donne à voir, ce n’est pas un modèle à suivre, ni un futur à craindre. C’est une invitation à questionner ce que nous considérons comme évident. Une manière de rendre perceptible, par contraste, les limites des normes que nous appelons « naturelles ».
Et dans ce contraste-là, parfois, je me reconnais.
Je crois qu’on peut faire mieux que simplement « tolérer » ce qui sort du cadre. On peut apprendre à voir autrement. À concevoir autrement. À faire de la place, sincèrement, pour ce qui ne suit pas les lignes attendues non pas malgré leur différence, mais à cause de ce qu’elles révèlent de la richesse Humaine dans les milles façons différentes d’être au monde.
Sources:
Antonio Iannone et al., “Breaking Barriers – The Intersection of AI and Assistive Technology in Autism Care: A Narrative review”, PubMed Central, Frontiers in Psychiatry, 28 décembre 2024.
Liu Lan et al., “Exploring the application of AI in the education of children with autism: a public health perspective”, PubMed Central, Frontiers in Psychiatry, 28 janvier 2025.
Ann-Christin S. Kimming et al., “Impairment of affective and cognitive empathy in high functioning autism is mediated by alternations in emotional reactivity”, scientific reports, n° 14, 17 septembre 2024.