Faut-il apprendre à l’IA à oublier ? Enjeux philosophiques d’une Mémoire Programmée

« We have this habit of wanting to erase the bad things from our lives. But what we don’t realize is that those things make us who we are. »

Lorsque je pense au concept de l’oubli, avant même de me rappeler de la philosophie, c’est cette phrase d’un film qui me vient à l’esprit. Dans Eternal Sunshine of the Spotless Mind, l’oubli devient une réflexion poignante sur notre rapport aux souvenirs et à la souffrance. À travers l’effacement des mémoires des deux protagonistes amoureux, Joel et Clementine, le film explore ce qu’il reste de nous lorsque nous effaçons les traces de nos relations passées. Mais qu’est-ce qui reste de nous sans nos souvenirs ? L’oubli, loin d’être une libération, se révèle un acte de perte, nous privant de ce qui forge notre humanité, de notre capacité à apprendre et à évoluer.

Image AI generated

L’oubli : une fonction naturelle, un défi pour la machine

L’oubli humain, dans son essence, est une fonction naturelle : un mécanisme organique et souvent salvateur. Il nous permet de laisser derrière nous ce qui n’est plus pertinent, de nous concentrer sur l’essentiel, voire de nous réinventer. Nous oublions parce que, souvent, il est nécessaire de faire de la place pour de nouvelles expériences, de nouveaux souvenirs. La mémoire, en ce sens, est à la fois sélective et dynamique : elle n’est pas une simple accumulation de faits, mais un tissu vivant qui se réorganise constamment, au gré des émotions et des événements. Paradoxalement, c’est ce même oubli qui rend possibles nos processus de guérison, de réinvention et de réconciliation avec nous-mêmes. Comme l’affirmait Proust, “la vraie découverte ne consiste pas à chercher de nouvelles terres, mais à avoir de nouveaux yeux”.

L’oubli est une condition préalable à cette nouvelle vision de nous-mêmes et du monde qui nous entoure.

Cependant, lorsqu’il s’agit des réseaux de neurones artificiels, l’oubli n’est certainement pas un processus naturel et il devient un acte beaucoup plus complexe et contraint. 

Le désapprentissage avec l’IA (machine unlearning) est un processus permettant à un modèle d’oublier certaines informations sans réentraînement complet, notamment pour respecter le droit à l’oubli, corriger des biais ou supprimer des données obsolètes.

Contrairement à l’humain, qui oublie de manière organique, la machine doit être explicitement programmée pour oublier, et cet oubli n’est ni fluide ni spontané : il s’agit d’une intervention volontaire, souvent coûteuse, qui remet en question la manière dont nous concevons la mémoire. Contrairement à l’oubli biologique, qui permet une certaine flexibilité et adaptabilité, l’oubli dans la machine reste rigide et dépend de la programmation initiale.

Philosophiquement, ce paradoxe entre l’oubli humain et l’oubli mécanique nous pousse à réfléchir à une question fondamentale : qu’est-ce que l’oubli, et qu’est-ce qu’il signifie lorsqu’il est programmé ? Dans le cas de l’humain, l’oubli fait partie d’un processus fluide qui est souvent inconscient, un acte de résilience qui se tisse au fil du temps. Mais dans le cas de la machine, l’oubli perd sa fluidité organique pour devenir un mécanisme technique, dénué de subjectivité et d’émotion. En tant que tel, il ne libère pas de la même manière : il prive l’entité (humaine ou artificielle) de la possibilité de se réinventer à travers les souvenirs, de se guérir ou de transformer son rapport au monde.

Le Droit à l’Oubli : entre éthique et métaphysique

Le droit à l’oubli incarne une volonté humaine de réappropriation de son passé numérique, une tentative de retrouver une forme de liberté par rapport à l’empreinte laissée sur le monde virtuel. Cette aspiration est sœur du concept du libre arbitre et de la libération de soi, où l’individu cherche à se défaire des chaînes de son passé pour préserver sa subjectivité.

Cependant, demander à une machine d’oublier soulève une question vertigineuse : une machine qui oublie reste-t-elle la même entité ?

Cette question s’attaque à l’essence de ce que nous appelons communément l’identité. L’oubli dans un réseau de neurones, en modifiant les connexions et les poids, altère radicalement sa structure de fonctionnement, la transformant en quelque sorte.

L’analogie avec la mémoire humaine est ici éclairante : si un individu perdait certains souvenirs précis, cela affecterait son identité, mais il resterait lui-même. En revanche, chez la machine, où tout est codifié et déterministe, la modification des souvenirs semble plus radicale.

Je pourrais à ce propos vous citer le débat cartésien entre le cogito et l’existence, qui soutient que l’identité humaine est fondée sur la continuité du sujet pensant, et ceci même lorsque une partie de son passé est effacée ou altérée. Mais ici, chez la machine, où tout est régi par le déterminisme et la logique formelle, cette altération est plus qu’une simple modification : elle conduit à une rupture ontologique. L’identité de la machine devient alors un assemblage instable, semblable à un patchwork, où chaque nouvelle intervention redéfinit et reconfigure ses contours. Cela fait écho à la pensée de Heidegger, qui affirme que l’être authentique est lié à sa relation avec le temps et son histoire. Mais dans le cas de la machine, cette continuité est interrompue chaque fois qu’elle oublie. L’idée d’authenticité perd alors son sens, car la machine n’a pas une identité stable : elle existe seulement à travers des ajustements constants, sans véritable continuité. L’oubli, dans ce contexte, ne relève plus d’une libération, mais plutôt d’un décentrement constant, mettant en lumière l’impossibilité de l’IA à atteindre une forme d’être cohérente et continue ou, en d’autres mots, humaine.

L’Éthique du Désapprentissage : qui en assume la responsabilité ?

Le désapprentissage dans l’IA soulève des questions éthiques importantes : qui décide de ce qui doit être oublié et selon quels critères ? Ces décisions sont souvent influencées par des rapports de pouvoir, comme par exemple lorsqu’une entreprise choisit de faire oublier des biais ou des données sensibles. Ainsi, ce processus peut mener à des manipulations cachées et pose la question de la transparence.

Un nouveau Contrat social

Comme advient souvent lorsqu’on a affaire avec l’intelligence artificielle, une question devient terrain pour une réflexion plus ample apte à remettre en question notre rapport avec les machines mais aussi l’essence de choses.

Ainsi, l’oubli artificiel ne se limite pas à un simple défi technique : il constitue une invitation à repenser notre relation à la technologie. Si nous demandons par exemple à une IA d’oublier, d’effacer certaines informations, nous lui attribuons une forme de responsabilité, comme si elle partageait avec nous le fardeau de décider ce qu’il faut garder et ce qu’il faut effacer. Mais cela suppose aussi de réévaluer la place des machines dans notre société : les machines ne sont-elles que de simples outils, ou bien sont-elles en train d’évoluer vers des entités partiellement autonomes, dotées de responsabilités éthiques ?

Ce questionnement ouvre un champ de réflexion plus large, à la croisée de l’éthique, du droit et de la technologie. Pour rester maîtres de notre avenir, il est crucial de maintenir ce dialogue. Il ne s’agit pas seulement de fixer des limites aux machines, mais aussi d’interroger l’influence qu’elles exercent sur nos valeurs et notre manière de vivre ensemble. En ce sens, ne devrions-nous pas envisager une sorte de nouveau contrat social (qu’en aurait-il pensée Rousseau ?) avec les machines ?

Un nouveau contrat social entre l’IA et les humains garantirait que l’IA serve le bien commun en échange d’un usage contrôlé et éthique, où les humains fixent les règles et l’IA les applique de manière transparente et équitable.

Aujourd’hui, l’oubli artificiel devient alors un miroir de nos propres contradictions. À mesure que l’IA prend une place grandissante dans nos vies, elle nous pousse à redéfinir ce que signifie être humain.

Elle nous confronte à notre rapport à la mémoire, à l’identité et à la responsabilité dans cette ère numérique. Le désapprentissage n’est donc pas seulement une problématique technique, mais une invitation à réfléchir à notre avenir commun. Une opportunité de construire une société numérique plus juste, plus responsable et, paradoxalement, plus humaine.