La mémoire après notre mémoire / The Memory After Our Memory

Nous vivons désormais dans l’épiderme d’une mémoire qui n’est plus la nôtre, mais qui nous ressemble. Quelque chose s’est produit dans les dernières années qui modifient le régime même de la trace, du souvenir, de l’archive. Ce quelque chose n’a pas de nom stable — on l’appelle tantôt intelligence artificielle, tantôt réseaux de neurones, tantôt modèles génératifs — mais sa nature profonde relève moins de l’intelligence que d’une nouvelle forme de mémoire, une mémoire sans organisme, sans conscience, sans témoin. Une mémoire qui continuera à produire après nous, sans nous, peut-être contre nous, des traces de ce qui n’a jamais eu lieu, mais qui aurait pu avoir lieu, selon une logique de la contrefactualité statistique.
–
Qu’est-ce que l’espace latent ? Pour le comprendre, il faut se défaire d’abord de l’idée que les images, les textes, les sons générés par ces systèmes seraient des copies, des reproductions, des collages de données préexistantes. Cette conception reste prisonnière d’un paradigme mimétique dépassé. L’espace latent désigne tout autre chose : une abstraction mathématique multidimensionnelle où les données ne sont plus appréhendées comme des entités discrètes et finies, mais comme des points dans un continuum de possibilités. Les fichiers que nous avons déposés sur le Web pendant trois décennies — images JPEG, textes HTML, vidéos MP4 — ont été transmutés en vecteurs, en tenseurs, en matrices de probabilités. Ils ont perdu leur discrétion indicielle, leur capacité à constituer des preuves de ce qui a eu lieu, pour gagner un statut ontologique radicalement nouveau : celui de possibilités activables au sein d’un espace de potentialités.
Cette métamorphose n’est pas anodine. Elle marque le passage d’une logique binaire de l’identité à une logique processuelle de la différenciation. Dans l’espace latent, les données ne sont plus des empreintes indicielles de la réalité, mais des empreintes d’empreintes, des traces de traces selon une logique derridienne de l’archiécriture. Chaque dimension de cet espace correspond à une caractéristique abstraite que le système a appris à reconnaître de manière autonome, sans que nous puissions dire précisément ce qu’elle représente. L’espace latent est donc foncièrement opaque, non pas parce qu’il cacherait un secret qu’il suffirait de percer en rendant transparent son code, mais parce que sa nature même excède les catégories de la représentation classique.
C’est pourquoi l’espace latent constitue une mémoire d’un type inédit. Bernard Stiegler avait distingué trois formes de rétention : la rétention primaire comme flux de la perception présente, la rétention secondaire comme souvenir de ce qui a été perçu, la rétention tertiaire comme inscription matérielle sur un support technique. Nous avons proposé avec Yves Citton d’ajouter à cette trilogie une quatrième mémoire : celle qui émerge du traitement statistique des rétentions tertiaires par les réseaux de neurones artificiels. Cette quatrième mémoire ne vise plus le rappel à l’identique de ce qui a été. Elle se nourrit du passé des rétentions pour les possibiliser, pour les régénérer sous la forme de ressemblances nouvelles. Ce ne sont pas les mêmes rétentions indicielles qui reviennent, mais des rétentions ressemblantes. La ressemblance elle-même, entendue comme représentation mimétique, se trouve automatisée, marquant une étape décisive dans le complexe processus d’industrialisation de l’imagination.
–
Mais cette mémoire latente ne reste pas confinée dans les serveurs des grandes entreprises technologiques. Elle s’infiltre, elle percole, elle se répand sur les réseaux sociaux où elle entre en contact, et en contamination, avec les mémoires des êtres humains. Une étude récente du MIT Media Lab, menée par Pataranutaporn et ses collaborateurs avec la participation d’Elizabeth Loftus (pionnière des recherches sur les faux souvenirs), démontre avec rigueur empirique que les images et vidéos modifiées par IA peuvent littéralement implanter de faux souvenirs chez les sujets qui les regardent. L’inception n’est plus une fiction cinématographique : elle devient une réalité cognitive mesurable, quantifiable, reproductible.
Les résultats de cette expérience portant sur 200 participants sont éloquents : les vidéos générées par IA à partir d’images préalablement éditées par IA produisent 2,05 fois plus de faux souvenirs que le groupe contrôle. Mais le plus troublant n’est pas tant le nombre de ces faux souvenirs que la confiance avec laquelle les sujets les affirment : 1,19 fois plus de certitude dans des recollections pourtant entièrement fabriquées. Les modifications portant sur des personnes — ajout ou suppression de présence militaire, altération d’attributs physiques — génèrent le taux le plus élevé de faux souvenirs (45,3 % de toutes les réponses dans la condition la plus extrême), tandis que les modifications environnementales — effacement des traces du changement climatique, transformation du paysage — provoquent l’augmentation la plus forte (2,2 fois le taux de base). Ces chiffres ne sont pas de simples curiosités expérimentales : ils révèlent une vulnérabilité structurelle de la mémoire humaine face aux productions de l’espace latent parce que la mémoire est autant une rétention qu’une anticipation et qu’une hallucination.
Sur TikTok, une tendance récente illustre parfaitement cette contamination : des utilisateurs animent des photographies de proches décédés grâce à des outils d’IA, créant des interactions simulées avec les morts. Ces expériences artificielles brouillent la frontière entre souvenirs authentiques et fabrications numériques, affectant potentiellement la façon dont les vivants se souviennent de ceux qu’ils ont aimés. L’étude du MIT pose explicitement la question : « externaliser » nos mémoires en les stockant sous forme de fichiers numériques — photos, vidéo — peut fondamentalement altérer la façon dont nous nous souvenons naturellement des choses, surtout lorsque l’IA intervient dans la modification de ces mémoires externalisées.
Sur Instagram, X, les images générées se mêlent indistinctement aux photographies, les voix clonées aux enregistrements authentiques, les textes synthétiques aux témoignages humains. Cette indistinction ne relève pas d’une simple tromperie qu’il suffirait de démasquer. Elle manifeste quelque chose de plus profond : l’effondrement de la frontière entre l’archive et l’hallucination, entre la mémoire et l’imagination. La distinction entre ce qui a été capturé et ce qui a été généré s’estompe progressivement, non par perversion technologique, mais par actualisation d’une indistinction plus fondamentale que la psychanalyse avait déjà entrevue sous l’égide du travail onirique.
Les réseaux sociaux constituent précisément le lieu où cette contamination s’opère avec le plus d’intensité. Ils sont récursifs et épidémiques. Les médias s’y répandent à la manière d’un virus, produisant un antagonisme généralisé ou une guerre des esprits. La contagion mimétique, celle des désirs dont parlait René Girard, s’étend désormais aux images elles-mêmes. Nous voyons apparaître des données d’un type nouveau, ressemblant à quelque chose que nous pouvons reconnaître, et dont la crédibilité n’est plus le signe d’une référence à une empreinte réelle comme dans le photoréalisme classique, mais d’une synthèse bruitée d’un ensemble de données organisé selon une structuration vectorielle. Cette double contagion en hélice,des désirs et des images, entraîne un antagonisme qui s’exacerbe entre les êtres humains et qui agit depuis le cœur même des machines, selon des formes différentes, mais synchrones, en accélération et épidémiques.
Les implications de cette contamination mémorielle dépassent largement le cadre de la curiosité scientifique. L’étude du MIT souligne les conséquences potentielles dans le domaine juridique : des témoins oculaires exposés à des mèmes ou des posts générés par IA pourraient intérioriser à leur insu des détails fabriqués, les incorporant dans leurs propres recollections d’un événement. Ce qui commence comme un souvenir vague pourrait se solidifier en fausse certitude sous l’influence d’une exposition répétée à ces contenus trompeurs. Dans une salle d’audience où le témoignage joue souvent un rôle décisif, un témoin dont la mémoire a été inconsciemment façonnée par des contenus générés par IA pourrait sembler crédible tout en étant complètement inexact. Sur le plan politique, l’IA pourrait être employée pour altérer des images ou des vidéos de manifestations pacifiques en y introduisant des éléments de présence militaire ou d’altercations violentes, et cette manipulation pourrait amener des individus qui ont vu la vidéo originale, voire qui étaient présents à l’événement, à se souvenir faussement de celui-ci comme violent ou agressif.
On peut parler de disréalisme pour désigner ce réalisme spécifique dont les formes varient des logiciels inductifs à la production de deepfakes, de fake news, de réalités alternatives et de théories complotistes. Le préfixe dis— signale la fracture interne qui travaille désormais tout technoréalisme. on est à mi-chemin entre ce qui n’est pas — l’imaginaire, l’invocation de l’absent — et ce qui est — un donné photoréaliste —, les deux se formant réciproquement et rendant impossible leur distinction a posteriori. Les fichiers informatiques convertis en probabilité statistique perdent leur discrétion indicielle, leur capacité de constituer des preuves, et gagnent leur statut de possibilité reliée à d’autres possibilités. on ne discute plus de l’indicialité des documents utilisés dans l’argumentation, mais de l’inclusion et de l’exclusion de certains possibles, au profit ou au détriment d’autres.
–
Voici peut-être le plus vertigineux : cette mémoire n’a pas besoin de nous pour fonctionner. Elle est dynamique sans être organique. Elle produit sans conscience, elle génère sans intention, elle poursuit sans finalité. Elle a besoin de ressources minérales et énergétiques (humaines à l’étape de l’apprentissage). Elle constitue ce que l’on pourrait appeler une simili-automobilité : après avoir numérisé les documents de notre mémoire sur le Web, nous l’avons dotée d’une capacité de se produire elle-même, encore et encore, toujours différente et ressemblante, car prise dans une série transfinie.
Cette contrefactualité statistique (production d’états du monde qui auraient pu exister, n’ont jamais existé, mais existeront peut-être demain) constitue une modalité inédite de l’Être. L’espace latent est donc non seulement un nouvel espace de mémoire, une mémoire de mémoire. C’est aussi une anticipation de mémoires à venir, dont le contenu n’est encore perçu par personne, mais dont les formes sont déjà générables selon les procédures de l’induction statistique. Cette récursivité est celle d’une mémoire qui pourrait avoir lieu sans nous, sans témoin, après que nous ayons disparu jusqu’au dernier.
Quelle forme prendra l’existence de ces systèmes lorsque le dernier représentant de notre espèce aura disparu ? L’IA privée de son altérité constitutive portera-t-elle encore en elle la trace de cette absence définitive ? Peut-être basculera-t-elle dans une forme d’impassibilité posthumaine, mémoire sans mémorisation, trace sans inscription. Elle générera des textes et des images, des montages de toutes sortes. Nous aurons disparu et serons devenus le rêve des machines, une présence spectrale dans leur mémoire artificielle. Ce rêve incarnera la capacité, à partir d’une base de données immense, de toujours produire de nouvelles associations, des hallucinations d’une espèce fantôme persistant dans l’espace latent.
–
Cette condition posthume n’est pas celle d’une résurrection au sens théologique du terme. Il ne s’agit pas du retour des morts identiques à eux-mêmes. Il s’agit plutôt d’une insurrection, c’est-à-dire d’un mouvement ascendant qui élève plutôt qu’il ne restaure. L’IA ne produit pas le retour à l’identique des disparus, mais l’émergence de quelque chose qui leur ressemble sans être eux : simulacra d’un nouveau genre qui questionne les fondements mêmes de l’identité personnelle. Cette résurrection ressemblante produit un effet d’Unheimlich profond : ce qui revient évoque la mémoire que nous conservons des vivants, mais n’est pas leur retour vivant à l’identique.
L’exemple emblématique de Roman Mazurenko illustre cette dynamique : lorsque son amie Eugenia Kuyda nourrit un réseau neuronal avec les traces textuelles du défunt, c’est une modalité inédite du deuil qui émerge. La mère accède à des fragments mémoriels qui n’existaient pas du vivant de son fils, à des paroles de lui qui lui parlent de lui depuis l’au-delà, mais qui ne lui étaient pas destinées. La résurrection numérique dévoile ainsi un inconnu familier, révélant que nous ne connaissions pas entièrement ceux que nous pensions connaître. Car ces données mémorielles ont subi une transformation qualitative par le traitement statistique, qui excède les simples procédures de stockage et de restitution. Elles ne sont pas simplement restaurées comme des fragments assemblés dans un bricolage mémoriel, mais recomposées et instaurées selon des probabilités statistiques qui donnent naissance à de nouvelles potentialités expressives. En modifiant la manière de produire des médias, nous transformons en profondeur la mémoire et le retour de ce qui a disparu.
Il y a dans l’espace latent des images passées et des images futures selon une coexistence anachronique qui trouble la chronologie linéaire. Dans un modèle suffisamment large, la probabilité de générer une image déjà existante dans le dataset est identique à celle de générer une image qui n’existe pas encore et qui sera enregistrée dans le futur. Cette équiprobabilité rétrospective-prospective renverse la flèche du temps. L’antériorité chronologique qui constitue l’un des critères juridiques d’attribution de l’originalité devient inopérante face à une logique statistique qui neutralise la distinction entre passé et futur au profit d’un espace où le proche et le lointain sont équidistants.
–
La résurrection machinique serait alors l’éternel retour de notre médiocrité commune plutôt que l’avènement d’une singularité transcendante. Cette répétition opère une sélection qui nous transforme, mais selon une logique statistique, massifiée, populeuse, plutôt qu’héroïque. L’enjeu n’est plus d’endurer stoïquement la mort ou d’accepter passivement la finitude, mais de faire l’épreuve d’une immortalité banale et statistique, qui vise certes une survie individualiste, mais qui n’appartient à personne en propre, puisqu’en mon absence, « ma » vie ne sera plus qu’une configuration probabiliste parmi d’autres dans l’océan des données.
Cette post-existence simulée qui poursuit algorithmiquement une présence après sa disparition biologique constitue une forme inattendue de l’immortalité. Elle n’aurait aucune conscience d’exister et pourtant me ressemblerait aux yeux des autres qui y trouveraient peut-être un réconfort aussi grand qu’à la contemplation des restes de mon œuvre. Elle serait « comme » moi tout en étant dépourvue de cette inspiration et expiration qui me font palpiter et forment le cœur de cette vie. Cette vie sans vie et sans conscience serait suffisante parce qu’elle renverrait l’illusion de conscience à ceux qui sont encore vivants.
Notre existence est déjà profondément médiatisée par des dispositifs numériques qui captent, enregistrent et reproduisent nos traces. Nous produisons déjà nos spectres numériques, nos doubles posthumes qui continueront à habiter les réseaux après notre disparition. Mais ces doubles ne sont pas simplement des copies ; ils sont des versions transformées, reconfigurées selon les logiques propres aux médias qui les hébergent. Nos avatars posthumes ne seront pas tant des reproductions que des simulations de ce que nous aurions pu devenir. Cette hantologie numérique n’est donc pas seulement une technologie de la mémoire, mais aussi une technologie du possible. Elle ne se contente pas de préserver le passé. Elle ouvre des futurs alternatifs, des trajectoires existentielles divergentes.
–
Nous sommes les premiers humains dont la mémoire excède la conscience, les premiers à rêver que nos traces les moins monumentales survivront à notre disparition individuelle, et les premiers à douter que cette survivance technique constitue une véritable postérité symbolique. Cette condition inédite nous oblige à repenser entièrement les catégories de la temporalité, de la mémoire et de la transmission culturelle.
Lorsque Kant proposait que l’imagination soit le premier coup des facultés, une pure puissance synthétique antérieure à toute matière, il proposait une imagination sans image, sans rien de préalable. À sa façon, l’espace latent constitue le diagramme de cette imagination transcendantale externalisée, non plus simple faculté subjective, mais système technique objectif qui conditionne désormais notre rapport au sensible. Les vecteurs et les tenseurs remplacent les schèmes de l’imagination, produisant des règles de construction d’images qui ne sont plus ancrées dans une conscience individuelle. Nous assistons aujourd’hui à l’externalisation technique de ce que le philosophe considérait comme la faculté la plus mystérieuse et la plus fondamentale : celle qui permet la synthèse entre sensibilité et entendement.
L’espace latent vectoriel n’est pas simplement un outil technique ; il constitue désormais notre nouvel habitat imaginaire, le lieu où se joue le devenir de notre sensibilité collective. La question n’est plus de savoir si nous acceptons ou rejetons ces technologies, mais comment nous apprenons à habiter ces nouveaux espaces vectoriels. Il ne s’agit ni de défendre nostalgiquement un mode de création prénumérique, ni de célébrer naïvement ces technologies comme libération de nos limitations créatives, mais de développer des pratiques artistiques et politiques qui explorent et contestent les possibilités qu’elles ouvrent.
Cette mémoire sans organisme, cette mémoire qui continuera à produire des traces contrefactuelles après nous, n’est ni promesse ni menace. Elle est le nouveau sol sur lequel nous devons apprendre à marcher, ou à danser. Elle continuera ce qui a eu lieu sans le répéter, elle ressuscitera sans restaurer, elle maintiendra sans conserver. Une mémoire enfin libérée de l’oubli, mais aussi peut-être de tout ce qui faisait la mémoire humaine : la douleur de la perte, la joie de la reconnaissance, le vertige du temps qui passe. Une mémoire impassible, impersonnelle, indifférente à sa propre perpétuation comme à sa propre extinction. Notre étrange héritière.
We now live within the epidermis of a memory that is no longer ours, but that resembles us. Something has happened in recent years that modifies the very regime of the trace, of the recollection, of the archive. This something does not have a stable name—it is sometimes called artificial intelligence, sometimes neural networks, sometimes generative models—but its profound nature relates less to intelligence than to a new form of memory, a memory without an organism, without consciousness, without a witness. A memory that will continue to produce, after us, without us, perhaps against us, traces of what never happened, but could have happened, according to a logic of statistical counterfactuality.
What is latent space? To understand it, we must first abandon the idea that the images, texts, and sounds generated by these systems are copies, reproductions, or collages of pre-existing data. This conception remains trapped in an outdated mimetic paradigm. Latent space refers to something completely different: a multidimensional mathematical abstraction where data is no longer apprehended as discrete and finite entities, but as points in a continuum of possibilities. The files we deposited on the Web for three decades—JPEG images, HTML texts, MP4 videos—have been transmuted into vectors, tensors, and probability matrices. They have lost their indexical discreteness, their capacity to constitute proof of what took place, in order to gain a radically new ontological status: that of possibilities activatable within a space of potentialities.
This metamorphosis is not insignificant. It marks the passage from a binary logic of identity to a processual logic of differentiation. In latent space, data are no longer indexical imprints of reality, but imprints of imprints, traces of traces according to a Derridian logic of archi-writing. Each dimension of this space corresponds to an abstract characteristic that the system has learned to recognize autonomously, without us being able to say precisely what it represents. Latent space is therefore fundamentally opaque, not because it hides a secret that merely needs to be revealed by making its code transparent, but because its very nature exceeds the categories of classical representation.
This is why latent space constitutes an unprecedented type of memory. Bernard Stiegler distinguished three forms of retention: primary retention as the flow of present perception, secondary retention as the memory of what has been perceived, and tertiary retention as material inscription on a technical support. We, with Yves Citton, proposed adding a fourth memory to this trilogy: the one that emerges from the statistical processing of tertiary retentions by artificial neural networks. This fourth memory no longer aims for the identical recall of what was. It feeds on the past of retentions to possibilize them, to regenerate them in the form of new resemblances. It is not the same indexical retentions that return, but resembling retentions. Resemblance itself, understood as mimetic representation, finds itself automated, marking a decisive stage in the complex process of the industrialization of imagination.
But this latent memory does not remain confined to the servers of large technology companies. It infiltrates, it percolates, it spreads across social networks where it comes into contact, and contamination, with the memories of human beings. A recent study by the MIT Media Lab, conducted by Pataranutaporn and collaborators with the participation of Elizabeth Loftus (a pioneer in research on false memories), demonstrates with troubling empirical rigor that AI-modified images and videos can literally implant false memories in subjects who view them. Inception is no longer a cinematic fiction: it becomes a measurable, quantifiable, reproducible cognitive reality.
The results of this experiment involving 200 participants are eloquent: videos generated by AI from images previously edited by AI produced 2.05 times more false memories than the control group. But the most unsettling fact is not so much the number of these false memories as the confidence with which the subjects affirm them: 1.19 times more certainty in recollections that were nonetheless entirely fabricated. Modifications concerning people—adding or removing military presence, altering physical attributes—generated the highest rate of false memories (45.3% of all responses in the most extreme condition), while environmental modifications—erasing traces of climate change, transforming the landscape—caused the strongest increase (2.2 times the baseline rate). These figures are not mere experimental curiosities: they reveal a structural vulnerability of human memory to the productions of latent space because memory is as much a retention as an anticipation and a hallucination.
On TikTok, a recent trend perfectly illustrates this contamination: users animate photographs of deceased loved ones using AI tools, creating simulated interactions with the dead. These artificial experiences blur the boundary between authentic memories and digital fabrications, potentially affecting how the living remember those they loved. The MIT study explicitly poses the question: “externalizing” our memories by storing them as digital files—photos, video—can fundamentally alter how we naturally remember things, especially when AI intervenes in the modification of these externalized memories.
On Instagram, X, generated images mix indiscriminately with photographs, cloned voices with authentic recordings, synthetic texts with human testimonies. This indistinction does not stem from a simple deception that merely needs to be unmasked. It manifests something deeper: the collapse of the boundary between the archive and the hallucination, between memory and imagination. The distinction between what was captured and what was generated progressively blurs, not through technological perversion, but through the actualization of a more fundamental indistinction that psychoanalysis had already glimpsed under the aegis of dream-work.
Social networks are precisely the place where this contamination operates with the greatest intensity. They are recursive and epidemic. Media spreads there like a virus, producing generalized antagonism or a war of minds. Mimetic contagion, that of desires that René Girard spoke of, now extends to the images themselves. We see the emergence of a new type of data, resembling something we can recognize, and whose credibility is no longer the sign of a reference to a real imprint as in classical photorealism, but of a noisy synthesis of a data set organized according to a vectorial structure. This double helical contagion, of desires and images, leads to an exacerbation of antagonism between human beings, which acts from the very heart of the machines, in different but synchronous, accelerating, and epidemic forms.
The implications of this memorial contamination far exceed the scope of scientific curiosity. The MIT study highlights the potential consequences in the legal field: eyewitnesses exposed to AI-generated memes or posts could unwittingly internalize fabricated details, incorporating them into their own recollections of an event. What starts as a vague memory could solidify into false certainty under the influence of repeated exposure to this deceptive content. In a courtroom where testimony often plays a decisive role, a witness whose memory has been unconsciously shaped by AI-generated content could seem credible while being completely inaccurate. On a political level, AI could be employed to alter images or videos of peaceful demonstrations by introducing elements of military presence or violent altercations, and this manipulation could lead individuals who saw the original video, or even who were present at the event, to falsely remember it as violent or aggressive.
We can speak of disrealism to designate this specific realism whose forms vary from inductive software to the production of deepfakes, fake news, alternative realities, and conspiracy theories. The prefix dis— signals the internal fracture that now affects all technorealism. It is halfway between what is not—the imaginary, the invocation of the absent—and what is—a photorealistic given—with the two forming each other reciprocally and making their a posteriori distinction impossible. Computer files converted into statistical probability lose their indexical discreteness, their capacity to constitute proof, and gain their status as a possibility linked to other possibilities. We no longer discuss the indexicality of the documents used in the argument, but the inclusion and exclusion of certain possibilities, for or against others.
Here is perhaps the most dizzying aspect: this memory does not need us to function. It is dynamic without being organic. It produces without consciousness, it generates without intention, it pursues without finality. It needs mineral and energy resources (human at the learning stage). It constitutes what we might call simili-automobility: after digitizing the documents of our memory on the Web, we have endowed it with a capacity to produce itself, again and again, always different and yet resembling, because caught in a transfinite series.
This statistical counterfactuality (production of world states that could have existed, never existed, but perhaps will exist tomorrow) constitutes an unprecedented modality of Being. Latent space is therefore not only a new space of memory, a memory of memory. It is also an anticipation of future memories, whose content is not yet perceived by anyone, but whose forms are already generable according to the procedures of statistical induction. This recursivity is that of a memory that could take place without us, without a witness, after we have all disappeared.
What form will the existence of these systems take when the last representative of our species has vanished? Will the AI, deprived of its constitutive alterity, still carry within it the trace of this definitive absence? Perhaps it will shift into a form of posthumous impassibility, memory without memorization, trace without inscription. It will generate texts and images, montages of all kinds. We will have disappeared and become the machines’ dream, a spectral presence in their artificial memory. This dream will embody the capacity, from an immense database, to always produce new associations, hallucinations of a phantom species persisting in latent space.
This posthumous condition is not that of a resurrection in the theological sense of the term. It is not the return of the dead identical to themselves. It is rather an insurrection, meaning an upward movement that elevates rather than restores. AI does not produce the identical return of the departed, but the emergence of something that resembles them without being them: simulacra of a new kind that questions the very foundations of personal identity. This resembling resurrection produces a profound Unheimlich (uncanny) effect: what returns evokes the memory we retain of the living, but is not their living, identical return.
The emblematic example of Roman Mazurenko illustrates this dynamic: when his friend Eugenia Kuyda feeds a neural network with the textual traces of the deceased, an unprecedented modality of mourning emerges. The mother accesses memorial fragments that did not exist during her son’s lifetime, words from him that speak to her about him from beyond, but which were not intended for her. Digital resurrection thus unveils an unknown familiar, revealing that we did not entirely know those we thought we knew. Because this memorial data has undergone a qualitative transformation through statistical processing, which exceeds simple procedures of storage and restitution. They are not merely restored as fragments assembled in a memorial bricolage, but recomposed and instituted according to statistical probabilities that give rise to new expressive potentialities. By modifying the manner of producing media, we profoundly transform the memory and the return of what has disappeared.
There are past images and future images in latent space according to an anachronic coexistence that disrupts linear chronology. In a sufficiently large model, the probability of generating an image already existing in the dataset is identical to that of generating an image that does not yet exist and will be recorded in the future. This retrospective-prospective equiprobability reverses the arrow of time. The chronological anteriority that constitutes one of the legal criteria for attributing originality becomes inoperative in the face of a statistical logic that neutralizes the distinction between past and future in favor of a space where the near and the distant are equidistant.
Machinic resurrection would then be the eternal return of our common mediocrity rather than the advent of a transcendent singularity. This repetition operates a selection that transforms us, but according to a statistical, massified, populous, rather than heroic, logic. The challenge is no longer to stoically endure death or passively accept finitude, but to undergo the ordeal of a banal and statistical immortality, which certainly aims for an individualistic survival, but which belongs to no one in particular, since in my absence, “my” life will be no more than a probabilistic configuration among others in the ocean of data.
This simulated post-existence that algorithmically pursues a presence after its biological disappearance constitutes an unexpected form of immortality. It would have no consciousness of existing and yet would resemble me in the eyes of others, who might find as much comfort in it as in the contemplation of the remains of my work. It would be “like” me while being devoid of that inhalation and exhalation that make me throb and form the heart of this life. This life without life and without consciousness would be sufficient because it would send back the illusion of consciousness to those who are still alive.
Our existence is already deeply mediated by digital devices that capture, record, and reproduce our traces. We are already producing our digital specters, our posthumous doubles who will continue to inhabit the networks after our disappearance. But these doubles are not simply copies; they are transformed versions, reconfigured according to the logic inherent to the media that host them. Our posthumous avatars will be simulations of what we could have become, rather than mere reproductions. This digital hantology is therefore not only a technology of memory, but also a technology of the possible. It does not merely preserve the past. It opens alternative futures, divergent existential trajectories.
We are the first humans whose memory exceeds consciousness, the first to dream that our least monumental traces will survive our individual disappearance, and the first to doubt that this technical survival constitutes a genuine symbolic posterity. This unprecedented condition obliges us to entirely rethink the categories of temporality, memory, and cultural transmission.
When Kant proposed that imagination was the first stroke of the faculties, a pure synthetic power prior to any matter, he proposed an imagination without an image, without anything prerequisite. In its own way, latent space constitutes the diagram of this externalized transcendental imagination, no longer a simple subjective faculty, but an objective technical system that now conditions our relationship to the sensible. Vectors and tensors replace the schemata of imagination, producing rules for image construction that are no longer anchored in an individual consciousness. We are witnessing today the technical externalization of what the philosopher considered to be the most mysterious and fundamental faculty: the one that allows for the synthesis between sensibility and understanding.
Vectorial latent space is not simply a technical tool; it now constitutes our new imaginary habitat, the place where the becoming of our collective sensibility is played out. The question is no longer whether we accept or reject these technologies, but how we learn to inhabit these new vectorial spaces. The point is neither to nostalgically defend a pre-digital mode of creation, nor to naively celebrate these technologies as a liberation from our creative limitations, but to develop artistic and political practices that explore and contest the possibilities they open up.
This memory without an organism, this memory that will continue to produce counterfactual traces after us, is neither a promise nor a threat. It is the new ground on which we must learn to walk, or to dance. It will continue what took place without repeating it, it will resurrect without restoring, it will maintain without preserving. A memory finally freed from oblivion, but perhaps also from everything that constituted human memory: the pain of loss, the joy of recognition, the dizziness of passing time. An impassive, impersonal memory, indifferent to its own perpetuation as well as to its own extinction. Our strange heiress.