Du mimétisme de l’empreinte au mimétisme des signes / From the Mimicry of the Imprint to the Mimicry of Signs
L’IA, telle qu’elle existe aujourd’hui, n’appartient pas à l’histoire des médias où un média vient en chasser un autre. On connaît cette histoire et ses scansions : le passage du portrait pictural au portrait photographique, où le second « remplace » le premier en obligeant les peintres à se replier sur leur « liberté » artistique ; le passage du cinéma à la télévision ; les promesses brisées de la réalité virtuelle qui devait emporter avec elle l’ensemble des médias grâce à une réalité plus réelle que le réel. Cette histoire s’est accélérée avec l’industrialisation qui a vu émerger le photoréalisme, un média indiciel ou de l’empreinte, gardant une trace matérielle de la réalité par l’incidence de la lumière sur une surface sensible, et elle n’a cessé depuis de rejouer la même scène : un mode de représentation en chassant un autre, chaque chasse venant bouleverser nos manières de configurer le monde et d’y habiter.
Mais l’IA n’est pas un nouveau média. Ou plus exactement : elle est autre chose qu’un média de plus dans cette succession. Elle vient métaboliser ses ancêtres en les comparant, en les vectorisant, en les assemblant dynamiquement dans un espace latent. Elle sait mimer non seulement le cinéma, mais encore les époques, les caméras, les objectifs, les pellicules, les émulsions, et les entités qui peuplent l’image. Elle sait ressembler à tout ce qui la précède, de sorte qu’elle répète les médias antérieurs en changeant leur nature en arrière-plan, dans le pli de sa boîte noire. Car ce qu’elle fait n’est pas produire tel ou tel média : elle industrialise inductivement la ressemblance elle-même (mimésis). Elle ouvre un espace de représentations sans images, sans textes, sans sons, un espace peuplé d’entités abstraites, les vecteurs, qui, par la conjonction du bruit et des corrélations, produit à la demande ce que nous voulons voir, lire ou entendre.
Notre histoire médiatique fut, au moins pour une part importante, la chronologie du passage et de l’enchâssement d’un média dans un autre. L’IA change cette histoire, non parce qu’elle serait, en apprenant des médias passés, une fin de l’histoire (des médias) qui les récapitulerait tous. Elle la change parce qu’elle fait passer d’une histoire de l’empreinte à une histoire des signes. Et cette dernière coexiste depuis longtemps avec la première, sans qu’on ait vraiment mesuré ce que cette coexistence impliquait au moment où l’une des deux se trouvait industrialisée.
L’empreinte et son dehors
L’empreinte est un rapport à une extériorité. La photographie argentique, comme le moulage, comme l’enregistrement phonographique, comme la trace de pas dans le sable, suppose une réalité qui l’excède et qu’elle vient capturer par contact, par incidence d’une onde, par pression d’un corps, par inscription d’un signal. L’empreinte est indicielle au sens peircien : elle entretient avec son référent un rapport de contiguïté physique, même infime, même médiée par des dispositifs optiques et chimiques complexes. C’est cette contiguïté qui fonde la croyance photographique, cette adhérence épistémique que nous avons pendant plus d’un siècle accordée à l’image-empreinte : ça a été, selon la formule de Barthes, parce que ça a touché la surface sensible d’un dispositif capable de le retenir.
Le photoréalisme industrialise cette empreinte, en multiplie les occurrences, en fait circuler les traces, mais il n’en change pas le régime. L’image photographique, même produite par millions, demeure ontologiquement attachée à une scène qui l’a précédée et dont elle est le dépôt lumineux. Même le cinéma, même la vidéo, même le numérique photographique prolongent ce régime : la captation optique reste une manière de laisser le monde s’imprimer sur une surface qui l’enregistre, qu’elle soit argentique ou matricielle. L’empreinte, dans toutes ses variantes, tire sa valeur épistémique de ce qu’elle pointe vers un dehors qu’elle n’est pas.
Le signe récursif vectoriel
Le régime vectoriel est autre. Les vecteurs produits par les modèles génératifs ne sont pas des empreintes, parce qu’ils ne portent pas sur des réalités externes. Ils portent sur des médias. Plus précisément : ils portent sur des médias qu’ils comparent entre eux pour les rapprocher par ressemblance, pour les situer les uns relativement aux autres dans un espace continu dont les dimensions ne correspondent à aucune propriété physique du monde, mais à des régularités statistiques extraites de masses de documents déjà produits.
Un vecteur est donc un signe, non un indice. Il ne touche rien. Il ne garde la trace de rien qui existerait indépendamment de la masse des médias dont il est dérivé. Sa référence, si l’on peut encore parler de référence, est intramédiatique : il renvoie à d’autres images, à d’autres textes, à d’autres sons qui, eux-mêmes, renvoyaient peut-être à une extériorité, mais dont la vectorisation précisément suspend cette ouverture. Une représentation vectorielle est une comparaison entre médias, une mise en proximité calculée entre des objets documentaires. Elle ne saisit plus la réalité : elle saisit des saisies.
On pourrait objecter que les indices eux-mêmes étaient déjà des signes, et que cette distinction entre signes et indices est artificielle. Ce serait méconnaître ce qui se passe dans le vectoriel. Dans le régime de l’empreinte, le signe pointait hors de lui-même vers un référent dont il était la marque. Dans le régime vectoriel, le signe se replie sur d’autres signes. C’est un signe récursif : il renvoie à des signes qui renvoient à des signes, et la récursion est constitutive, non accidentelle. Il n’y a pas, en dernière instance, de palier extramédiatique où la chaîne s’arrêterait pour toucher quelque chose d’autre qu’elle-même. Les datasets, les étiquetages, les encodages : tout cela forme un univers clos sur lequel les vecteurs opèrent, et c’est cette clôture qui rend la ressemblance automatisable (et c’est aussi du fait de cet enfermement que certains espèrent à une dégénerescence autophage de l’IA).
Ce que l’IA industrialise, ce n’est donc pas une nouvelle forme d’empreinte. C’est le signe récursif vectoriel comme régime généralisé de la représentation. Là où le photoréalisme capturait la ressemblance en se rendant attentif à la lumière reçue d’un dehors, le vectoriel produit la ressemblance en reconfigurant des proximités entre objets médiatiques déjà constitués. Deux gestes radicalement différents, bien qu’ils puissent aboutir à des images visuellement indiscernables, et c’est précisément cette indiscernabilité qui rend le basculement si difficile à percevoir.
L’automatisation de la ressemblance crédible
Tout semble désormais se ressembler. Cette intuition, que nous partageons sans toujours pouvoir la formuler, n’est pas une impression esthétique vague ni un symptôme générationnel de saturation culturelle. Elle est la conséquence logique de ce que l’IA a rendu possible : l’automatisation de la ressemblance crédible au-delà de l’indice.
Avant l’IA générative, la ressemblance crédible, celle qui fait que nous reconnaissons dans une image la trace d’une réalité possible, reposait largement sur l’indice photographique ou sur une modélisation de la réalité comme dans les logiciels de 3D. Nous croyions à l’image parce qu’elle portait en elle la marque d’un contact avec le monde. La crédibilité était, pour ainsi dire, sous-traitée à l’empreinte. Même les artifices, les mises en scène, les retouches opéraient sur un fond indiciel qu’il fallait maquiller mais qu’on ne pouvait produire ex nihilo.
L’IA générative déplace le lieu de la crédibilité. Elle produit de la ressemblance sans empreinte, par pure configuration vectorielle dans un espace latent. Ce qui garantit la crédibilité d’une image générée n’est plus le contact optique avec une scène, mais la densité statistique des régions de l’espace latent d’où l’image est extraite. Une image est crédible parce qu’elle ressemble à beaucoup d’autres images, parce qu’elle occupe une zone fréquentée du latent, parce que ses voisinages vectoriels sont denses. Cette crédibilité-là est d’une autre nature que la crédibilité indicielle, mais elle produit des effets perceptifs équivalents, sinon plus puissants, parce qu’elle n’est plus limitée par les contraintes matérielles de la captation.
D’où le sentiment, maintenant diffus, que tout semble déjà vu. Ce n’est pas que nous aurions effectivement déjà vu les images qui nous sont proposées : c’est que leur crédibilité découle précisément de leur ressemblance massive avec d’autres images, donc de leur inscription dans un tissu visuel dont elles ne font que réactualiser les régularités. La boucle médiatique dans laquelle semblaient enfermés certains artistes, du pop art fétichisant les icônes médiatiques au postcinéma des années 1990 rejouant inlassablement les mêmes films, jusqu’aux esthétiques rétromaniaques de la décennie 2010, est devenue le mode commun de la production culturelle. L’IA ne fait pas seulement la moyenne des médias passés : elle sait inventer en ressemblant à tout ce qui a déjà existé. Cette invention par ressemblance est paradoxale, elle produit du nouveau qui n’est jamais vraiment nouveau, parce que sa nouveauté même est un effet de la densité statistique des zones du latent dans lesquelles elle est puisée.
Le nouveau réalisme de l’anticipation inductive
Les grands modèles de langage ne traitent pas la réalité. Ils traitent des signes qui suivent d’autres signes. Leur opération fondamentale est une anticipation : quel signe vient ensuite, étant donné la séquence de ceux qui précèdent ? Cette anticipation se réalise grâce à la régularité de l’induction statistique et à la continuité de l’espace latent dans lequel les signes sont plongés. Elle ne suppose aucun accès au monde : elle suppose seulement un accès à la masse des signes déjà produits et une puissance de calcul suffisante pour en extraire les régularités.
Cette structure d’anticipation inductive se répand bien au-delà des modèles génératifs proprement dits. Elle devient la forme générale selon laquelle les représentations contemporaines se construisent et circulent. Les recommandations algorithmiques, les prédictions publicitaires, les complétions automatiques, les assistants conversationnels, les générateurs d’images : tous opèrent selon cette logique d’anticipation vectorielle qui prolonge statistiquement ce qui a déjà été. Et ce prolongement s’impose progressivement comme le mode par défaut de notre rapport au réel.
C’est pourquoi il faut parler, pour notre époque, d’un nouveau réalisme : un réalisme qui n’a plus pour fondement la fidélité indicielle à une réalité extérieure, mais la cohérence statistique d’une extrapolation inductive. Ce nouveau réalisme, que l’on pourrait nommer réalisme inductif ou réalisme vectoriel, produit des effets de crédibilité sans empreinte et des effets de vérité sans vérification. Il n’est pas moins puissant que le photoréalisme qu’il prolonge en le court-circuitant ; il est peut-être même plus puissant, parce qu’il s’affranchit des contraintes matérielles qui limitaient l’indexicalité photographique à ce qui existait déjà, pour atteindre le réalisme du possible, c’est-à-dire de la vérité de ce qui pourrait exister.
Le passage de l’empreinte au signe récursif vectoriel n’est donc pas un simple changement technique. Il engage un réagencement du régime épistémique selon lequel nous accordons ou refusons notre créance aux images, aux textes, aux sons qui nous parviennent. Dans l’empreinte, la créance dépendait d’un contact supposé entre le signe et son dehors. Dans le vectoriel, elle dépend de la densité des voisinages statistiques et de la fluidité des transitions dans l’espace latent. Deux manières différentes de peupler le monde de représentations, deux manières différentes d’habiter ces représentations.
La question n’est pas de savoir si l’une supplantera l’autre. Les empreintes continueront d’exister, les photographies argentiques continueront d’être prises, les enregistrements continueront d’enregistrer. Mais elles coexisteront désormais, et de manière de plus en plus serrée, avec un régime vectoriel qui ne leur doit plus grand-chose et qui, par sa puissance d’industrialisation de la ressemblance, tend à redéfinir les conditions dans lesquelles toute représentation circule, est reçue, est crue ou mise en doute. C’est cette coexistence, davantage que le remplacement, qui constitue l’événement propre de notre présent. L’IA n’a pas tué la photographie ; elle a fait passer la photographie dans un environnement où l’empreinte n’est plus ce qui garantit la ressemblance, mais seulement l’une de ses sources possibles, une source devenue, parmi d’autres, vectorisable.
AI, as it exists today, does not belong to the history of media in which one medium comes to replace another. We know this history and its caesuras: the passage from portrait painting to portrait photography, where the second “replaces” the first by forcing painters to retreat into their “artistic” freedom; the passage from cinema to television; the broken promises of virtual reality that was supposed to sweep away all media thanks to a reality more real than the real itself. This history accelerated with industrialization, which saw the emergence of photorealism—an indexical medium, or a medium of imprints, retaining a material trace of reality through the incidence of light on a sensitive surface—and it has never ceased since then to replay the same scene: one mode of representation displacing another, each displacement coming to overturn our ways of configuring the world and dwelling within it.
But AI is not a new medium. Or more precisely: it is something other than one more medium in this succession. It comes to metabolize its ancestors by comparing them, by vectorizing them, by assembling them dynamically in a latent space. It knows how to mimic not only cinema, but also eras, cameras, lenses, films, emulsions, and the entities that populate the image. It knows how to resemble everything that precedes it, such that it repeats prior media while changing their nature in the background, in the fold of its black box. For what it does is not produce this or that medium: it industrializes mimesis (mimésis) itself inductively. It opens a space of representations without images, without texts, without sounds—a space populated by abstract entities, vectors, which, through the conjunction of noise and correlations, produces on demand what we want to see, read, or hear.
Our media history was, at least in an important part, the chronology of the passage and interlocking of one medium within another. AI changes this history—not because, in learning from past media, it would be an end of (media) history that would recapitulate them all. It changes it because it makes a shift from a history of the imprint to a history of signs. And the latter has coexisted with the former for a long time, without our having truly measured what this coexistence implied at the moment when one of the two became industrialized.
The Imprint and Its Outside
The imprint is a relation to an exteriority. Analog photography, like casting, like phonographic recording, like the trace of footsteps in sand, presupposes a reality that exceeds it and that it comes to capture through contact—through the incidence of a wave, through the pressure of a body, through the inscription of a signal. The imprint is indexical in the Peircean sense: it maintains with its referent a relation of physical contiguity, however slight, however mediated by complex optical and chemical apparatuses. It is this contiguity that founds photographic belief, that epistemic adherence we accorded for more than a century to the imprint-image: it has been, according to Barthes’ formula, because it touched the sensitive surface of an apparatus capable of retaining it.
Photorealism industrializes this imprint, multiplies its occurrences, puts its traces into circulation—but it does not change its regime. The photographic image, even when produced by the millions, remains ontologically attached to a scene that preceded it and of which it is the luminous deposit. Even cinema, even video, even digital photography extend this regime: optical capture remains a way of letting the world imprint itself on a surface that records it, whether it be analog or digital. The imprint, in all its variants, derives its epistemic value from the fact that it points toward an outside that it is not.
The Recursive Vectorial Sign
The vectorial regime is otherwise. The vectors produced by generative models are not imprints, because they do not bear upon external realities. They bear upon media. More precisely: they bear upon media that they compare with each other to bring them closer through resemblance, to situate them in relation to one another in a continuous space whose dimensions correspond to no physical property of the world, but rather to statistical regularities extracted from masses of documents already produced.
A vector is therefore a sign, not an index. It touches nothing. It retains the trace of nothing that would exist independently of the mass of media from which it is derived. Its reference, if one can still speak of reference, is intra-mediatic: it returns to other images, other texts, other sounds which, themselves, might have returned to an exteriority, but whose vectorization precisely suspends this openness. A vectorial representation is a comparison between media, a calculated proximity between documentary objects. It no longer grasps reality: it grasps grasps.
One might object that indices themselves were already signs, and that this distinction between signs and indices is artificial. This would be to misunderstand what happens in the vectorial. In the regime of the imprint, the sign pointed outside itself toward a referent of which it was the mark. In the vectorial regime, the sign folds back upon other signs. It is a recursive sign: it refers to signs that refer to signs, and the recursion is constitutive, not accidental. There is no, in the final instance, an extramediatic level where the chain would stop to touch something other than itself. The datasets, the labelings, the encodings: all of this forms a universe closed upon which vectors operate, and it is this closure that renders resemblance automatizable.
What AI industrializes, then, is not a new form of imprint. It is the recursive vectorial sign as a generalized regime of representation. Where photorealism captured resemblance by attending to the light received from an outside, the vectorial produces resemblance by reconfiguring proximities among already-constituted mediatic objects. Two radically different gestures, although they may result in images that are visually indiscernible—and it is precisely this indiscernibility that makes the shift so difficult to perceive.
The Automatization of Credible Resemblance
Everything now seems to resemble everything else. This intuition, which we share without always being able to formulate it, is not a vague aesthetic impression nor a generational symptom of cultural saturation. It is the logical consequence of what AI has made possible: the automatization of credible resemblance beyond the index.
Before generative AI, credible resemblance—that which makes us recognize in an image the trace of a possible reality—rested largely on photographic indexicality. We believed in the image because it bore within it the mark of a contact with the world. Credibility was, so to speak, outsourced to the imprint. Even artifices, stagings, retouches operated on an indexical ground that had to be concealed but that one could not produce ex nihilo.
Generative AI shifts the locus of credibility. It produces resemblance without imprint, through pure vectorial configuration in a latent space. What guarantees the credibility of a generated image is no longer the optical contact with a scene, but the statistical density of the regions of latent space from which the image is extracted. An image is credible because it resembles many other images, because it occupies a frequented zone of the latent, because its vectorial neighborhoods are dense. This kind of credibility is of a different nature than indexical credibility, but it produces perceptual effects that are equivalent, if not more powerful, because it is no longer limited by the material constraints of capture.
Hence the sentiment, now diffuse, that everything seems already seen. It is not that we have actually already seen the images that are being presented to us: it is that their credibility derives precisely from their massive resemblance to other images, and therefore from their inscription in a visual tissue of which they do nothing but reactualize the regularities. The media loop in which certain artists seemed enclosed—from pop art fetishizing media icons to the postcinema of the 1990s tirelessly replaying the same films, to the retromanic aesthetics of the 2010s—has become the common mode of cultural production. AI does not merely average past media: it knows how to invent while resembling everything that has already existed. This invention through resemblance is paradoxical—it produces the new that is never quite new, because its newness itself is an effect of the statistical density of the regions of latent space from which it is drawn.
The New Realism of Inductive Anticipation
Large language models do not treat reality. They treat signs that follow other signs. Their fundamental operation is anticipation: what sign comes next, given the sequence of those that precede? This anticipation is realized through the regularity of statistical induction and the continuity of the latent space in which the signs are immersed. It presupposes no access to the world: it presupposes only access to the mass of signs already produced and sufficient computational power to extract the regularities from them.
This structure of inductive anticipation spreads far beyond generative models properly speaking. It becomes the general form according to which contemporary representations construct themselves and circulate. Algorithmic recommendations, advertising predictions, automatic completions, conversational assistants, image generators: all operate according to this logic of vectorial anticipation that statistically extends what has already been. And this extension progressively imposes itself as the default mode of our relation to the real.
This is why we must speak, for our era, of a new realism: a realism that no longer has as its foundation the indexical fidelity to an external reality, but rather the statistical coherence of an inductive extrapolation. This new realism—which one might call inductive realism or vectorial realism—produces effects of credibility without imprint and effects of truth without verification. It is no less powerful than the photorealism it extends by short-circuiting it; it is perhaps even more powerful, because it frees itself from the material constraints that limited photographic indexicality to what already existed.
The passage from the imprint to the recursive vectorial sign is therefore not a mere technical change. It engages a rearrangement of the epistemic regime according to which we grant or withhold our credence to the images, texts, and sounds that reach us. In the imprint, credence depended upon a supposed contact between the sign and its outside. In the vectorial, it depends on the density of statistical neighborhoods and the fluidity of transitions in the latent space. Two radically different ways of populating the world with representations, two radically different ways of dwelling in these representations.
The question is not whether one will supplant the other. Imprints will continue to exist, analog photographs will continue to be taken, recordings will continue to record. But they will henceforth coexist, and in an increasingly tight manner, with a vectorial regime that owes them nothing much anymore and which, through its power of industrializing resemblance, tends to redefine the conditions under which all representation circulates, is received, is believed or called into question. It is this coexistence, more than replacement, that constitutes the proper event of our present. AI has not killed photography; it has made photography pass into an environment where the imprint is no longer what guarantees resemblance, but only one of its possible sources—a source that has become, among others, vectorizable.