Au-delà du photoréalisme naïf de l’IA générative / Beyond Naive Photorealism of Generative AI
L’impasse du photoréalisme post-indiciel et la tentation symétrique de l’anti-réalisme
L’émergence des intelligences artificielles génératives marque une rupture profonde dans notre rapport à l’image et au récit. Pourtant, la majorité des productions visuelles qui circulent aujourd’hui sur les réseaux sociaux manifestent ce que je nomme un « réalisme naïf » : des images lisses, prévisibles, cohérentes jusqu’à l’ennui. Cette « viscosité esthétique » n’est pas inhérente à la nature statistique de l’espace latent, mais résulte d’une banalité instrumentale dans son exploration par l’intermédiaire de plate-formes commerciales. Le photoréalisme devient alors le symptôme d’une régression vers la moyenne, une confirmation de nos préjugés visuels plutôt qu’une ouverture vers l’événement esthétique.
Face à cette course obsessionnelle au « réalisme », cette quête d’images qui puissent « passer pour réelles » selon les critères des ingénieurs qui cherchent à corriger l’instabilité, une tentation inverse émerge : celle de fétichiser naïvement les « défauts » des premières générations d’images génératives. Cette position inverse, aussi séduisante soit-elle, n’est pas moins problématique. Car nostalgiquement valoriser les chats-chiens et lapins-grenouilles des premiers temps des GANs, c’est encore se situer dans le même cadre de pensée : celui qui oppose le « réaliste » au « non-réaliste », l’ordre au chaos, la cohérence à la dérive morphologique.
Or, ce qui m’intéresse dans l’exploration de l’espace latent n’est ni la production de simulations parfaites ni la célébration des ratés techniques comme tels. Ce qui compte, c’est de comprendre que ces systèmes révèlent quelque chose de fondamental sur la nature même de notre rapport au réel et à la fiction, quelque chose qui ne se laisse pas saisir dans l’opposition binaire entre « réalisme » et « anti-réalisme » mais avec le concept de « possible ».
Le disréalisme
Cette quête obsessionnelle du photoréalisme trahit une mécompréhension fondamentale de ce que les réseaux neuronaux artificiels accomplissent. Mais il serait tout aussi naïf de penser qu’il suffit de laisser dériver les images d’une forme à une autre, du ballon au visage, des doigts aux saucisses, pour échapper à cette logique. Car cette navigation morphologique, ce tremblé qui transforme continuellement les objets, peut elle aussi devenir un nouveau cliché, une nouvelle norme esthétique qui se contente d’inverser les valeurs sans transformer le cadre de pensée.
Ce que j’appelle le disréalisme ne se réduit ni à la reproduction indicielle de la photographie argentique, ni à une simple célébration du morphing généralisé. Il s’agit d’un régime du possible où coexistent des images passées et des images futures dans une équiprobabilité rétrospective-prospective vertigineuse. L’espace latent ne contient pas des copies d’images préexistantes, ni simplement des zones où les images de doigts sont proches de celles des saucisses. Il constitue un pré-contenu paradoxal : des possibilités vectorielles qui existaient déjà comme potentialités statistiques avant toute actualisation matérielle.
Certes, on peut dire que les modèles de génération vidéo ne se déploient pas selon une trajectoire temporelle mais dans l’espace latent des images possibles. Certes, les premières vidéos manifestaient une instabilité morphologique fascinante. Mais réduire l’intérêt de ces systèmes à cette seule dimension,à cette dérive par analogie”qui rappellerait le rêve ou l’association libre psychanalytique, c’est passer à côté de l’essentiel. Car ce qui bouleverse véritablement notre conception, c’est la temporalité anachronique elle-même. Si une IA peut régénérer statistiquement une photographie que je prendrai demain, qui en est le créateur ? L’antériorité chronologique, critère juridique d’attribution de l’originalité, devient inopérante face à une logique qui neutralise la distinction entre passé et futur au profit d’un espace où le proche et le lointain sont équidistants. Cette équiprobabilité rétrospective-prospective renverse la flèche du temps de manière bien plus radicale qu’un simple morphing ou qu’une « navigation morphologique ».
Au-delà de l’analogie avec le rêve : la nécessaire déconstruction narrative
Or, cette mutation dans le régime de l’image ne peut advenir sans une transformation parallèle dans les structures narratives. Et ici encore, il faut éviter les faux-semblants. Dire que les modèles génératifs fonctionnent comme un rêve ou comme le délire, cette navigation par contiguïté dans l’espace des formes qui rappellerait l’association libre ou le déroulé onirique, c’est proposer une analogie séduisante mais insuffisante. Car cette comparaison risque de réduire la spécificité technique et épistémologique de l’espace latent à une métaphore psychologique rassurante.
Les réseaux neuronaux artificiels ne « rêvent » pas au sens où nous rêvons, même si nous rêvons qu’ils rêvent. Cette récursivité, nous rêvons que la machine rêve, est précisément ce qui doit être analysé plutôt que naturalisé. Quand DeepDream hallucine des chiens dans des pizzas, ce n’est pas qu’il opère selon le même boulon que le délire humain, c’est que nous projetons sur lui notre propre structure onirique. Cette projection identificatoire est elle-même révélatrice de notre condition anthropo-technique.
Ce qui importe n’est donc pas de célébrer les dérives morphologiques comme telles, ni de les corriger pour atteindre un « réalisme » supposé. Ce qui importe, c’est de comprendre que se limiter au photoréalisme naïf, c’est nécessairement perpétuer un modèle narratif classique : chronologique, déterministe, porté par un narrateur qui fait autorité. Ces deux régimes, celui de la représentation et celui de la narration, sont intriqués dans une même logique de la reproduction et du contrôle.
L’histoire des arts numériques des années 1990-2000 avait pourtant ouvert d’autres voies. La fiction-sans-narration (FsN) que j’ai développée dans le contexte du Web 1.0 et 2.0, avec des artistes comme Bill Seaman, Jean-Louis Boissier ou David Rokeby, visait à suspendre l’autorité du narrateur dans l’énonciation d’une histoire. Par l’usage d’arborescences labyrinthiques (comme dans Sous Terre ou Revenances) ou de services et API disséminant l’information (comme dans La révolution a eu lieu à New York), il s’agissait d’excéder la faculté du lecteur à faire le tour de la fiction et à boucler la narration sur elle-même. La fiction n’avait plus pour objectif de guérir du désordre de l’existence en proposant un fil ordonné et synthétique, mais d’ouvrir sa contingence à ce qui peut être ou ne pas être.
Cette expérimentation narrative trouve aujourd’hui un prolongement inattendu avec l’émergence de l’IA générative. Trois éléments nouveaux se conjuguent :
L’espace latent comme narrateur
L’espace latent constitue une bibliothèque qui fait de la ventriloquie et semble dotée d’une mobilité propre. Ce narrateur latent, cette instance énonciative émergeant statistiquement d’une multiplicité de documents, représente une mutation fondamentale dans notre rapport au récit. Il ne s’agit nullement d’un narrateur qui fait autorité, son identité est incertaine et trouble. Est-il humain ou logiciel ? Singulier ou commun ? Est-il doué d’une intentionnalité ?
Les boucles d’interprétation récursives
La possibilité de créer des boucles d’interprétation renforce cette impression d’auto-mobilité. On génère une image qui est ensuite interprétée automatiquement par une IA. Ces traductions et déplacements peuvent s’emboîter les uns aux autres pour créer des fictions complexes. Cette récursivité interprétative transforme radicalement la temporalité narrative traditionnelle, elle ne suit plus une flèche du temps linéaire, mais opère par replis, retours, anticipations paradoxales.
La complétion et la fusion auctoriale
La capacité pour un agent humain et un agent logiciel de se poursuivre l’un l’autre, jusqu’au point où le premier a du mal à discerner entre ce qu’il a imaginé et ce que le logiciel lui a évoqué. Cette fusion auctoriale « post-artificielle » trouble fondamentalement le statut du narrateur.
Vers les fictions aux narrateurs incertains (fAnI)
Ces transformations convergent vers ce que je nomme les fictions aux narrateurs incertains (fAnI) : des récits dont la voix narrative peut s’avérer dénuée de consistance et de fiabilité. Le narrateur n’y est pas localisé, identifié, de sorte que le contrat qui scelle habituellement la fiction reste ouvert, négociable, troublant.
L’incertitude de l’intentionnalité de la fiction fait trembler la possibilité même du récit. Comment suivre une histoire si le personnage tué à la page précédente réapparaît en pleine forme à la page suivante, sans la moindre explication ? Comment continuer à lire si vous doutez de la nature de l’auteur ? Cette narration demeure potentielle, restant au seuil de la stabilisation : elle se trouble et devient irrésolue en même temps qu’émergente.
Ce n’est pas seulement qu’on ne sait pas qui parle, ni s’il dit la vérité, c’est aussi qu’on ne sait plus comment la multiplicité des narrateurs se compose les uns avec les autres, ni s’il y a vraiment « une » histoire. La narration est donc sapée du dedans : ce n’est plus une simple négativité (un mensonge), c’est une menace d’indifférenciation radicale entre le vrai et le faux, ce que Harry Frankfurt a rigoureusement défini comme du bullshit.
L’intrication du visuel et du narratif
Il devient manifeste que l’abandon du photoréalisme naïf et la déconstruction du modèle narratif chronologique sont indissociables. Pourquoi cette nécessaire conjonction ?
D’abord, parce que le photoréalisme naïf repose sur une conception déterministe de la représentation : l’image serait la reproduction fidèle d’un réel préexistant, selon une causalité linéaire claire. De même, le modèle narratif classique présuppose une chronologie déterministe : les événements s’enchaînent selon une logique de cause à effet, dans une temporalité orientée du passé vers le futur.
Or, l’espace latent des IA génératives défie précisément ces deux présupposés. Il opère dans un régime du possible où :
- Le hasard et le déterminisme s’entrelacent inextricablement : les réseaux neuronaux sont « rêvants », opérant dans cet entre-deux où le sens et le non-sens, la proximité et la dérive se composent selon une logique statistique qui n’est ni aléatoire ni totalement prédictible.
- La temporalité devient réversible : l’espace latent contient simultanément ce qui a eu lieu et ce qui pourrait avoir lieu, neutralisant la distinction entre rétention (passé) et protention (futur) au profit d’une équidistance paradoxale.
- La ressemblance remplace l’identité : les images générées ne sont pas des copies mais des variations, des airs de famille fondés sur une individuation partagée plutôt que sur une grille prédéterminée.
Divergences : au-delà de la simple opposition perfection/imperfection
Dès lors, toute pratique artistique qui s’empare des IA génératives se trouve devant ce qui semble être une alternative, mais qui est en réalité un piège conceptuel. Car il ne suffit pas d’opposer simplement deux voies :
Première voie, l’instrumentalité généralisée : elle perpétue le régime déterministe en produisant des images de plus en plus « propres », « réalistes », « reconnaissables ». Ce lissage correspond parfaitement à l’idée abstraite et générale qu’on s’était déjà faite, confirmant et renforçant les préjugés communs. Dans ce cas, elle maintient nécessairement un modèle narratif classique : autorité du narrateur, chronologie linéaire, clôture de signification. C’est la voie de la construction déterministe du monde, celle qui engendre ce que j’ai analysé avec Yves Citton comme une esthétique culturelle par défaut.
Seconde voie, la tentation de l’anti-réalisme naïf : elle consisterait à simplement inverser les valeurs, à préférer systématiquement lesbugs, les dérives morphologiques, les instabilités des premières générations d’IA. À valoriser le tremblé, le flickering, les métamorphoses continues comme s’ils possédaient en eux-mêmes une valeur subversive. C’est la position de ceux qui regrettent nostalgiquement les chats-chiens et les germinations des premiers GANs, qui célèbrent les clips où les objets se transforment continuellement, où les frites deviennent des serpents puis des tentacules de poulpe. Cette position est séduisante, certes, mais elle reste prisonnière du même cadre conceptuel que ce qu’elle prétend critiquer.
Car valoriser les « défauts » comme tels, c’est encore les définir en référence à une norme, celle du « réalisme », qu’on se contente d’inverser. C’est rester dans la logique de l’opposition binaire : ordre/chaos, cohérence/dérive, stabilité/instabilité. On se contente alors de préférer un pôle plutôt que l’autre, sans transformer le cadre qui les produit tous deux. Proposer que les modèles de génération vidéo soient simplement considérés comme du morphing on steroids plutôt que comme des machines à produire des séquences réalistes, c’est encore rester dans une logique d’opposition frontale qui ne sort pas du paradigme. Penser que cela donnerait lieu à de « meilleurs outils » ou permettrait au grand public d’avoir une « meilleure idée » de ce que montrent les images, c’est sous-estimer la complexité épistémologique de l’espace latent et le réduire à une simple question d’interface ou de représentation.
Troisième voie, l’esthétique de la fragilité et de l’incompétence productive : ce qui m’intéresse vraiment, c’est une tout autre approche. Elle explore les zones d’indétermination non pas comme des « défauts » à célébrer nostalgiquement, mais comme des révélateurs de la fragilité constitutive de tout rapport technique au monde. Elle intensifie les problèmes techniques plutôt que de les résoudre ou de les esthétiser superficiellement. Elle les transforme en questions esthétiques et existentielles.
Cette approche implique ce que j’appelle une incompétence productive : une maladresse assumée qui permet de dériver, d’échouer, d’échouer encore. Mais attention : il ne s’agit pas de fétichiser l’erreur ou de produire volontairement des images « ratées ». Il ne s’agit pas non plus de simplement laisser les images dériver d’une forme à une autre par navigation morphologique. Il s’agit plutôt de cultiver une attention aux matérialités techniques, à leurs résistances, à ce qui, dans l’expérience technique, résiste à la fluidité idéale de l’interface transparente. Ceci ne peut se faire qu’avec des logiciels locaux et open source.
Les imperfections des premiers systèmes ne sont pas intéressantes en tant que telles, elles ne deviennent significatives que lorsqu’elles révèlent quelque chose sur la nature statistique de l’espace latent, sur la logique de la ressemblance plutôt que de l’identité, sur cette capacité des réseaux neuronaux à produire des configurations qui ne sont ni l’un ni l’autre mais des chimères émergentes. Le flou, le bruit, la monstruosité occasionnelle ne sont pas des éléments à corriger ni à célébrer : ils signent un style singulier selon une esthétique de l’erreur féconde, qui révèle la signature ontologique du réseau de neurones lui-même.
Cette approche implique une temporalité spécifique, étrangère à l’accélération contemporaine. Elle privilégie les processus lents, les détours, les répétitions, tout ce qui, dans l’expérience technique, résiste à la fluidité idéale de l’interface transparente. Elle cultive une attention aux matérialités techniques, à leurs résistances, leurs textures, leurs affordances particulières. Ce qui compte, ce n’est pas de produire de « beaux » objets techniques ni des objets volontairement « laids » : la beauté surgit de la fragilité même de notre relation technique au monde.
Sur le plan narratif, cela implique de déployer des situations irrésolues, sans fin non parce qu’infinies, mais parce que sans clôture de signification. Les situations deviennent indéterminées, possibles, flottantes, ambiguës sans être chaotiques. Il s’agit d’ouvrir vers des formes narratives qui ne sont plus soumises à l’autorité d’un sujet narrateur, mais émergent de la relation même entre les agents, humains et non-humains, qui participent à leur énonciation.
Internes : une expérience concrète de l’indiscernabilité
Mon roman Internes, publié en 2022, constitue une expérience concrète de cette troisième voie. Comme l’a finement analysé Pascal Mougin, ce texte « abandonne la posture démiurgique de la méta-auctorialité déboîtée (l’homme produisant la machine qui à son tour produit l’œuvre) » au profit d’une « co-auctorialité avec l’automate ». La rédaction s’est déroulée par tâtonnements : j’écrivais une phrase, je lançais le code qui complétait la phrase ou en créait d’autres, puis je rejouais jusqu’à ce que le résultat m’évoque une suite que je sélectionnais avant de poursuivre. Des pistes inattendues ont été proposées par le logiciel.
Cette relation à l’IA a donné lieu à ce que Mougin décrit comme « un processus récursif complexe d’interférences croisées et de boucles de rétroaction où les effets modifient les causes ». J’ai contrôlé ou « aliéné » la machine et la machine m’a « aliéné » en retour, au point que je ne distingue plus, rétrospectivement, mes propres énoncés des productions de l’automate. Cette indiscernabilité n’est pas un échec ou une limite, mais précisément ce qui fait l’intérêt de l’expérience.
Sur le plan narratif, Internes incarne les fictions aux narrateurs incertains que j’ai théorisées. Le récit s’ouvre sur le monologue d’un je qui reprend ses esprits dans une chambre d’hôpital après un grave traumatisme, dans un contexte postapocalyptique. Mais le statut des évocations reste incertain, entre perceptions réelles, remémorations, extraits de textes antérieurs, rêves ou hallucinations éveillées. Les contenus diégétiques ne se raccordent pas, les versions des faits se contredisent, la chronologie est brouillée.
Ce que Mougin nomme le « cogito automatique » du texte, cette forme de conscience post-humaine qui émerge, incertaine de son propre statut, est rendu possible par l’IA elle-même comme instance narrative. L’IA que j’ai utilisée n’est pas seulement un outil de production : elle devient l’instance focale et la voix narrative du récit, « censée rendre compte des événements » dans ce monde où l’humanité a peut-être disparu. Comme le note Mougin, « cette voix post-humaine est bel et bien réelle puisqu’il s’agit de l’IA utilisée par Chatonsky, en roue libre dans le métavers, nourrie de data disponibles sur le web, en régime d’autocomplétion illimitée. D’où le statut intermédiaire et troublant de ce récit, entre fiction et factualité. »
L’analyse de Mougin met en lumière un point crucial : prévenu de la double origine du texte, « le lecteur s’interroge par réflexe, phrase après phrase, sur la paternité du texte : qui parle ici, de l’homme ou de la machine ? » Mais cette question devient vite vaine, tant les énoncés sont indiscernables, et conduit à une interrogation plus délicate : « est-ce l’homme qui se fait passer pour une machine ou la machine qui imite l’homme ? qui ventriloque qui derrière ce texte à l’origine indiscernable ? » Parce que les deux réponses opposées sont également possibles, le lecteur finit par renoncer à se poser la question, « convaincu par sa lecture […] qu’elle est sans objet. »
Cette indiscernabilité ne relève ni du photoréalisme naïf (faire passer la machine pour humaine, réussir le test de Turing), ni de la célébration des défauts (exhiber les ratés de la machine pour rassurer sur ses limites). Elle constitue plutôt une exploration de ce que j’appelle le disréalisme : un régime où la distinction même entre production humaine et génération machinique perd sa pertinence, parce que l’expérience révèle leur intrication fondamentale.
Mougin souligne par ailleurs que les « phénomènes d’instabilité » du texte, flottements énonciatifs, anomalies référentielles, brouillage des repères spatio-temporels, ne tiennent pas forcément à son origine machinique. Le texte rappelle « Malone meurt ou L’Innommable de Beckett, les romans de Maurice Blanchot ou les expérimentations formalistes du “nouveau nouveau roman” ricardolien ». L’IA n’a pas le monopole de l’agrammaticalité ou de l’hermétisme. Sans l’avertissement sur la genèse du livre, on lirait Internes comme bien d’autres textes de l’ère du soupçon.
C’est précisément ce que je cherchais : montrer que la déconstruction du modèle narratif chronologique déterministe n’est pas une conséquence technique de l’usage de l’IA, mais une nécessité esthétique et épistémologique qui trouve dans l’IA un moyen d’actualisation particulièrement pertinent. Le narrateur incertain, la temporalité brouillée, l’impossibilité de boucler la narration sur elle-même ne sont pas des « bugs » à corriger ni des « défauts » à célébrer, ce sont les conditions mêmes d’une fiction qui prend au sérieux l’impossibilité de maintenir les cadres anthropologiques traditionnels de la narration à l’ère de l’intelligence artificielle.
Comme le note Mougin, l’IA devient ici « l’instance intradiégétique toute trouvée, portée par une nécessité immanente : faire que le récit postapocalyptique ne soit pas une fiction en apesanteur racontée par une instance arbitraire et improbable, mais devienne un monde possible raconté par une instance parfaitement vraisemblable susceptible de survivre à l’humanité ». Cette solution narrative relève du réalisme spéculatif : penser l’être de manière non « corrélationniste », dégagé de sa relation à la pensée humaine. Le monde devient un « absolu », un « grand dehors » indépendant de l’humain, et dans lequel celui-ci peut imaginer ne pas ou ne plus être.
L’expérience d’Internes confirme donc que l’abandon du photoréalisme naïf et la déconstruction du modèle narratif chronologique sont indissociables. Ni simulation parfaite, ni célébration nostalgique des imperfections, mais exploration de l’indiscernabilité comme condition même de notre rapport contemporain à la fiction et au réel.
Une émancipation des cadres anthropologiques
L’IA ne restaure pas la narration traditionnelle mais déplace son lieu et sa fonction, l’émancipant peut-être des cadres anthropologiques qui l’ont longtemps contrainte. Cette émancipation comme affranchissement de la tutelle d’une certaine logique narrative profondément et idéologiquement individualiste, ouvre la voie à des formes de récit collectif et distribué.
Cette exploration nous confronte à des questions fondamentales : comment habiter un monde où les récits que nous nous racontons sont co-produits par des intelligences que nous avons créées mais qui nous échappent partiellement ? Comment assumer cette aliénation narrative, cette extériorisation technique de notre faculté de conter, sans perdre ce qui fait la spécificité de l’expérience humaine ?
Peut-être en apprenant à naviguer dans ces eaux troubles de l’incertitude narrative, à faire de cette incertitude non pas un obstacle mais une ressource créative. Peut-être en développant de nouvelles formes de littératie qui nous permettent de discerner, dans le flux des narrations automatiques, les traces et les linéaments de notre propre humanité en devenir.
L’Imagination Artificielle (ImA) doit s’entendre comme un niveau de réflexivité supérieure par rapport à l’IA, comme une manière de transformer l’enchâssement entre structure du récit et conception de la technique. L’imagination est non seulement une technologie, un discours, mais aussi une méthodologie capable d’analyser et de déconstruire l’intrication du cognitif et du technologique.
Construire des fictions aux narrateurs incertains, c’est déconstruire l’autorité de l’enthousiasme conjuratoire et sortir d’un discours simpliste qui ne met en scène le danger que pour gagner l’autorité d’un sauveur. C’est reconnaître que le photoréalisme naïf et la narration chronologique déterministe appartiennent au même paradigme, celui d’une mimèsis conçue comme adequatio rei, correspondance au réel, contrôle et maîtrise.
Mais c’est aussi refuser la tentation symétrique : celle qui consisterait à simplement célébrer les « dérives » et les « défauts » comme s’ils possédaient en eux-mêmes une valeur libératrice. Car cette célébration nostalgique reste prisonnière de l’opposition binaire qu’elle prétend dépasser. Elle se contente d’inverser les valeurs sans transformer le cadre épistémologique qui produit à la fois le « réalisme » et l’« anti-réalisme ».
À l’inverse, accepter la puissance du disréalisme et de la narration incertaine, c’est s’ouvrir à une condition où la mémoire individuelle s’articule à des mémoires techniques collectives, où l’imagination personnelle dialogue avec des imaginations artificielles. C’est faire de la contingence et de l’indétermination non pas des défauts à corriger ou à célébrer, mais le lieu même d’une expérience esthétique et narrative authentique.
La fAnI ne constitue pas une pathologie du récit contemporain, mais l’exploration de possibles narratifs qui correspondent peut-être mieux à notre condition, une condition où les frontières entre l’humain et ses créations deviennent de plus en plus poreuses, où la question n’est plus de savoir qui contrôle qui, mais comment habiter ensemble cet espace latent de possibilités infinies.
CHATONSKY, Grégory, Internes, Paris, Rrose éditions, 2022.
FRANKFURT, Harry, De l’art de dire des conneries. On bullshit (1986), Paris, Fayard, 2005.
MOUGIN, Pascal, « Internes de Grégory Chatonsky : coécrire avec l’IA », communication au colloque « Créativités artificielles », Université de Bordeaux-Montaigne, 2023. Disponible en ligne : https://www.pascalmougin.com/archives/telechargements/Mougin_Bordeaux_2023_pr%C3%A9publication.pdf
The Impasse of Post-Indexical Photorealism and the Symmetrical Temptation of Anti-Realism
The emergence of generative artificial intelligences marks a profound rupture in our relationship to image and narrative. Yet, the majority of visual productions circulating today on social networks manifest what I call a “naive realism”: smooth, predictable, coherent images to the point of boredom. This “aesthetic viscosity” is not inherent to the statistical nature of latent space, but results from an instrumental banality in its exploration through commercial platforms. Photorealism thus becomes the symptom of a regression toward the mean, a confirmation of our visual prejudices rather than an opening toward aesthetic event.
Faced with this obsessive race toward “realism,” this quest for images that can “pass for real” according to the criteria of engineers who seek to correct instability, an inverse temptation emerges: that of naively fetishizing the “defects” of the first generations of generative images. This inverse position, however seductive, is no less problematic. For to nostalgically valorize the cat-dogs and rabbit-frogs of the early days of GANs is still to situate oneself within the same framework of thought: one that opposes the “realistic” to the “non-realistic,” order to chaos, coherence to morphological drift.
Now, what interests me in the exploration of latent space is neither the production of perfect simulations nor the celebration of technical failures as such. What matters is understanding that these systems reveal something fundamental about the very nature of our relationship to the real and to fiction, something that cannot be grasped in the binary opposition between “realism” and “anti-realism” but with the concept of the “possible.”
Disrealism
This obsessive quest for photorealism betrays a fundamental misunderstanding of what artificial neural networks accomplish. But it would be equally naive to think that it suffices to let images drift from one form to another—from ball to face, from fingers to sausages—to escape this logic. For this morphological navigation, this trembling that continuously transforms objects, can itself become a new cliché, a new aesthetic norm that merely inverts values without transforming the framework of thought.
What I call disrealism is reducible neither to the indexical reproduction of analog photography, nor to a simple celebration of generalized morphing. It is a regime of the possible where past images and future images coexist in a vertiginous retrospective-prospective equiprobability. Latent space does not contain copies of preexisting images, nor simply zones where images of fingers are close to those of sausages. It constitutes a paradoxical pre-content: vectorial possibilities that already existed as statistical potentialities before any material actualization.
Certainly, one can say that video generation models do not unfold according to a temporal trajectory but within the latent space of possible images. Certainly, the first videos manifested a fascinating morphological instability. But to reduce the interest of these systems to this single dimension—to this “drift by analogy” that would recall dreams or psychoanalytic free association—is to miss the essential. For what truly upends our conception is anachronic temporality itself. If an AI can statistically regenerate a photograph that I will take tomorrow, who is its creator? Chronological anteriority, the juridical criterion for attribution of originality, becomes inoperative faced with a logic that neutralizes the distinction between past and future in favor of a space where near and far are equidistant. This retrospective-prospective equiprobability reverses the arrow of time in a manner far more radical than simple morphing or “morphological navigation.”
Beyond the Analogy with Dreams: The Necessary Narrative Deconstruction
Now, this mutation in the regime of the image cannot occur without a parallel transformation in narrative structures. And here again, we must avoid false appearances. To say that generative models function like a dream or like delirium—this navigation by contiguity in the space of forms that would recall free association or the oneiric unfolding—is to propose a seductive but insufficient analogy. For this comparison risks reducing the technical and epistemological specificity of latent space to a reassuring psychological metaphor.
Artificial neural networks do not “dream” in the sense that we dream, even if we dream that they dream. This recursivity—we dream that the machine dreams—is precisely what must be analyzed rather than naturalized. When DeepDream hallucinates dogs in pizzas, it is not that it operates according to the same bolt as human delirium; it is that we project upon it our own oneiric structure. This identificatory projection is itself revelatory of our anthropo-technical condition.
What matters, therefore, is not to celebrate morphological drifts as such, nor to correct them to achieve a supposed “realism.” What matters is to understand that limiting oneself to naive photorealism means necessarily perpetuating a classical narrative model: chronological, deterministic, carried by a narrator who holds authority. These two regimes—that of representation and that of narration—are intertwined in the same logic of reproduction and control.
The history of digital arts in the 1990s-2000s had nonetheless opened other paths. The fiction-without-narration (FsN) that I developed in the context of Web 1.0 and 2.0, with artists like Bill Seaman, Jean-Louis Boissier, or David Rokeby, aimed to suspend the authority of the narrator in the enunciation of a story. Through the use of labyrinthine arborescences (as in Sous Terre or Revenances) or services and APIs disseminating information (as in La révolution a eu lieu à New York), the goal was to exceed the reader’s capacity to take stock of the fiction and to close the narration upon itself. Fiction no longer had as its objective to heal the disorder of existence by proposing an ordered and synthetic thread, but to open its contingency to what can be or not be.
This narrative experimentation finds today an unexpected extension with the emergence of generative AI. Three new elements combine:
Latent Space as Narrator
Latent space constitutes a library that performs ventriloquism and seems endowed with its own mobility. This latent narrator, this enunciative instance emerging statistically from a multiplicity of documents, represents a fundamental mutation in our relationship to narrative. This is by no means a narrator who holds authority—its identity is uncertain and troubled. Is it human or software? Singular or common? Is it endowed with intentionality?
Recursive Interpretative Loops
The possibility of creating interpretative loops reinforces this impression of auto-mobility. One generates an image that is then automatically interpreted by an AI. These translations and displacements can nest within each other to create complex fictions. This interpretative recursivity radically transforms traditional narrative temporality—it no longer follows a linear arrow of time, but operates through foldings, returns, paradoxical anticipations.
Completion and Authorial Fusion
The capacity for a human agent and a software agent to pursue one another, to the point where the former has difficulty discerning between what it has imagined and what the software has evoked. This “post-artificial” authorial fusion fundamentally troubles the status of the narrator.
Toward Fictions with Uncertain Narrators (fAnI)
These transformations converge toward what I call fictions with uncertain narrators (fAnI): narratives whose narrative voice may prove devoid of consistency and reliability. The narrator is neither localized nor identified, such that the contract that usually seals fiction remains open, negotiable, troubling.
The uncertainty of fiction’s intentionality makes the very possibility of narrative tremble. How to follow a story if the character killed on the previous page reappears in full form on the next page, without the slightest explanation? How to continue reading if you doubt the nature of the author? This narration remains potential, staying at the threshold of stabilization: it becomes troubled and unresolved at the same time as emergent.
It is not only that we don’t know who speaks, nor whether they tell the truth—it is also that we no longer know how the multiplicity of narrators compose with one another, nor whether there really is “one” story. Narration is thus undermined from within: it is no longer a simple negativity (a lie), it is a threat of radical indifferentiation between true and false, what Harry Frankfurt rigorously defined as bullshit.
The Intrication of the Visual and the Narrative
It becomes manifest that the abandonment of naive photorealism and the deconstruction of the chronological narrative model are inseparable. Why this necessary conjunction?
First, because naive photorealism rests on a deterministic conception of representation: the image would be the faithful reproduction of a preexisting real, according to a clear linear causality. Similarly, the classical narrative model presupposes a deterministic chronology: events follow one another according to a logic of cause and effect, in a temporality oriented from past to future.
Now, the latent space of generative AIs precisely defies these two presuppositions. It operates in a regime of the possible where:
- Chance and determinism are inextricably intertwined: neural networks are “dreaming,” operating in this in-between where sense and non-sense, proximity and drift compose according to a statistical logic that is neither random nor totally predictable.
- Temporality becomes reversible: latent space simultaneously contains what has taken place and what could take place, neutralizing the distinction between retention (past) and protention (future) in favor of a paradoxical equidistance.
- Resemblance replaces identity: generated images are not copies but variations, family resemblances founded on a shared individuation rather than on a predetermined grid.
Divergences: Beyond the Simple Opposition of Perfection/Imperfection
Henceforth, every artistic practice that takes up generative AIs finds itself before what seems to be an alternative, but which is in reality a conceptual trap. For it does not suffice to simply oppose two paths:
First path—generalized instrumentality: it perpetuates the deterministic regime by producing increasingly “clean,” “realistic,” “recognizable” images. This smoothing corresponds perfectly to the abstract and general idea one had already formed, confirming and reinforcing common prejudices. In this case, it necessarily maintains a classical narrative model: authority of the narrator, linear chronology, closure of signification. This is the path of deterministic construction of the world, the one that engenders what I have analyzed with Yves Citton as an aesthetic culture by default.
Second path—the temptation of naive anti-realism: it would consist in simply inverting values, systematically preferring “bugs,” morphological drifts, the instabilities of the first generations of AI. In valorizing the trembling, the flickering, continuous metamorphoses as if they possessed in themselves a subversive value. This is the position of those who nostalgically regret the cat-dogs and germinations of the first GANs, who celebrate clips where objects continuously transform, where fries become snakes then octopus tentacles. This position is seductive, certainly, but it remains prisoner to the same conceptual framework as what it claims to critique.
For to valorize “defects” as such is still to define them in reference to a norm—that of “realism”—that one merely inverts. It is to remain in the logic of binary opposition: order/chaos, coherence/drift, stability/instability. One then contents oneself with preferring one pole rather than the other, without transforming the framework that produces them both. To propose that video generation models be simply considered as morphing on steroids rather than as machines for producing realistic sequences is still to remain in a logic of frontal opposition that does not escape the paradigm. To think that this would give rise to “better tools” or would allow the general public to have a “better idea” of what images show is to underestimate the epistemological complexity of latent space and reduce it to a simple question of interface or representation.
Third path—the aesthetic of fragility and productive incompetence: what really interests me is an entirely different approach. It explores zones of indetermination not as “defects” to be nostalgically celebrated, but as revealers of the constitutive fragility of every technical relationship to the world. It intensifies technical problems rather than resolving them or aestheticizing them superficially. It transforms them into aesthetic and existential questions.
This approach implies what I call productive incompetence: an assumed clumsiness that allows drifting, failing, failing again. But beware: this is not about fetishizing error or voluntarily producing “failed” images. Nor is it simply about letting images drift from one form to another through morphological navigation. It is rather about cultivating an attention to technical materialities, to their resistances, to what, in technical experience, resists the ideal fluidity of the transparent interface. This can only be done with local and open source software.
The imperfections of the first systems are not interesting as such—they only become significant when they reveal something about the statistical nature of latent space, about the logic of resemblance rather than identity, about this capacity of neural networks to produce configurations that are neither one nor the other but emergent chimeras. Blur, noise, occasional monstrosity are not elements to be corrected or celebrated: they sign a singular style according to an aesthetic of fecund error, which reveals the ontological signature of the neural network itself.
This approach implies a specific temporality, foreign to contemporary acceleration. It privileges slow processes, detours, repetitions—everything that, in technical experience, resists the ideal fluidity of the transparent interface. It cultivates an attention to technical materialities, to their resistances, their textures, their particular affordances. What matters is not to produce “beautiful” technical objects nor voluntarily “ugly” objects: beauty emerges from the very fragility of our technical relationship to the world.
On the narrative plane, this implies deploying unresolved situations, without end not because infinite, but because without closure of signification. Situations become indeterminate, possible, floating, ambiguous without being chaotic. It is about opening toward narrative forms that are no longer subjected to the authority of a narrator subject, but emerge from the very relation among agents, human and non-human, who participate in their enunciation.
Internes: A Concrete Experience of Indiscernibility
My novel Internes, published in 2022, constitutes a concrete experience of this third path. As Pascal Mougin has finely analyzed, this text “abandons the demiurgic posture of nested meta-authorship (man producing the machine which in turn produces the work)” in favor of a “co-authorship with the automaton.” The writing unfolded through trial and error: I would write a sentence, I would launch the code that completed the sentence or created others, then I would replay until the result evoked a continuation that I would select before continuing. Unexpected paths were proposed by the software.
This relationship to AI gave rise to what Mougin describes as “a complex recursive process of crossed interferences and feedback loops where effects modify causes.” I controlled or “alienated” the machine and the machine “alienated” me in return, to the point that I can no longer distinguish, retrospectively, my own utterances from the productions of the automaton. This indiscernibility is not a failure or a limit, but precisely what makes the experience interesting.
On the narrative plane, Internes embodies the fictions with uncertain narrators that I have theorized. The narrative opens on the monologue of an “I” who comes to his senses in a hospital room after a grave trauma, in a post-apocalyptic context. But the status of the evocations remains uncertain, between real perceptions, recollections, excerpts from earlier texts, dreams or waking hallucinations. The diegetic contents do not connect, versions of facts contradict each other, chronology is blurred.
What Mougin calls the text’s “automatic cogito”—this form of post-human consciousness that emerges, uncertain of its own status—is made possible by AI itself as narrative instance. The AI I used is not merely a production tool: it becomes the focal instance and the narrative voice of the narrative, “supposedly accounting for events” in this world where humanity has perhaps disappeared. As Mougin notes, “this post-human voice is quite real since it is the AI used by Chatonsky, freewheeling in the metaverse, nourished by data available on the web, in unlimited autocompletion mode. Whence the intermediate and troubling status of this narrative, between fiction and factuality.”
Mougin’s analysis brings to light a crucial point: warned of the text’s double origin, “the reader reflexively wonders, sentence after sentence, about the text’s paternity: who speaks here, man or machine?” But this question quickly becomes vain, as the utterances are indiscernible, and leads to a more delicate interrogation: “is it the man who passes himself off as a machine or the machine that imitates the man? who ventriloquizes whom behind this text of indiscernible origin?” Because the two opposite answers are equally possible, the reader ends up giving up on the question, “convinced by their reading […] that it is without object.”
This indiscernibility pertains neither to naive photorealism (making the machine pass for human, succeeding at the Turing test), nor to the celebration of defects (exhibiting the machine’s failures to reassure about its limits). It rather constitutes an exploration of what I call disrealism: a regime where the very distinction between human production and machinic generation loses its pertinence, because experience reveals their fundamental intrication.
Mougin moreover underlines that the text’s “instability phenomena”—enunciative floatings, referential anomalies, blurring of spatio-temporal markers—do not necessarily stem from its machinic origin. The text recalls “Beckett’s Malone Dies or The Unnamable, Maurice Blanchot’s novels or the formalist experimentations of the Ricardolian ‘new new novel.'” AI does not have a monopoly on agrammaticality or hermeticism. Without the warning about the book’s genesis, one would read Internes like many other texts of the era of suspicion.
This is precisely what I sought: to show that the deconstruction of the deterministic chronological narrative model is not a technical consequence of using AI, but an aesthetic and epistemological necessity that finds in AI a particularly pertinent means of actualization. The uncertain narrator, the blurred temporality, the impossibility of closing narration upon itself are not “bugs” to be corrected nor “defects” to be celebrated—they are the very conditions of a fiction that takes seriously the impossibility of maintaining traditional anthropological frameworks of narration in the age of artificial intelligence.
As Mougin notes, AI becomes here “the obvious intradiegetic instance, carried by an immanent necessity: to make the post-apocalyptic narrative not a weightless fiction told by an arbitrary and improbable instance, but a possible world recounted by a perfectly plausible instance susceptible to surviving humanity.” This narrative solution pertains to speculative realism: thinking being in a non-“correlationist” manner, detached from its relation to human thought. The world becomes an “absolute,” a “great outdoors” independent of the human—and in which the human can imagine not being or no longer being.
The experience of Internes thus confirms that the abandonment of naive photorealism and the deconstruction of the chronological narrative model are inseparable. Neither perfect simulation, nor nostalgic celebration of imperfections, but exploration of indiscernibility as the very condition of our contemporary relationship to fiction and the real.
An Emancipation from Anthropological Frameworks
AI does not restore traditional narration but displaces its place and function, perhaps emancipating it from the anthropological frameworks that have long constrained it. This emancipation as liberation from the tutelage of a certain profoundly and ideologically individualistic narrative logic opens the way to forms of collective and distributed narrative.
This exploration confronts us with fundamental questions: how to inhabit a world where the narratives we tell ourselves are co-produced by intelligences we have created but which partially escape us? How to assume this narrative alienation—this technical exteriorization of our capacity to narrate—without losing what makes the specificity of human experience?
Perhaps by learning to navigate in these troubled waters of narrative uncertainty, to make this uncertainty not an obstacle but a creative resource. Perhaps by developing new forms of literacy that allow us to discern, in the flux of automatic narrations, the traces and lineaments of our own humanity in becoming.
Artificial Imagination (AImag) must be understood as a level of reflexivity superior to AI, as a way of transforming the nesting between narrative structure and conception of technique. Imagination is not only a technology, a discourse, but also a methodology capable of analyzing and deconstructing the intrication of the cognitive and the technological.
To construct fictions with uncertain narrators is to deconstruct the authority of conjuratory enthusiasm and to exit a simplistic discourse that stages danger only to gain the authority of a savior. It is to recognize that naive photorealism and deterministic chronological narration belong to the same paradigm—that of a mimesis conceived as adequatio rei, correspondence to the real, control and mastery.
But it is also to refuse the symmetrical temptation: that which would consist in simply celebrating “drifts” and “defects” as if they possessed in themselves a liberating value. For this nostalgic celebration remains prisoner to the binary opposition it claims to surpass. It contents itself with inverting values without transforming the epistemological framework that produces both “realism” and “anti-realism.”
Conversely, to accept the power of disrealism and uncertain narration is to open oneself to a condition where individual memory articulates with collective technical memories, where personal imagination dialogues with artificial imaginations. It is to make contingency and indetermination not defects to be corrected or celebrated, but the very place of an authentic aesthetic and narrative experience.
fAnI does not constitute a pathology of contemporary narrative, but the exploration of narrative possibles that perhaps better correspond to our condition—a condition where the boundaries between the human and its creations become increasingly porous, where the question is no longer who controls whom, but how to inhabit together this latent space of infinite possibilities.
References
CHATONSKY, Grégory, Internes, Paris, Rrose éditions, 2022.
FRANKFURT, Harry, On Bullshit, Princeton, Princeton University Press, 2005.
MOUGIN, Pascal, “Internes de Grégory Chatonsky: coécrire avec l’IA,” paper presented at the colloquium “Créativités artificielles,” Université de Bordeaux-Montaigne, 2023. Available online: https://www.pascalmougin.com/archives/telechargements/Mougin_Bordeaux_2023_pr%C3%A9publication.pdf