Realistic repetition

Un système statistique produit un résultat réaliste quand celui-ci ressemble à quelque chose qui a été déjà vu. Le réalisme est donc, selon la terminologie de Stiegler, une rétention primaire de type perceptive qui se retrouve dans une rétention ternaire de type technique pour produire une rétention secondaire, c’est-à-dire une mélodie que nous nommons réalisme. Cette analyse s’appuie sur la compréhension stieglerienne du temps comme co-constitution originaire de trois formes de rétentions interdépendantes.

Chez Stiegler, la rétention primaire désigne le “tout-juste-passé” qui constitue l’épaisseur temporelle du présent vivant. Dans l’écoute d’une mélodie, chaque note retient en elle la note précédente, ce qui confère aux sons leur caractère musical. Cette rétention primaire n’est jamais pure : elle est toujours déjà informée par des critères de sélection issus de rétentions secondaires antérieures, c’est-à-dire de l’expérience passée sédimentée dans la mémoire. La rétention tertiaire, concept central de la pensée stieglerienne, désigne ces objets techniques de mémoire externe qui permettent la conservation et la transmission d’expérience au-delà de la vie individuelle. Dans le contexte des systèmes d’intelligence artificielle, cette structure rétentionnelle trouve une actualisation particulière où l’espace latent des réseaux de neurones fonctionne comme une forme industrialisée de rétention tertiaire.

Le réalisme devient mimesis quand les occurrences générées appartiennent à des rétentions différentes coordonnées dans cet espace technique. Ce processus correspond à ce que Stiegler analyse comme la “conscience temporelle généralisée”, où perception et imagination, primaire et secondaire, se trouvent désormais médiatisées par des rétentions tertiaires industrielles. On génère une vidéo réaliste non plus parce qu’elle constitue un indice photosensible direct du monde physique, ni parce qu’elle répond aux connaissances empiriques que nous possédons du monde, mais parce qu’elle ressemble suffisamment à du déjà-vu stocké dans les datasets d’entraînement.

Cette transformation du réalisme révèle ce que Stiegler nomme l’époque de la “désorientation”, où les objets temporels industriels court-circuitent les processus ordinaires de constitution temporelle de la conscience. L’espace latent peut produire des données identiques ou différentes qui restent dans le champ du possible défini statistiquement. Entre la stricte répétition du dataset d’entraînement et la différence pure du bruit des pixels, il y a un milieu qui constitue l’effet de réalisme recherché : assez proche du connu pour être reconnaissable, assez loin de l’archive pour apparaître comme nouveauté.

Plus un espace latent génère des résultats réalistes, plus il répète les patterns dominants de son corpus d’apprentissage, le maximum de la différence étant l’informe des pixels aléatoires. Le réalisme devient alors la comparaison entre l’expérience perceptive du monde et la sélection des possibles dans l’espace latent. Cette comparaison révèle que plus un média généré artificiellement apparaît réaliste, plus il correspond à une expérience qui a déjà eu lieu, plus il répète et donc plus il restreint les possibles. Cette dynamique correspond précisément à ce que Stiegler analyse comme la “prolétarisation généralisée”, processus par lequel les savoirs-faire, les savoirs-vivre et désormais les savoirs-imaginer sont progressivement déqualifiés par leur automatisation technique.

Cette analyse doit tenir compte du fait que cette comparaison dépend de ce que nous entendons par réalisme mondain, car selon les cultures et les époques, ce réalisme varie considérablement. Les systèmes statistiques sont réalistes au sens du naturalisme occidental, inscrivant leurs algorithmes dans une tradition représentationnelle particulière qui exclut d’autres formes possibles de rapport au monde et à l’image. Cette inscription culturelle des dispositifs techniques dans une esthétique dominante correspond à ce que Stiegler identifie comme la “mondialisation” du système technique, qui tend à homogénéiser les formes de vie en imposant partout les mêmes critères de sélection.

Une chronologie des évolutions récentes en matière de réalisme des productions artificielles révèle un phénomène particulièrement significatif. Les premières générations d’images produites par les systèmes génératifs présentaient des caractéristiques psychédéliques, hallucinatoires, surréalistes qui ouvraient sur des possibles esthétiques inédits. Ces productions échappaient aux codes visuels conventionnels et maintenaient ouvert ce que Stiegler nomme “l’indétermination constitutive” de l’expérience esthétique. Cependant, les résultats les plus récents perdent cette “folie des possibles” et ressemblent de plus en plus à des images déjà connues, extraites des flux visuels dominants.

Cette évolution révèle le paradoxe fondamental de l’optimisation technique dans le cadre de ce que Stiegler analyse comme l’époque des “industries culturelles”. Plutôt que de nous ouvrir à un réalisme alternatif, nous nous enthousiasmeons de voir les productions génératives ressembler aux flux visuels qui nous submergent déjà. Cette tendance privilégie la répétition sur la différence, car les cadres pour analyser celle-ci ne sont pas préétablis dans nos sociétés organisées par ce que Stiegler nomme le “capitalisme pulsionnel”. Le moindre défaut, la moindre étrangeté, le moindre décalage apparaissent comme des zones d’incertitude où certains continuent de percevoir de l’art et du possible, mais qui sont progressivement éliminées par les processus d’optimisation algorithmique.

Cette dynamique s’inscrit dans ce que Stiegler analyse comme l’industrialisation généralisée de la mémoire. Les systèmes d’intelligence artificielle constituent des rétentions tertiaires d’un type nouveau qui transforment radicalement les conditions de production et de réception des images. Comme toute technique, ces systèmes sont “pharmacologiques” : ils peuvent soit approfondir les circuits de “transindividuation noétique” en ouvrant de nouveaux possibles créatifs, soit les court-circuiter en produisant des automatismes qui appauvrissent l’expérience. La tendance actuelle vers un réalisme standardisé correspond à ce que Stiegler nomme la “prolétarisation”, où les facultés d’imagination et de discernement esthétique sont progressivement désactivées par leur automatisation.

Dans le contexte des espaces latents, cette prolétarisation se manifeste par une réduction de la dimensionnalité créative. Les systèmes optimisent leurs performances en convergeant vers les représentations statistiquement les plus probables, reproduisant les patterns visuels les plus fréquents dans les données d’entraînement. Cette convergence produit ce que Stiegler analyse comme un “consensus esthétique automatisé” qui écarte les possibles minoritaires ou expérimentaux. L’espace latent devient ainsi un espace de contrainte plutôt que de libération, reproduisant à l’échelle algorithmique le processus que Stiegler décrit comme la “grammatisation industrielle” de l’imagination.

Cette évolution s’inscrit dans ce que Stiegler analyse comme la constitution d’un “système mnémotechnique mondial” où toutes les formes de mémoire – génétique, épigénétique et épiphylogénétique – sont progressivement intégrées dans des dispositifs industriels de contrôle. Les intelligences artificielles génératives participent de cette intégration en automatisant non seulement la production d’images, mais les critères mêmes de leur évaluation esthétique. Ce processus correspond à ce que Stiegler nomme la “schématisation industrielle”, où les industries culturelles “schématisent pour leurs clients” en produisant des contenus qui court-circuitent l’activité imaginative des individus.

La question devient alors : comment concevoir des systèmes génératifs qui ne se contentent pas de reproduire le déjà-vu mais ouvrent effectivement sur de l’inédit ? Cette interrogation rejoint l’analyse stieglerienne des conditions de possibilité d’une “économie de la contribution” qui valoriserait la singularité et l’invention plutôt que la reproduction standardisée. Pour Stiegler, cela implique de développer des formes techniques qui soutiennent ce qu’il nomme les “processus d’individuation psychique et collective”, c’est-à-dire la capacité des individus et des communautés à se transformer par la confrontation à l’altérité.

Dans le contexte des intelligences artificielles, cela supposerait de concevoir des systèmes capables de cultiver ce que Stiegler nomme la “rétention primaire artificielle”, c’est-à-dire des formes techniques de mémoire qui enrichissent plutôt qu’appauvrissent notre capacité d’attention et de discrimination. Il s’agirait de préserver dans l’optimisation algorithmique une part irréductible d’indétermination qui maintienne ouverte la possibilité de l’événement esthétique, ce que Stiegler analyse comme la condition de toute véritable “expérience”.

Cette perspective nous confronte à ce que Stiegler identifie comme l’alternative civilisationnelle fondamentale de notre époque. Soit nous acceptons que l’intelligence artificielle converge vers la reproduction optimisée du déjà-connu, participant ainsi à ce que Stiegler analyse comme la “désintégration” des circuits de transindividuation. Soit nous cherchons à développer des formes techniques qui soutiennent et renouvellent notre capacité collective d’individuation par la confrontation à l’inédit. Cette seconde voie exige ce que Stiegler nomme une “nouvelle critique de l’économie politique” qui fasse droit à la différence et à l’invention plutôt qu’à la seule conformité aux attentes statistiquement probables.


A statistical system produces a realistic result when it resembles something that has already been seen. Realism is therefore, according to Stiegler’s terminology, a primary retention of perceptual type that finds itself in a tertiary retention of technical type to produce a secondary retention, that is to say a melody that we call realism. This analysis is based on the Stieglerian understanding of time as the originary co-constitution of three interdependent forms of retentions.

For Stiegler, primary retention designates the “just-past” that constitutes the temporal thickness of the living present. In listening to a melody, each note retains within itself the previous note, which gives sounds their musical character. This primary retention is never pure: it is always already informed by selection criteria derived from anterior secondary retentions, that is to say from past experience sedimented in memory. Tertiary retention, a central concept in Stieglerian thought, designates those technical objects of external memory that allow the conservation and transmission of experience beyond individual life. In the context of artificial intelligence systems, this retentional structure finds a particular actualization where the latent space of neural networks functions as an industrialized form of tertiary retention.

Realism becomes mimesis when the generated occurrences belong to different retentions coordinated in this technical space. This process corresponds to what Stiegler analyzes as “generalized temporal consciousness,” where perception and imagination, primary and secondary, are now mediated by industrial tertiary retentions. One generates a realistic video no longer because it constitutes a direct photosensitive index of the physical world, nor because it responds to the empirical knowledge we possess of the world, but because it sufficiently resembles already-seen content stored in training datasets.

This transformation of realism reveals what Stiegler calls the epoch of “disorientation,” where industrial temporal objects short-circuit the ordinary processes of temporal constitution of consciousness. The latent space can produce identical or different data that remain within the field of possibility statistically defined. Between the strict repetition of the training dataset and the pure difference of pixel noise, there is a milieu that constitutes the desired realism effect: close enough to the known to be recognizable, far enough from the archive to appear as novelty.

The more a latent space generates realistic results, the more it repeats the dominant patterns of its learning corpus, with the maximum of difference being the formless randomness of pixels. Realism then becomes the comparison between perceptual experience of the world and the selection of possibles in the latent space. This comparison reveals that the more an artificially generated medium appears realistic, the more it corresponds to an experience that has already taken place, the more it repeats and therefore the more it restricts possibilities. This dynamic corresponds precisely to what Stiegler analyzes as “generalized proletarianization,” the process by which know-how, ways of living, and now ways of imagining are progressively disqualified through their technical automation.

This analysis must take into account that this comparison depends on what we understand by worldly realism, for according to cultures and epochs, this realism varies considerably. Statistical systems are realistic in the sense of Western naturalism, inscribing their algorithms within a particular representational tradition that excludes other possible forms of relationship to the world and to the image. This cultural inscription of technical devices within a dominant aesthetic corresponds to what Stiegler identifies as the “globalization” of the technical system, which tends to homogenize forms of life by imposing the same selection criteria everywhere.

A chronology of recent developments in the realism of artificial productions reveals a particularly significant phenomenon. The first generations of images produced by generative systems presented psychedelic, hallucinatory, surrealistic characteristics that opened onto unprecedented aesthetic possibilities. These productions escaped conventional visual codes and maintained open what Stiegler calls the “constitutive indetermination” of aesthetic experience. However, the most recent results lose this “madness of possibilities” and increasingly resemble already-known images, extracted from dominant visual flows.

This evolution reveals the fundamental paradox of technical optimization within what Stiegler analyzes as the epoch of “cultural industries.” Rather than opening us to an alternative realism, we become enthusiastic about seeing generative productions resemble the visual flows that already overwhelm us. This tendency privileges repetition over difference, because the frameworks for analyzing difference are not pre-established in our societies organized by what Stiegler calls “pulsional capitalism.” The slightest defect, the slightest strangeness, the slightest deviation appear as zones of uncertainty where some continue to perceive art and possibility, but which are progressively eliminated by algorithmic optimization processes.

This dynamic is inscribed within what Stiegler analyzes as the generalized industrialization of memory. Artificial intelligence systems constitute tertiary retentions of a new type that radically transform the conditions of production and reception of images. Like any technique, these systems are “pharmacological”: they can either deepen the circuits of “noetic transindividuation” by opening new creative possibilities, or short-circuit them by producing automatisms that impoverish experience. The current tendency toward standardized realism corresponds to what Stiegler calls “proletarianization,” where the faculties of imagination and aesthetic discernment are progressively deactivated through their automation.

In the context of latent spaces, this proletarianization manifests as a reduction of creative dimensionality. Systems optimize their performance by converging toward statistically most probable representations, reproducing the most frequent visual patterns in training data. This convergence produces what Stiegler analyzes as an “automated aesthetic consensus” that excludes minority or experimental possibilities. The latent space thus becomes a space of constraint rather than liberation, reproducing at the algorithmic scale the process that Stiegler describes as the “industrial grammatization” of imagination.

This evolution inscribes itself within what Stiegler analyzes as the constitution of a “worldwide mnemotechnical system” where all forms of memory – genetic, epigenetic, and epiphylogenetic – are progressively integrated into industrial control devices. Generative artificial intelligences participate in this integration by automating not only the production of images, but the very criteria of their aesthetic evaluation. This process corresponds to what Stiegler calls “industrial schematization,” where cultural industries “schematize for their clients” by producing content that short-circuits individuals’ imaginative activity.

The question then becomes: how to conceive generative systems that do not merely reproduce the already-seen but effectively open onto the unprecedented? This interrogation joins Stiegler’s analysis of the conditions of possibility for an “economy of contribution” that would valorize singularity and invention rather than standardized reproduction. For Stiegler, this implies developing technical forms that support what he calls “processes of psychic and collective individuation,” that is to say the capacity of individuals and communities to transform themselves through confrontation with alterity.

In the context of artificial intelligences, this would suppose conceiving systems capable of cultivating what Stiegler calls “artificial primary retention,” that is to say technical forms of memory that enrich rather than impoverish our capacity for attention and discrimination. It would involve preserving in algorithmic optimization an irreducible part of indetermination that maintains open the possibility of aesthetic event, what Stiegler analyzes as the condition of all genuine “experience.”

This perspective confronts us with what Stiegler identifies as the fundamental civilizational alternative of our epoch. Either we accept that artificial intelligence converges toward the optimized reproduction of the already-known, thus participating in what Stiegler analyzes as the “disintegration” of transindividuation circuits. Or we seek to develop technical forms that support and renew our collective capacity for individuation through confrontation with the unprecedented. This second path requires what Stiegler calls a “new critique of political economy” that acknowledges difference and invention rather than mere conformity to statistically probable expectations.