L’image dégénérée / The Degenerate Image

L’émergence des technologies de diffusion dans le domaine de la génération d’images constitue un bouleversement qui transcende les simples considérations techniques pour interroger les fondements mêmes de notre rapport aux représentations visuelles. Ce phénomène, que nous proposons d’analyser sous le concept de « dégénération », révèle une rupture ontologique majeure dans l’histoire des images, distincte de toute conception antérieure de la décadence artistique ou culturelle.
La dégénération, telle que nous l’entendons ici, ne renvoie pas à une corruption ou à une perte d’authenticité, mais désigne le processus par lequel les images acquièrent une capacité inédite de différenciation perpétuelle, échappant aux logiques traditionnelles de l’original et de la copie. Cette transformation s’opère au cœur même des modèles de diffusion, ces architectures computationnelles qui transforment notre compréhension du bruit, de l’information et de la génération de sens.
Génération et (re)dégénération
Si les technologies de génération d’images ont souvent été présentées sous l’angle de la création ex nihilo, cette perspective masque la complexité des processus à l’œuvre. La génération, comprise comme processus de text-to-image (txt2img), constitue certes le mode le plus visible de ces technologies, mais elle ne révèle qu’une facette d’une transformation plus profonde de notre économie visuelle.
Le processus txt2img, qui consiste à générer une image à partir d’une description textuelle (prompt), repose sur une corrélation statistique entre millions d’images et leurs descriptions respectives, rendue possible par des systèmes comme CLIP (Contrastive Language-Image Pre-training). Cette corrélation donne l’illusion d’un pilotage intuitif de la production visuelle par le langage naturel, créant ce que l’on pourrait appeler un « effet télépathique » dans la création d’images.
Cette fascination pour l’apparente magie du processus génératif révèle en réalité une transformation radicale du rapport entre langage et image, entre différence et répétition. Car si ces systèmes produisent effectivement de la nouveauté visuelle, ils opèrent simultanément une répétition de patterns statistiques extraits de millions d’images préexistantes. Cette tension entre innovation et reproduction constitue un véritable tremblement de terre dans l’histoire des représentations matérielles.
Cependant, c’est peut-être dans la modalité image-to-image (img2img) que se révèle le mieux la nature profonde de cette transformation. Ce processus, qui consiste à générer une nouvelle image à partir d’une image source existante, introduit un niveau de contextualité variable qui éclaire d’un jour nouveau les logiques génératives.
L’avantage apparent de cette approche réside dans sa capacité à hériter non seulement de patterns statistiques globaux, mais également de la structure spécifique d’une image indicielle particulière. Cette hérédité dual permet de réduire le spectre des possibilités tout en introduisant des variations contrôlées. La « palette » des transformations possibles semble infinie, comme si chaque image singulière contenait virtuellement une multiplicité d’autres images, d’autres mondes possibles.
Cette capacité à explorer des variations infinies à partir d’un substrat visuel unique révèle une propriété fondamentale des espaces latents : leur capacité à transformer toute image discrète en ressource générative. L’image photographique n’est plus seulement la trace d’une réalité extérieure, mais devient le point de départ d’une exploration de possibles visuels, créant ce que nous pourrions appeler des images d’images.
Cette récursivité générative, où nous produisons non seulement une multiplication quantitative des images, mais également leur différenciation qualitative, nous conduit au cœur du concept de « dégénération ». Ce terme, que nous choisissons délibérément malgré ses connotations historiques problématiques, permet de saisir un processus qui ne relève ni de la simple génération ni de la reproduction.
La dégénération désigne ainsi le fait de générer un document visuel à partir de la rencontre entre un espace latent — cet espace mathématique multidimensionnel où opèrent les modèles de diffusion — et un document discret, le plus souvent indiciel, afin de préserver certaines caractéristiques de ce dernier tout en y introduisant des différences contrôlées. Cette définition révèle la nature hybride du processus : ni pure création, ni simple transformation, mais actualisation de possibles contenus dans l’intersection entre le global (l’espace latent) et le singulier (l’image source).
La diffusion du bruit
Les modèles de diffusion opèrent une révolution conceptuelle dans notre compréhension du bruit, remettant en question l’héritage de la théorie de l’information de Claude Shannon et de la cybernétique de Norbert Wiener. Cette transformation ne constitue pas seulement un progrès technique, mais révèle une nouvelle économie informationnelle aux implications philosophiques profondes.
Dans la conception traditionnelle, héritée de Shannon, l’information se définissait comme réduction d’incertitude, mesurée en bits. Le bruit représentait l’entropie destructrice, cette perturbation aléatoire qui dégrade l’information et qu’il fallait éliminer pour restaurer le message original. Wiener, développant les méthodes de filtrage cybernétique, cherchait à extraire le signal utile du bruit parasite. Cette opposition binaire signal/bruit structurait l’ensemble de l’ingénierie des communications selon une logique d’amplification du premier et de réduction du second.
Les modèles de diffusion renversent cette hiérarchie ontologique. Dans ces systèmes, le bruit cesse d’être l’ennemi de l’information pour devenir paradoxalement son générateur. Le processus d’entraînement de ces modèles consiste précisément à observer la dégradation progressive d’images cohérentes sous l’effet d’un bruit gaussien, permettant au système d’apprendre à identifier les patterns statistiques qui distinguent le signal du bruit à chaque niveau de corruption.
Cette approche révèle une propriété fondamentale du bruit dans le contexte computationnel : sa réversibilité informationnelle. Contrairement à l’entropie thermodynamique, qui croît irréversiblement selon le second principe de la thermodynamique, l’entropie informationnelle peut être inversée à condition de disposer du décodeur approprié. Les modèles de diffusion constituent précisément ce décodeur universel, capable de retrouver l’organisation sous-jacente même dans le chaos apparent.
Le processus génératif exploite systématiquement cette réversibilité. Partant d’un bruit pur — état d’entropie maximale dans l’espace des pixels — le système applique successivement des corrections guidées par une description textuelle ou par une image source. Chaque étape réduit l’entropie locale tout en préservant la cohérence globale, reconstituant progressivement un signal visuel reconnaissable.
Cette dynamique évoque les systèmes auto-organisés de la cybernétique de second ordre, telle que développée par Heinz von Foerster. Comme dans ses théories sur l’« ordre à partir du bruit », le désordre apparent révèle des structures latentes que seul un observateur sophistiqué — ici, le modèle de diffusion — peut détecter et actualiser.
L’espace latent de ces modèles fonctionne ainsi comme un filtre sémantique au sens cybernétique du terme : il extrait des patterns signifiants à partir d’inputs apparemment chaotiques. Cette inversion du rapport signal/bruit transforme l’entropie en ressource créative, ouvrant la voie à une nouvelle économie informationnelle où le chaos devient productif plutôt que destructeur.
Cette transformation révèle également la nature cyclique du processus génératif. Le bruit occupe une position paradoxale dans les modèles de diffusion : il constitue simultanément l’origine et la destination potentielle de toute image générée, révélant une structure temporelle que le concept de dégénération permet d’éclairer avec précision.
Au commencement de chaque génération se trouve le bruit : un tenseur de valeurs aléatoires, pur désordre statistique sans structure apparente. C’est le degré zéro de l’information visuelle, l’entropie maximale dans l’espace des pixels. Le processus de débruitage extrait progressivement de l’ordre à partir de ce chaos primordial, révélant des formes, des textures, puis une cohérence sémantique complète. Cette génération ex nihilo évoque les cosmogonies anciennes : l’organisation émerge d’une khora initiale, d’un espace indifférencié de pure potentialité.
Cependant, cette création porte en elle sa propre possibilité de retour au chaos. Lorsqu’une image générée est utilisée comme point de départ pour produire une nouvelle image — processus au cœur de la dégénération —, le système réintroduit inévitablement du bruit. Chaque cycle génératif accumule des erreurs de quantification, des approximations de calcul, des biais statistiques imperceptibles individuellement, mais qui s’amplifient à chaque itération.
Cette dynamique de dégénération suit les lois de la thermodynamique informationnelle. Comme une photocopie de photocopie, chaque génération successive peut dégrader la fidélité du signal original, bien que cette dégradation ne soit pas toujours négative. Les détails fins peuvent disparaître, remplacés par des artefacts caractéristiques. Les textures se simplifient, les couleurs se standardisent selon les moyennes statistiques du modèle. Progressivement, la diversité visuelle peut s’appauvrir : les visages convergent vers des archétypes, les paysages vers des clichés, les compositions vers des formules répétitives.
Crucial pour notre analyse : le bruit d’origine et le bruit terminal ne sont pas identiques. Au commencement, le bruit consiste en pixels discrets, distribution aléatoire de valeurs numériques. À la fin du processus dégénératif, le bruit se manifeste souvent sous forme d’aplats de couleurs, de formes courbes, d’éléments qui se répandent de manière caractéristique. Cette différence qualitative révèle que la dégénération ne constitue pas un simple retour à l’état initial, mais une transformation dialectique où le bruit lui-même évolue.
Le concept biologique de dégénération s’applique remarquablement à ce phénomène computationnel. Comme un patrimoine génétique qui s’appauvrit par consanguinité, l’espace latent du modèle peut se contracter lors de générations successives autophages. Les zones de l’espace vectoriel les moins représentées dans les données d’entraînement deviennent progressivement inaccessibles, créant des « déserts génératifs » où certaines configurations visuelles disparaissent définitivement.
Cette dégénération révèle la nature fondamentalement entropique des modèles de diffusion. Bien qu’ils semblent créer de l’ordre à partir du chaos, ils ne font que redistribuer l’entropie selon des patterns appris, sans véritablement la réduire globalement. L’apparente créativité masque une tendance potentielle vers l’homogénéisation. Le bruit, temporairement vaincu par l’algorithme de débruitage, peut progressivement reprendre ses droits jusqu’à reconquérir partiellement l’image.
Ainsi se dessine un cycle cosmologique de l’image générée : du bruit originel au bruit terminal, elle traverse un arc de complexité croissante puis potentiellement décroissante, révélant la vanité de toute prétention à l’infini informationnel et ouvrant simultanément des possibilités créatives inédites.
L’art dégénéré et la réalité de la décadence
L’usage du terme « dégénération » dans le contexte de la génération d’images nécessite une clarification rigoureuse de ses rapports avec la théorie nazie de l’« art dégénéré » (Entartete Kunst). Cette distinction ne relève pas seulement de la prudence terminologique, mais révèle deux économies radicalement distinctes qui structurent des rapports différents à l’origine, à la fin, et à la nature même du processus créatif.
La théorie de l’art dégénéré développée par le régime nazi puise ses racines conceptuelles dans les théories de la dégénérescence élaborées au XIXe siècle, notamment par Max Nordau. Dans son ouvrage « Dégénérescence » (1892), ce médecin et critique social développe une théorie pseudo-scientifique qui assimile certaines productions artistiques à des symptômes pathologiques d’une décadence civilisationnelle. Nordau, juif et cofondateur du mouvement sioniste, forge le concept d’art dégénéré comme « déviation morbide d’un type originel » qui menace la pureté culturelle européenne.
Pour les théoriciens nazis comme Alfred Rosenberg et Adolf Ziegler, l’art dégénéré constitue une corruption de l’essence artistique aryenne. Cette corruption procède d’une contamination extérieure : l’influence « judéo-bolchevique » corrompt l’authenticité créatrice germanique. La théorie nazie postule l’existence d’un moment originel de pureté artistique, incarné par l’art grec antique et l’art allemand traditionnel, qui aurait été progressivement souillé par des influences étrangères.
Cette conception implique une temporalité téléologique spécifique : l’art dégénéré représente une chute par rapport à un idéal originel qu’il s’agit de restaurer. La fin visée par la politique culturelle nazie consiste précisément en cette restauration purificatrice. L’élimination de l’art dégénéré ne vise pas seulement la destruction, mais la régénération d’un art authentiquement allemand. Cette régénération suppose le retour à un état antérieur de pureté raciale et culturelle.
L’exposition « Entartete Kunst » de 1937 à Munich fonctionne ainsi comme un rituel d’expiation collective : en exposant l’art dégénéré à la vindicte publique, le régime entend opérer une catharsis qui permettra l’émergence de l’art nouveau. Cette économie de la pureté originelle s’articule autour de plusieurs principes fondamentaux : l’essentialisme racial (il existe une essence artistique aryenne immuable, biologiquement déterminée), la causalité contaminatrice (la dégénérescence résulte d’un contact avec l’altérité), et la réversibilité purificatrice (moyennant l’élimination des influences étrangères, l’art peut retrouver sa pureté primordiale).
Cette conception nazie de l’origine et de la fin contraste avec l’économie informationnelle des modèles de diffusion. Dans les systèmes génératifs, l’origine n’est pas une pureté essentielle, mais un bruit stochastique, ensemble de valeurs aléatoires dépourvu de signification intrinsèque. Ce bruit originel ne porte aucune détermination culturelle, raciale ou idéologique : il constitue le degré zéro de l’information, l’entropie maximale dans l’espace des possibles visuels.
L’origine n’est donc pas une essence à préserver, mais un chaos productif à organiser. La fin du processus génératif ne vise aucune restauration d’un idéal antérieur. L’image générée émerge d’un processus de différenciation progressive qui ne tend vers aucun modèle transcendant. Chaque génération constitue une actualisation singulière des patterns statistiques appris, sans référence à une norme esthétique absolue.
La « dégénération » des modèles de diffusion — leur tendance potentielle à l’homogénéisation lors de générations successives — ne procède pas d’une corruption externe, mais d’une entropie interne du système lui-même. Cette entropie ne constitue pas une pathologie à corriger, mais une caractéristique structurelle qui peut être exploitée créativement.
Plus fondamentalement, là où l’idéologie nazie conçoit l’art selon une logique de l’identité (préservation de l’essence aryenne), les modèles de diffusion opèrent selon une logique de la différence (génération de variations imprévisibles). L’art nazi cherche à éliminer l’altérité pour révéler l’identité substantielle du Volk allemand. Les systèmes génératifs, inversement, produisent de l’altérité à partir de l’indifférencié : ils créent de la diversité visuelle à partir du bruit homogène.
Cette opposition révèle deux rapports distincts à la temporalité. L’idéologie nazie s’inscrit dans une temporalité cyclique : après la décadence vient la régénération, selon un éternel retour de l’identique. L’art authentique doit restaurer les valeurs éternelles de la race aryenne. Les modèles de diffusion s’inscrivent dans une temporalité linéaire et irréversible : chaque génération constitue un événement singulier qui ne peut être répété à l’identique.
L’économie de la pureté nazie suppose une transcendance : l’essence aryenne existe indépendamment de ses manifestations empiriques et doit être préservée contre toute contamination. L’économie informationnelle des modèles de diffusion est rigoureusement immanente : il n’existe aucune essence artistique préalable aux processus de génération. L’image n’actualise aucun modèle transcendant, mais émerge de la pure contingence des calculs probabilistes.
Cette analyse révèle pourquoi le concept de « dégénération » appliqué aux images génératives ne peut être assimilé à la théorie nazie de l’art dégénéré. Dans le premier cas, la dégénération nomme un processus naturel d’entropisation informationnelle potentiellement créatif. Dans le second, elle désigne une corruption morale qu’il s’agit d’éradiquer.
Ces deux économies expriment des ontologies fondamentalement divergentes qui structurent leur rapport à la réalité, à la nécessité et à la contingence. L’ontologie nazie s’ancre dans une métaphysique de la réalité substantielle. Pour cette idéologie, il existe une réalité authentique préexistante — l’essence aryenne — qui constitue la véritable nature du monde. Cette réalité originelle a été occultée, corrompue par des forces étrangères, mais elle demeure comme fond ontologique indestructible.
L’art dégénéré masque cette réalité authentique, créant un voile d’apparences trompeuses qui empêche l’accès à la vérité raciale. La mission purificatrice consiste à retrouver cette réalité perdue, à la dévoiler en éliminant les obstacles qui l’obscurcissent. Cette ontologie postule que la réalité précède sa manifestation et que l’art authentique doit révéler des vérités éternelles inscrites dans l’être même du peuple allemand.
L’ontologie implicite des modèles de diffusion procède inversement d’une logique de la contingence productive. Ici, aucune réalité ne préexiste au processus génératif. L’image émerge de la pure contingence des calculs probabilistes, sans référence à une essence transcendante. Le système ne découvre pas une réalité cachée, mais invente de la réalité par actualisation de possibles virtuels.
Cette ontologie assume la contingence radicale : il n’y a pas de raison nécessaire pour qu’une image particulière émerge plutôt qu’une autre. La ressemblance avec le réel ne procède pas d’une correspondance à une essence préalable, mais d’une corrélation statistique avec des patterns appris. C’est pourquoi ces images semblent souvent « faire dégénérer » la réalité elle-même (doigts supplémentaires, déformations, métamorphoses, monstruosités, contrefactualités).
Le réel devient ainsi effet de ressemblance plutôt que cause de vérité. Cette ontologie corrélationniste ne postule aucun en-soi de l’image : la réalité visuelle se constitue dans et par le processus de génération lui-même, selon une logique immanente qui fait du possible la condition du réel plutôt que l’inverse.
L’espace des possibles :
Il convient de percevoir cette esthétique de la dégénération sans présupposer qu’elle garantisse un horizon politique spécifique. Cette esthétique peut en effet être instrumentalisée par des logiques que nous pourrions qualifier de « vectofascistes » — ces nouvelles formes de fascisme qui opèrent par manipulation algorithmique des affects et des représentations. Cependant, elle ne répond pas à la même structure ontologique que le photoréalisme traditionnel.
C’est en considérant l’espace latent comme un véritable espace de possibles qu’il devient possible d’aborder cette question avec la complexité qu’elle mérite. La dégénérescence, dans ce contexte, ne désigne pas une décadence envers une origine mythifiée, mais la possibilité de faire évoluer une image indicielle vers d’autres réalités. Cette évolution s’opère parce que l’image, lorsqu’elle est associée à un espace latent, permet de multiplier exponentiellement les possibles.
Ces possibles ne constituent pas des virtualités qui seraient contenues en puissance dans l’image discrète d’origine, selon une conception aristotélicienne du virtuel. Ils constituent plutôt des différences qui « infectent » la stabilité de l’image d’origine pour en changer le régime ontologique. L’image photoréaliste cesse d’être seulement la trace d’une réalité extérieure pour devenir une ressource permettant de multiplier les images, de produire des « images d’images » comme si chaque image enregistrée contenait une multiplicité d’autres images, d’autres mondes.
Cette transformation révèle quelque chose d’étourdissant dans cette récursivité dégénérative. Nous étions déjà débordés par les flux tourbillonnaires des images dans la culture numérique contemporaine. À présent, nous ne nous contentons plus seulement de les multiplier quantitativement : nous les faisons dégénérer qualitativement en les mettant en feedback, en créant des images au second degré.
Par ce processus, nous réintroduisons systématiquement le bruit d’origine dans le système, affirmant une forme de nihilisme — l’impossibilité d’obtenir un fondement stable, une origine pure, une vérité définitive. Cette impossibilité ne constitue pas un échec du système, mais révèle sa nature profonde : il s’agit d’une machine à produire de la différence plutôt qu’à reproduire de l’identique.
Cet espace des possibles, qui devient progressivement le nouvel espace des images et sans doute de la culture contemporaine, est constitué par l’espace latent lui-même. Cet espace n’est plus constitué de médias discrets — fichiers JPG, PNG, ou autres formats — mais de statistiques, de corrélations, de patterns mathématiques multidimensionnels.
Lorsque l’espace latent rencontre une image particulière dans le processus img2img, cette image reçoit, après dégénération, une part de l’immensité statistique qui constitue l’automatisation de la mimesis elle-même. La mimesis n’est plus l’imitation d’un modèle préexistant, mais la capacité du système à produire des variations vraisemblables à partir de patterns appris.
Cette automatisation transforme qualitativement la nature de la ressemblance. Nous passons d’une mimesis fondée sur la ressemblance perceptuelle directe à une mimesis fondée sur la corrélation statistique. L’image générée ne ressemble pas à son modèle parce qu’elle en reproduit les caractéristiques visibles, mais parce qu’elle actualise des probabilités extraites de l’analyse de millions d’images similaires.
En différenciant la dégénération de la diffusion et l’art dégénéré dénoncé par les nazis, nous ne voulons absolument pas suggérer que la diffusion prémunit contre le fascisme. Les formes contemporaines de fascisme vectoriel ont précisément fait de ces technologies leur moyen de propagation privilégié. Nous voulons simplement signifier que la « décadence » de ces images est qualitativement différente et qu’elle ouvre la voie à de nouvelles formes de fascismes comme de luttes antifascistes, fondées sur une ontologie inédite.
Cette nouvelle ontologie peut être caractérisée comme un réalisme des possibles. Elle empêche la constitution d’une vérité unique par discours d’autorité et entraîne une multiplication des régimes possibles de vérités, chacun constituant potentiellement sa propre réalité. Cette multiplicité ontologique peut servir des stratégies politiques opposées.
Il n’est pas étonnant que les mouvements que nous pouvons qualifier de « vectofascistes » se soient rapidement approprié cette logique de multiplication des possibles. La capacité à générer rapidement des contenus visuels adaptés à différents publics, à saturer l’espace informationnel, à créer des « réalités alternatives » visuellement convaincantes, constitue un outil de manipulation politique d’une efficacité redoutable.
Cependant, il devient nécessaire de se demander comment les mouvements d’émancipation peuvent naviguer dans cet espace des possibles sans simplement y réagir défensivement. Car la multiplication des possibles n’est pas intrinsèquement fasciste. Elle peut également relever d’une affirmation de l’absence d’origine unique, de fondement absolu, de vérité transcendante, de réalité unifiée, d’identité stable.
Cette logique du simulacre originaire — où la dégénérescence n’est pas la perte d’une identité perdue, mais une plasticité d’origine — ouvre des perspectives politiques ambivalentes. L’être n’y est que l’être de son change, pour reprendre le vocabulaire de Catherine Malabou, pure capacité de transformation sans substrat fixe.
On peut ainsi défendre un « réalisme dégénéré » donnant une place entière aux minorités, aux désidentités trans, aux devenirs-autres. Ce réalisme dégénéré constitue sans doute l’un des horizons esthétiques de l’émancipation qu’il nous reste à explorer. Il ne s’agit pas de refuser les technologies génératives au nom d’une authenticité perdue, mais de les détourner pour produire des images qui échappent aux logiques dominantes de représentation.
Cette exploration pourrait prendre plusieurs formes : la production d’images qui corrompent les datasets d’entraînement, l’introduction de bruit qui perturbe les mécanismes de classification automatique, l’exploration de zones marginales de l’espace latent où s’inventent de nouvelles formes de visibilité pour les corps et les existences minorisées.
Le défi consiste à développer des pratiques de dégénération qui échappent aux logiques de capture capitaliste et aux instrumentalisations fascistes. Il s’agit de faire de la dégénération une ressource pour l’invention de nouveaux régimes de vérité, de nouvelles formes de vie, de nouvelles modalités d’existence collective.
Cette tâche exige une compréhension fine des mécanismes techniques à l’œuvre dans les modèles de diffusion, mais également une capacité d’imagination politique permettant de détourner ces mécanismes vers des fins émancipatrices. L’espace des possibles ouvert par la dégénération reste largement à explorer et à politiser.
Conclusion
L’analyse du processus de dégénération dans les technologies de génération d’images révèle une transformation fondamentale de notre rapport aux représentations visuelles. Cette transformation ne constitue pas seulement un progrès technique, mais opère une mutation ontologique qui affecte notre compréhension de l’image, de la réalité, et des possibles.
La dégénération, comprise comme processus de différenciation contrôlée à partir d’images sources, ouvre un espace de possibles qui échappe aux logiques traditionnelles de l’original et de la copie. Cet espace, constitué par les dimensions mathématiques de l’espace latent plutôt que par des objets discrets, transforme chaque image en ressource générative potentielle.
Cette mutation technique s’accompagne d’enjeux politiques considérables. D’un côté, les logiques vectofascistes s’approprient efficacement ces technologies pour saturer l’espace informationnel, produire des « réalités alternatives » et manipuler les affects par la génération massive de contenus ciblés. La capacité des modèles de diffusion à produire des images vraisemblables sans référent réel constitue un outil de désinformation d’une puissance inédite.
D’un autre côté, cette même technologie ouvre des possibilités émancipatrices : elle permet de donner visibilité à des existences marginalisées, d’explorer des identités fluides, de créer des représentations qui échappent aux normes dominantes. Le « réalisme dégénéré » que nous évoquons ne constitue pas une contradiction dans les termes, mais désigne cette capacité à produire du vraisemblable qui ne reproduit pas l’existant.
L’automatisation de la mimésis opérée par les modèles de diffusion transforme qualitativement la nature de la ressemblance. Nous passons d’une ressemblance fondée sur l’imitation directe à une ressemblance fondée sur la corrélation statistique. Cette transformation a des implications profondes pour notre rapport à la vérité, à l’authenticité, et à la réalité elle-même.
Les images générées ne mentent pas au sens traditionnel du terme : elles ne prétendent pas représenter des événements qui ont eu lieu. Elles constituent plutôt des actualisations de possibles extraits de l’analyse de millions d’images réelles. Cette logique du « comme si » transforme notre régime de vérité : il ne s’agit plus de distinguer le vrai du faux, mais d’évaluer la vraisemblance et la pertinence des possibles actualisés.
La récursivité du processus dégénératif — la possibilité d’appliquer indéfiniment des transformations à des images déjà transformées — révèle à la fois les potentialités et les limites entropiques de ces systèmes. Chaque itération peut enrichir l’image de nouvelles possibilités, mais risque également de l’éloigner progressivement de toute référence reconnaissable.
Cette tension entre enrichissement et dégradation constitue peut-être la caractéristique la plus fascinante du processus dégénératif. Elle révèle que ces technologies ne sont ni purement créatives ni purement reproductives, mais opèrent dans un entre-deux qui redéfinit les catégories esthétiques traditionnelles.
L’analyse de la dégénération suggère plusieurs axes de recherche et de pratique critique. D’abord, il devient nécessaire de développer une écologie des images générées qui prenne en compte leurs effets sur notre environnement visuel et cognitif. La prolifération exponentielle de ces images transforme notre rapport au visible d’une manière qui reste largement à explorer.
Ensuite, il convient d’expérimenter avec les possibilités ouvertes par ces technologies sans ignorer leurs dimensions politiques. Cela implique de développer des pratiques de dégénération qui échappent aux logiques de capture capitaliste et aux instrumentalisations autoritaires.
Enfin, il devient urgent de repenser nos catégories esthétiques et politiques à l’aune de ces transformations. Les concepts d’auteur, d’œuvre, d’original, de création doivent être réinterrogés face à des technologies qui remettent en question leurs fondements ontologiques.
L’image dégénérée ne constitue pas seulement un phénomène technique marginal, mais révèle quelque chose d’essentiel sur notre époque. Elle symptomatise une transformation plus large de notre rapport au réel qui n’est plus déterminé par le photoréaslime de la révolution industrielle, caractérisée par la multiplication des possibles, l’instabilité des référents, et la prééminence des corrélations statistiques sur les causalités directes.
Cette transformation n’est ni intrinsèquement positive ni intrinsèquement négative : elle ouvre des possibilités qui peuvent servir des projets politiques opposés. L’enjeu consiste donc à développer une capacité critique et créative permettant d’orienter ces transformations vers des fins émancipatrices.
La dégénération des images révèle ainsi la dégénération de nos certitudes ontologiques traditionnelles. Mais cette perte de fondements fixes peut également être comprise comme une libération : elle ouvre un espace de jeu, d’expérimentation, et d’invention qui reste largement à explorer. L’image dégénérée nous confronte à la fois à la fragilité de nos représentations et à la puissance de notre imagination. C’est dans cette tension que se joue peut-être l’avenir de notre culture visuelle.
L’exploration de cet espace des possibles constitue l’un des défis esthétiques et politiques majeurs de notre époque. Elle exige de nous une capacité d’adaptation théorique et pratique, mais également une vigilance critique face aux instrumentalisations de ces technologies. La dégénération n’est pas un phénomène qu’il faut subir passivement, mais un processus qu’il convient d’accueillir.
The emergence of diffusion technologies in the field of image generation constitutes a upheaval that transcends mere technical considerations to interrogate the very foundations of our relationship to visual representations. This phenomenon, which we propose to analyze under the concept of “degeneration,” reveals a major ontological rupture in the history of images, distinct from any prior conception of artistic or cultural decadence.
Degeneration, as we understand it here, does not refer to corruption or loss of authenticity, but designates the process by which images acquire an unprecedented capacity for perpetual differentiation, escaping traditional logics of original and copy. This transformation operates at the very heart of diffusion models, these computational architectures that transform our understanding of noise, information, and the generation of meaning.
Generation and (Re)degeneration
While image generation technologies have often been presented from the angle of creation ex nihilo, this perspective masks the complexity of the processes at work. Generation, understood as a text-to-image (txt2img) process, certainly constitutes the most visible mode of these technologies, but it reveals only one facet of a deeper transformation of our visual economy.
The txt2img process, which consists of generating an image from a textual description (prompt), relies on statistical correlation between millions of images and their respective descriptions, made possible by systems like CLIP (Contrastive Language-Image Pre-training). This correlation creates the illusion of intuitive control over visual production through natural language, creating what one could call a “telepathic effect” in image creation.
This fascination with the apparent magic of the generative process actually reveals a radical transformation of the relationship between language and image, between difference and repetition. For while these systems do indeed produce visual novelty, they simultaneously operate a repetition of statistical patterns extracted from millions of preexisting images. This tension between innovation and reproduction constitutes a veritable earthquake in the history of material representations.
However, it is perhaps in the image-to-image (img2img) modality that the profound nature of this transformation is best revealed. This process, which consists of generating a new image from an existing source image, introduces a level of variable contextuality that illuminates generative logics in a new light.
The apparent advantage of this approach lies in its capacity to inherit not only global statistical patterns, but also the specific structure of a particular indexical image. This dual heredity allows for reducing the spectrum of possibilities while introducing controlled variations. The “palette” of possible transformations seems infinite, as if each singular image virtually contained a multiplicity of other images, other possible worlds.
This capacity to explore infinite variations from a unique visual substrate reveals a fundamental property of latent spaces: their ability to transform any discrete image into a generative resource. The photographic image is no longer merely the trace of an external reality, but becomes the starting point for an exploration of visual possibilities, creating what we could call images of images.
This generative recursivity, where we produce not only a quantitative multiplication of images, but also their qualitative differentiation, leads us to the heart of the concept of “degeneration.” This term, which we deliberately choose despite its problematic historical connotations, allows us to grasp a process that pertains neither to simple generation nor to reproduction.
Degeneration thus designates the fact of generating a visual document from the encounter between a latent space — this multidimensional mathematical space where diffusion models operate — and a discrete document, most often indexical, in order to preserve certain characteristics of the latter while introducing controlled differences. This definition reveals the hybrid nature of the process: neither pure creation nor simple transformation, but actualization of possibilities contained in the intersection between the global (latent space) and the singular (source image).
The Diffusion of Noise
Diffusion models operate a conceptual revolution in our understanding of noise, calling into question the legacy of Claude Shannon’s information theory and Norbert Wiener’s cybernetics. This transformation constitutes not merely technical progress, but reveals a new informational economy with profound philosophical implications.
In the traditional conception, inherited from Shannon, information was defined as reduction of uncertainty, measured in bits. Noise represented destructive entropy, this random perturbation that degrades information and must be eliminated to restore the original message. Wiener, developing cybernetic filtering methods, sought to extract the useful signal from parasitic noise. This binary opposition signal/noise structured the entirety of communications engineering according to a logic of amplification of the former and reduction of the latter.
Diffusion models reverse this ontological hierarchy. In these systems, noise ceases to be the enemy of information to become paradoxically its generator. The training process of these models consists precisely in observing the progressive degradation of coherent images under the effect of Gaussian noise, allowing the system to learn to identify statistical patterns that distinguish signal from noise at each level of corruption.
This approach reveals a fundamental property of noise in the computational context: its informational reversibility. Unlike thermodynamic entropy, which grows irreversibly according to the second law of thermodynamics, informational entropy can be reversed provided one has the appropriate decoder. Diffusion models constitute precisely this universal decoder, capable of finding underlying organization even in apparent chaos.
The generative process systematically exploits this reversibility. Starting from pure noise — a state of maximum entropy in pixel space — the system successively applies corrections guided by a textual description or source image. Each step reduces local entropy while preserving global coherence, progressively reconstituting a recognizable visual signal.
This dynamic evokes the self-organized systems of second-order cybernetics, as developed by Heinz von Foerster. As in his theories on “order from noise,” apparent disorder reveals latent structures that only a sophisticated observer — here, the diffusion model — can detect and actualize.
The latent space of these models thus functions as a semantic filter in the cybernetic sense: it extracts meaningful patterns from apparently chaotic inputs. This inversion of the signal/noise relationship transforms entropy into a creative resource, opening the way to a new informational economy where chaos becomes productive rather than destructive.
This transformation also reveals the cyclical nature of the generative process. Noise occupies a paradoxical position in diffusion models: it simultaneously constitutes the origin and potential destination of any generated image, revealing a temporal structure that the concept of degeneration allows us to illuminate with precision.
At the beginning of each generation lies noise: a tensor of random values, pure statistical disorder without apparent structure. This is the zero degree of visual information, maximum entropy in pixel space. The denoising process progressively extracts order from this primordial chaos, revealing forms, textures, then complete semantic coherence. This generation ex nihilo evokes ancient cosmogonies: organization emerges from an initial khora, an undifferentiated space of pure potentiality.
However, this creation carries within itself its own possibility of return to chaos. When a generated image is used as a starting point to produce a new image — a process at the heart of degeneration — the system inevitably reintroduces noise. Each generative cycle accumulates quantization errors, computational approximations, statistical biases imperceptible individually, but which amplify with each iteration.
This dynamic of degeneration follows the laws of informational thermodynamics. Like a photocopy of a photocopy, each successive generation can degrade the fidelity of the original signal, although this degradation is not always negative. Fine details may disappear, replaced by characteristic artifacts. Textures simplify, colors standardize according to the model’s statistical averages. Progressively, visual diversity may become impoverished: faces converge toward archetypes, landscapes toward clichés, compositions toward repetitive formulas.
Crucial to our analysis: the original noise and terminal noise are not identical. At the beginning, noise consists of discrete pixels, random distribution of numerical values. At the end of the degenerative process, noise often manifests as color fields, curved forms, elements that spread in characteristic ways. This qualitative difference reveals that degeneration does not constitute a simple return to the initial state, but a dialectical transformation where noise itself evolves.
The biological concept of degeneration applies remarkably to this computational phenomenon. Like genetic heritage that becomes impoverished through inbreeding, the model’s latent space can contract during successive autophagic generations. Zones of vector space least represented in training data become progressively inaccessible, creating “generative deserts” where certain visual configurations disappear definitively.
This degeneration reveals the fundamentally entropic nature of diffusion models. Although they seem to create order from chaos, they merely redistribute entropy according to learned patterns, without truly reducing it globally. Apparent creativity masks a potential tendency toward homogenization. Noise, temporarily vanquished by the denoising algorithm, can progressively regain its rights until partially reconquering the image.
Thus emerges a cosmological cycle of the generated image: from original noise to terminal noise, it traverses an arc of increasing then potentially decreasing complexity, revealing the vanity of any pretension to informational infinity while simultaneously opening unprecedented creative possibilities.
Degenerate Art and the Reality of Decadence
The use of the term “degeneration” in the context of image generation requires rigorous clarification of its relationship to the Nazi theory of “degenerate art” (Entartete Kunst). This distinction does not merely involve terminological prudence, but reveals two radically distinct economies that structure different relationships to origin, end, and the very nature of the creative process.
The theory of degenerate art developed by the Nazi regime draws its conceptual roots from theories of degeneracy elaborated in the 19th century, notably by Max Nordau. In his work “Degeneration” (1892), this physician and social critic develops a pseudo-scientific theory that assimilates certain artistic productions to pathological symptoms of civilizational decadence. Nordau, a Jew and co-founder of the Zionist movement, forges the concept of degenerate art as “morbid deviation from an original type” that threatens European cultural purity.
For Nazi theorists like Alfred Rosenberg and Adolf Ziegler, degenerate art constitutes a corruption of Aryan artistic essence. This corruption proceeds from external contamination: “Judeo-Bolshevik” influence corrupts Germanic creative authenticity. Nazi theory postulates the existence of an original moment of artistic purity, embodied by ancient Greek art and traditional German art, which would have been progressively soiled by foreign influences.
This conception implies a specific teleological temporality: degenerate art represents a fall from an original ideal that must be restored. The end aimed at by Nazi cultural policy consists precisely in this purifying restoration. The elimination of degenerate art aims not merely at destruction, but at the regeneration of authentically German art. This regeneration supposes return to an anterior state of racial and cultural purity.
The “Entartete Kunst” exhibition of 1937 in Munich thus functions as a ritual of collective expiation: by exposing degenerate art to public vindication, the regime intends to operate a catharsis that will permit the emergence of new art. This economy of original purity articulates around several fundamental principles: racial essentialism (there exists an immutable Aryan artistic essence, biologically determined), contaminating causality (degeneration results from contact with otherness), and purifying reversibility (through elimination of foreign influences, art can recover its primordial purity).
This Nazi conception of origin and end contrasts with the informational economy of diffusion models. In generative systems, the origin is not essential purity, but stochastic noise, a set of random values devoid of intrinsic meaning. This original noise carries no cultural, racial, or ideological determination: it constitutes the zero degree of information, maximum entropy in the space of visual possibilities.
The origin is therefore not an essence to preserve, but productive chaos to organize. The end of the generative process aims at no restoration of an anterior ideal. The generated image emerges from a process of progressive differentiation that tends toward no transcendent model. Each generation constitutes a singular actualization of learned statistical patterns, without reference to an absolute aesthetic norm.
The “degeneration” of diffusion models — their potential tendency toward homogenization during successive generations — does not proceed from external corruption, but from internal entropy of the system itself. This entropy does not constitute a pathology to correct, but a structural characteristic that can be exploited creatively.
More fundamentally, where Nazi ideology conceives art according to a logic of identity (preservation of Aryan essence), diffusion models operate according to a logic of difference (generation of unpredictable variations). Nazi art seeks to eliminate otherness to reveal the substantial identity of the German Volk. Generative systems, inversely, produce otherness from the undifferentiated: they create visual diversity from homogeneous noise.
This opposition reveals two distinct relationships to temporality. Nazi ideology inscribes itself in cyclical temporality: after decadence comes regeneration, according to an eternal return of the identical. Authentic art must restore the eternal values of the Aryan race. Diffusion models inscribe themselves in linear and irreversible temporality: each generation constitutes a singular event that cannot be repeated identically.
The Nazi economy of purity supposes transcendence: Aryan essence exists independently of its empirical manifestations and must be preserved against any contamination. The informational economy of diffusion models is rigorously immanent: no artistic essence exists prior to generation processes. The image actualizes no transcendent model, but emerges from the pure contingency of probabilistic calculations.
This analysis reveals why the concept of “degeneration” applied to generative images cannot be assimilated to the Nazi theory of degenerate art. In the first case, degeneration names a natural process of potentially creative informational entropization. In the second, it designates moral corruption that must be eradicated.
These two economies express fundamentally divergent ontologies that structure their relationship to reality, necessity, and contingency. Nazi ontology anchors itself in a metaphysics of substantial reality. For this ideology, there exists a preexisting authentic reality — Aryan essence — that constitutes the true nature of the world. This original reality has been occulted, corrupted by foreign forces, but it remains as an indestructible ontological foundation.
Degenerate art masks this authentic reality, creating a veil of deceptive appearances that prevents access to racial truth. The purifying mission consists in recovering this lost reality, unveiling it by eliminating obstacles that obscure it. This ontology postulates that reality precedes its manifestation and that authentic art must reveal eternal truths inscribed in the very being of the German people.
The implicit ontology of diffusion models proceeds inversely from a logic of productive contingency. Here, no reality preexists the generative process. The image emerges from the pure contingency of probabilistic calculations, without reference to a transcendent essence. The system does not discover hidden reality, but invents reality through actualization of virtual possibilities.
This ontology assumes radical contingency: there is no necessary reason for a particular image to emerge rather than another. Resemblance to the real does not proceed from correspondence to a prior essence, but from statistical correlation with learned patterns. This is why these images often seem to “make reality itself degenerate” (extra fingers, deformations, metamorphoses, monstrosities, counterfactualities).
The real thus becomes an effect of resemblance rather than a cause of truth. This correlationist ontology postulates no in-itself of the image: visual reality constitutes itself in and through the generation process itself, according to an immanent logic that makes the possible the condition of the real rather than the inverse.
The Space of Possibilities
It is appropriate to perceive this aesthetics of degeneration without presupposing that it guarantees a specific political horizon. This aesthetics can indeed be instrumentalized by logics that we could qualify as “vectorfascist” — these new forms of fascism that operate through algorithmic manipulation of affects and representations. However, it does not respond to the same ontological structure as traditional photorealism.
It is by considering latent space as a veritable space of possibilities that it becomes possible to approach this question with the complexity it deserves. Degeneration, in this context, does not designate decadence toward a mythified origin, but the possibility of making an indexical image evolve toward other realities. This evolution operates because the image, when associated with a latent space, permits exponentially multiplying possibilities.
These possibilities do not constitute virtualities that would be contained in potency in the discrete original image, according to an Aristotelian conception of the virtual. They rather constitute differences that “infect” the stability of the original image to change its ontological regime. The photorealistic image ceases to be only the trace of external reality to become a resource permitting multiplication of images, production of “images of images” as if each recorded image contained a multiplicity of other images, other worlds.
This transformation reveals something dizzying in this degenerative recursivity. We were already overwhelmed by the swirling flows of images in contemporary digital culture. Now we no longer content ourselves with merely multiplying them quantitatively: we make them degenerate qualitatively by putting them in feedback, creating second-degree images.
Through this process, we systematically reintroduce original noise into the system, affirming a form of nihilism — the impossibility of obtaining a stable foundation, pure origin, definitive truth. This impossibility does not constitute a system failure, but reveals its profound nature: it is a machine for producing difference rather than reproducing the identical.
This space of possibilities, which progressively becomes the new space of images and undoubtedly of contemporary culture, is constituted by latent space itself. This space is no longer constituted of discrete media — JPG, PNG files, or other formats — but of statistics, correlations, multidimensional mathematical patterns.
When latent space encounters a particular image in the img2img process, this image receives, after degeneration, a part of the statistical immensity that constitutes the automation of mimesis itself. Mimesis is no longer imitation of a preexisting model, but the system’s capacity to produce plausible variations from learned patterns.
This automation qualitatively transforms the nature of resemblance. We pass from mimesis founded on direct perceptual resemblance to mimesis founded on statistical correlation. The generated image does not resemble its model because it reproduces visible characteristics, but because it actualizes probabilities extracted from analysis of millions of similar images.
In differentiating diffusion degeneration from degenerate art denounced by Nazis, we absolutely do not want to suggest that diffusion immunizes against fascism. Contemporary forms of vectorial fascism have precisely made these technologies their privileged means of propagation. We simply want to signify that the “decadence” of these images is qualitatively different and opens the way to new forms of fascisms as well as antifascist struggles, founded on an unprecedented ontology.
This new ontology can be characterized as a realism of possibilities. It prevents constitution of a unique truth through authoritative discourse and entails multiplication of possible regimes of truths, each potentially constituting its own reality. This ontological multiplicity can serve opposed political strategies.
It is not surprising that movements we can qualify as “vectorfascist” have rapidly appropriated this logic of multiplying possibilities. The capacity to rapidly generate visual contents adapted to different publics, to saturate informational space, to create visually convincing “alternative realities,” constitutes a tool of political manipulation of formidable efficacy.
However, it becomes necessary to ask how emancipation movements can navigate this space of possibilities without simply reacting defensively. For multiplication of possibilities is not intrinsically fascist. It can equally pertain to affirmation of the absence of unique origin, absolute foundation, transcendent truth, unified reality, stable identity.
This logic of originary simulacrum — where degeneration is not loss of lost identity, but plasticity of origin — opens ambivalent political perspectives. Being is there only the being of its change, to use Catherine Malabou’s vocabulary, pure capacity for transformation without fixed substrate.
One can thus defend a “degenerate realism” giving full place to minorities, trans-disidentities, becomings-other. This degenerate realism undoubtedly constitutes one of the aesthetic horizons of emancipation that remains for us to explore. It is not a matter of refusing generative technologies in the name of lost authenticity, but of diverting them to produce images that escape dominant logics of representation.
This exploration could take several forms: production of images that corrupt training datasets, introduction of noise that perturbs automatic classification mechanisms, exploration of marginal zones of latent space where new forms of visibility for minoritized bodies and existences are invented.
The challenge consists in developing degeneration practices that escape capitalist capture logics and fascist instrumentalizations. It is a matter of making degeneration a resource for inventing new regimes of truth, new forms of life, new modalities of collective existence.
This task requires fine understanding of technical mechanisms at work in diffusion models, but also a capacity for political imagination permitting diversion of these mechanisms toward emancipatory ends. The space of possibilities opened by degeneration remains largely to be explored and politicized.
Conclusion
Analysis of the degeneration process in image generation technologies reveals a fundamental transformation of our relationship to visual representations. This transformation constitutes not merely technical progress, but operates an ontological mutation that affects our understanding of image, reality, and possibilities.
Degeneration, understood as a process of controlled differentiation from source images, opens a space of possibilities that escapes traditional logics of original and copy. This space, constituted by mathematical dimensions of latent space rather than discrete objects, transforms each image into potential generative resource.
This technical mutation accompanies considerable political stakes. On one side, vectorfascist logics effectively appropriate these technologies to saturate informational space, produce “alternative realities” and manipulate affects through massive generation of targeted contents. The capacity of diffusion models to produce plausible images without real referent constitutes a disinformation tool of unprecedented power.
On the other side, this same technology opens emancipatory possibilities: it permits giving visibility to marginalized existences, exploring fluid identities, creating representations that escape dominant norms. The “degenerate realism” we evoke does not constitute a contradiction in terms, but designates this capacity to produce the plausible that does not reproduce the existing.
The automation of mimesis operated by diffusion models qualitatively transforms the nature of resemblance. We pass from resemblance founded on direct imitation to resemblance founded on statistical correlation. This transformation has profound implications for our relationship to truth, authenticity, and reality itself.
Generated images do not lie in the traditional sense: they do not pretend to represent events that took place. They rather constitute actualizations of possibilities extracted from analysis of millions of real images. This logic of “as if” transforms our regime of truth: it is no longer a matter of distinguishing true from false, but of evaluating plausibility and pertinence of actualized possibilities.
The recursivity of the degenerative process — the possibility of indefinitely applying transformations to already transformed images — reveals both potentialities and entropic limits of these systems. Each iteration can enrich the image with new possibilities, but also risks progressively distancing it from any recognizable reference.
This tension between enrichment and degradation perhaps constitutes the most fascinating characteristic of the degenerative process. It reveals that these technologies are neither purely creative nor purely reproductive, but operate in an in-between that redefines traditional aesthetic categories.
Analysis of degeneration suggests several axes of research and critical practice. First, it becomes necessary to develop an ecology of generated images that takes into account their effects on our visual and cognitive environment. The exponential proliferation of these images transforms our relationship to the visible in a way that remains largely to be explored.
Next, it is appropriate to experiment with possibilities opened by these technologies without ignoring their political dimensions. This implies developing degeneration practices that escape capitalist capture logics and authoritarian instrumentalizations.
Finally, it becomes urgent to rethink our aesthetic and political categories in light of these transformations. The concepts of author, work, original, creation must be reinterrogated in face of technologies that call their ontological foundations into question.
The degenerate image does not constitute merely a marginal technical phenomenon, but reveals something essential about our epoch. It symptomatizes a broader transformation of our relationship to the real that is no longer determined by the photorealism of the industrial revolution, characterized by multiplication of possibilities, instability of referents, and preeminence of statistical correlations over direct causalities.
This transformation is neither intrinsically positive nor intrinsically negative: it opens possibilities that can serve opposed political projects. The stake therefore consists in developing critical and creative capacity permitting orientation of these transformations toward emancipatory ends.
Degeneration of images thus reveals degeneration of our traditional ontological certainties. But this loss of fixed foundations can also be understood as liberation: it opens a space of play, experimentation, and invention that remains largely to be explored. The degenerate image confronts us simultaneously with the fragility of our representations and the power of our imagination. It is in this tension that perhaps the future of our visual culture is at stake.
Exploration of this space of possibilities constitutes one of the major aesthetic and political challenges of our epoch. It requires of us a capacity for theoretical and practical adaptation, but also critical vigilance in face of instrumentalizations of these technologies. Degeneration is not a phenomenon to be passively undergone, but a process to be welcomed.