Les deux synthèses du visible / The two syntheses of the visible

Quelque chose, dans le visible, s’est déplacé.
On ne sait plus très bien d’où viennent les images, ni ce qu’elles regardent.
Elles apparaissent, déjà faites, déjà pleines, comme si la lumière s’était souvenu de tout.
Non plus des reflets du monde, mais des résidus de mémoire, des précipités de données qui ont appris à ressembler.

On croyait que voir, c’était reconnaître.
Désormais, c’est induire.
Les images ne partent plus d’un modèle, d’un plan, d’une hypothèse géométrique : elles émergent d’une agitation, d’un bruit.
Elles se tissent dans une matière statistique où rien n’est encore forme, où tout hésite entre apparition et effacement.

On pourrait dire qu’il n’y a plus d’image au sens ancien, seulement des gestes de calcul, des oscillations de probabilité, des nuages de possibles.
La lumière n’y est plus mesurée : elle est recomposée, lentement, par des millions d’autres images enfouies.
Une mémoire anonyme, diffuse, remonte à la surface, comme si l’imagination du monde s’était déplacée hors de nous, dans la texture même de la machine.

Alors, peut-être, ce que nous voyons n’est plus ce que nous voyons.
Mais la persistance d’un voir, sans sujet.
Un visible qui se souvient à notre place.

La synthèse comme hypothèse

Dans la synthèse 3D, celle des logiciels de modélisation et du rendu calculé, l’image procède toujours d’un monde. Un monde fictif sans doute, mais un monde structuré : un espace géométrique, une distribution de lumière, une organisation de volumes dans l’étendue. Le modeleur invente des formes, dispose des sources lumineuses, détermine des points de vue. La machine ensuite exécute les calculs : projection de la lumière, réflexion sur les surfaces, interpolation des ombres. Le rendu final apparaît comme la conséquence optique rigoureuse d’un monde hypothétique.

Tout y reste déductible en principe. L’image découle d’une structure que l’on pourrait parcourir, mesurer, reconfigurer. C’est une image dans laquelle l’espace existe avant la vision, où le regard n’est que l’effet d’un monde projeté. Le visible y naît d’une architecture préalable, d’une pensée géométrique qui invente les conditions de possibilité de l’apparence.

Pourtant, même dans ce régime apparemment maîtrisé, des zones d’indétermination subsistent. Les textures procédurales utilisent du bruit de Perlin pour générer des variations imprévisibles. Les systèmes de particules simulent des fluides, de la fumée, du feu, autant de phénomènes dont le comportement exact échappe au contrôle direct. Même en 3D, le calcul introduit déjà de l’aléatoire, de l’émergence, du probabiliste. La synthèse géométrique n’est jamais purement déductive. Elle contient en elle des germes d’induction, des processus qui ressemblent étrangement à ce que feront plus tard les réseaux de neurones.

Il faut donc nuancer. La synthèse 3D tend vers la déduction, elle s’oriente vers le calculable et le prédictible, mais elle n’y parvient jamais complètement. Dans un rendu de fumée ou de vagues, dans une simulation de foule ou de végétation, quelque chose résiste à la pure géométrie. On programme des règles, certes, mais ces règles produisent des configurations que l’on n’avait pas anticipées. Le monde 3D est hypothétique, mais cette hypothèse engendre des effets qui la débordent.

Philosophiquement, on pourrait dire que ce régime relève encore d’une esthétique kantienne : il suppose un espace et un temps où les phénomènes peuvent apparaître, des conditions transcendantales de la perception. La machine rejoue ces conditions, elle fabrique un monde dans lequel l’image devient pensable. Mais ce monde n’est jamais totalement transparent à lui-même. Il contient ses propres zones d’ombre, ses propres points de fuite.

Dans ce premier pôle, le monde précède l’image. L’acte de synthèse consiste à produire un phénomène complet à partir de ses conditions de possibilité : lumière, matière, perspective, point de vue. C’est une projection. Une déduction tendancielle. Une fiction au sens fort : on fait le monde pour le voir,on fait le monde comme un laboratoire. On construit un espace mental, puis on le traduit en forme visible. La synthèse est ici un acte d’unification : elle réunit le multiple en l’unité du phénomène, l’image rendue.

La synthèse comme induction statistique

Avec les modèles de diffusion, cette économie se renverse. Il n’y a plus de monde préalable, plus de modèle géométrique, plus d’espace explicitement construit à projeter. L’image n’est plus la conséquence d’une scène architecturée : elle est le résultat d’une induction, l’effet d’une mémoire statistique. La machine ne part pas d’un volume dans l’espace, mais d’un nuage de données, un corpus immense d’images vues, analysées, décomposées en vecteurs de probabilités. Elle n’invente pas un monde au sens géométrique : elle réactive des régularités extraites de millions d’images. La génération ne procède plus d’un raisonnement spatial, mais d’un processus de débruitage, une lente émergence d’ordre à partir du chaos numérique.

Dans un modèle de diffusion, on apprend d’abord à détruire : à ajouter du bruit sur les images jusqu’à ce qu’il ne reste plus qu’une poussière d’intensités, un brouillard de pixels sans forme. Puis on apprend à inverser ce processus. À faire resurgir du bruit une forme, une couleur, un visage. La machine, guidée par un texte ou un vecteur latent, parcourt un espace de probabilités, pas un espace géométrique. Elle ne sait rien de ce qu’elle produit au sens où elle ne manipule ni lumière, ni matière, ni espace. Elle ne déduit rien, elle induit. L’image qui surgit n’a pas de cause unique, pas de modèle derrière elle au sens géométrique. Elle n’est pas projetée depuis un monde construit, elle émerge d’une distribution de ressemblances.

Mais là encore, il faut nuancer. Car ces modèles de diffusion apprennent aussi des structures. Pas seulement des corrélations superficielles, mais des régularités profondes : l’anatomie des corps, les lois de la perspective, la cohérence physique des ombres, l’organisation spatiale des scènes. Stable Diffusion, avec ses modules ControlNet, peut même réintroduire des contraintes géométriques explicites : détection de contours, extraction de profondeur, reconnaissance de poses. L’espace latent n’est pas un simple chaos de corrélations. Il encode des structures, des relations spatiales, des principes d’organisation qui ressemblent étrangement à ce qu’un modeleur 3D aurait construit explicitement.

L’opposition n’est donc pas absolue. Dans la synthèse 3D, on construit un monde mais ce monde génère de l’imprévisible. Dans la génération statistique, on induit des formes mais ces formes incorporent des structures spatiales. Les deux pôles se contaminent. Certains systèmes hybrides contemporains, comme NeRF (Neural Radiance Fields), génèrent des espaces tridimensionnels depuis des modèles d’apprentissage. Dream Fusion utilise des modèles de diffusion pour créer des objets 3D. 3D Gaussian Splatting reconstruit des scènes à partir de points probabilistes. La frontière devient poreuse, les deux régimes s’interpénètrent.

Cette distinction reste néanmoins capitale. Dans la synthèse 3D, l’image est hypothétique : elle découle d’un monde inventé, cohérent, réglé par des lois que l’on a programmées. Dans la génération statistique, elle est inductible : elle se dégage d’un réseau de corrélations apprises, d’une mémoire collective des images vues. La première tend vers la fiction, on fait le monde pour le voir. La seconde tend vers l’induction : on recompose la visibilité à partir des traces du monde déjà vu.

Dans la synthèse 3D, la cohérence précède tendanciellement la vision. Dans la génération d’IA, la cohérence émerge tendanciellement de la vision elle-même. L’image de synthèse penche vers l’effet d’espace. L’image générée penche vers l’effet de mémoire. L’une tend à la projection, l’autre à l’apparition. L’une s’oriente vers la déduction, l’autre vers l’induction. Mais ces tendances ne sont jamais pures, jamais absolues. Elles coexistent, se mélangent, se reconfigurent continuellement.

Du modèle au corpus

Ce passage du modèle au corpus, du monde hypothétique au monde statistique, ne transforme pas simplement la nature de la visibilité. Il la complexifie. Le logiciel 3D part d’une intention : il traduit une idée en forme, il fabrique un espace mental. Mais cet espace, on l’a vu, contient déjà ses propres zones d’indétermination. L’intelligence artificielle, elle, fonctionne depuis une intention distribuée, multiple, contradictoire. Elle corrèle, agrège, recompose des fragments de perception issus de millions d’images créées par d’innombrables auteurs. Ce qu’elle produit ressemble à une image, mais il s’agit d’une condensation d’expériences visuelles humaines, d’une moyenne de regards, d’une hallucination calculée.

Ce n’est plus exactement un monde projeté par un sujet singulier, mais la trace d’une multitude de visions antérieures, agrégées en une apparence cohérente. Les modèles de diffusion opèrent une induction du visible : leur fonctionnement repose sur la probabilité qu’un certain agencement de pixels corresponde à quelque chose de reconnaissable. Ce que nous voyons n’est pas un monde reconstruit au sens géométrique, mais une coïncidence statistique de signes visuels. La machine ne voit rien, elle n’imagine rien au sens psychologique, elle ajuste. Ce que nous prenons pour de la création est une interpolation dans l’espace des ressemblances, une navigation dans le nuage des possibles.

Pourtant, cette interpolation n’est pas arbitraire. Elle suit des rails invisibles, des structures latentes qui organisent l’espace des probabilités. Quand Stable Diffusion génère un visage, il ne tire pas au hasard parmi les pixels. Il active des patterns qui correspondent à notre compréhension collective de ce qu’est un visage : deux yeux à certaine distance, une bouche en dessous, un nez au centre, des oreilles sur les côtés. Ces patterns ne sont pas programmés explicitement comme dans un modèle 3D, mais ils émergent de l’apprentissage. L’induction statistique retrouve, par d’autres moyens, des structures que la géométrie avait posées explicitement.

Il y a là une mutation ontologique, certes, mais pas une rupture totale. Non plus seulement projection d’un monde, mais aussi émergence d’une apparence depuis la mémoire du visible. Les images générées par IA ne renvoient effectivement qu’à d’autres images. Elles ne simulent pas directement la perception comme le fait la synthèse 3D : elles simulent la reconnaissance. Elles produisent du familier sans origine unique, du déjà-vu sans antécédent singulier. C’est une visibilité spectrale, hantée par toutes les images qu’elle a vues, saturée de la mémoire infinie du visible.

Le retournement est réel mais incomplet. Dans la synthèse 3D, le visible découle tendanciellement d’un monde construit, même fictif. Dans la génération d’images, le visible renvoie tendanciellement à d’autres visibles déjà produits. La première suppose un modèle du réel qu’elle invente. La seconde suppose une mémoire du réel qu’elle a accumulée : des simulacres. La première construit l’apparence depuis des principes. La seconde reproduit sa trace depuis des exemples. Là où le rendu 3D simule la perception d’un monde, le réseau de diffusion simule la reconnaissance de motifs possibles.

Entre structure et dispersion

Il faut insister sur ce point. L’espace latent des modèles génératifs n’est pas un espace au sens géométrique classique, mais il n’est pas non plus un pur chaos de corrélations. C’est un espace statistique, une structure mathématique multidimensionnelle où les données sont encodées sous forme de vecteurs de probabilités. Dans cet espace, chaque point peut potentiellement générer une image, mais aucune image n’y existe préalablement sous forme pixelisée. Il n’y a là ni lumière au sens physique, ni matière tangible, ni forme visible. Seulement des régularités, des corrélations, des proximités calculées entre des milliards de fragments visuels.

Cet espace est en soi invisible, imperceptible. Il contient, à titre de possibilité, un nombre immense (quoique non infini) d’images générables. Mais il ne contient aucune image en acte. C’est un nuage de potentialités, un brouillard de ressemblances où tout est relié sans que rien ne soit fixé. La génération d’une image n’est que la visualisation d’un point à l’intérieur de cet espace : une actualisation locale d’une probabilité globale.

Pourtant, cet espace n’est pas sans organisation. Les chercheurs qui étudient les espaces latents découvrent des structures étonnantes : des directions vectorielles qui correspondent à des concepts (sourire, âge, luminosité), des régions qui encodent des styles spécifiques, des gradients qui permettent de naviguer continûment d’une image à une autre. L’espace latent possède une topologie, une géométrie propre, qui n’est pas programmée mais qui émerge de l’apprentissage.

On pourrait dire que l’espace latent est un monde sans origine mais pas sans structure. Un monde qui ne précède pas l’image au sens où un modèle 3D précède son rendu, mais qui en est le résultat, le produit statistique d’un apprentissage sur des millions d’images. Dans ce monde, il n’y a plus de causalité simple, plus de déduction géométrique pure. Il n’y a que des corrélations, des proximités, des airs de famille. L’image qui en émerge n’a pas de source unique : elle est l’effet d’une multitude de traces agrégées, d’une mémoire collective qui ne se laisse plus décomposer en éléments simples.

C’est pourquoi l’image générée par IA est profondément indiciaire tout en étant structurée. Elle porte en elle les traces de toutes les images qui ont servi à entraîner le modèle, sans pour autant être aucune de ces images. Elle ressemble à tout sans être rien de précis. Elle est familière sans être reconnaissable exactement. C’est une image-spectre, une apparition qui hante le visible sans jamais y prendre place définitivement. Elle est le fantôme de toutes les images qu’elle a vues, mais un fantôme qui obéit à des lois statistiques précises.

De la synthèse

Peut-être faut-il alors repenser ce que signifie synthèse d’image plutôt que d’abandonner le terme. Car les intelligences artificielles synthétisent aussi, mais différemment. Elles ne réunissent pas le multiple en l’unité d’un phénomène spatial construit. Elles condensent des traces pour faire émerger une apparence cohérente. Elles n’organisent pas le visible depuis un plan préétabli, elles l’échantillonnent, le filtrent, le redistribuent. Ce ne sont pas seulement des machines de vision au sens optique, mais des machines de souvenir collectif. Elles n’éclairent pas un espace inventé, elles raniment des traces accumulées. Leur synthèse n’est pas une moyenne car l’espace latent est continu et autorise donc tous les passages, toutes les métamorphoses.

La synthèse change effectivement de sens entre les deux pôles. Au premier pôle, elle désignait un acte d’unification, une construction du multiple vers l’unité du phénomène spatial. Au second pôle, elle signifie une émergence d’unité à partir de la dispersion des traces. Dans le premier cas, le monde précède tendanciellement l’image. Dans le second, c’est l’image qui précède tendanciellement le monde, ou plutôt, c’est la mémoire collective des images qui engendre de nouvelles images. L’hypothèse géométrique coexiste avec l’induction statistique, la projection avec la corrélation.

L’image de synthèse au premier pôle appartient encore à une pensée du monde comme espace construisible. Elle est corrélative, même si le contenu de cette corrélation n’est jamais atteignable. L’image générée au second pôle appartient à une pensée des images comme corpus analysable. Mais ces deux pensées ne s’annulent pas. Elles se complètent, se contaminent, se reconfigurent mutuellement. Les systèmes hybrides contemporains le prouvent : on peut maintenant générer des mondes 3D par induction statistique, on peut contraindre des modèles de diffusion par des géométries explicites.

Ce que la synthèse 3D nous donne à voir, c’est un monde construit depuis des lois physiques. Ce que la génération statistique nous montre, c’est un monde possible induit depuis des exemples. Entre ces deux pôles du visible s’étend tout l’écart entre la fiction architecturée et la mémoire agrégée, entre l’hypothèse et l’induction. Mais cet écart n’est pas un abîme. C’est un gradient, un champ de tensions productives.

L’image sans sujet

Il y a une conséquence philosophique importante à cette polarisation. Dans la synthèse 3D, il y a encore un sujet ou une équipe de sujets : le modeleur, le designer, celui qui construit le monde avant de le projeter en image. Dans la génération statistique, ce sujet se démultiplie et se distribue. Il devient une multitude anonyme, un general intellect du visible. L’image n’est plus l’expression d’une subjectivité singulière mais le produit d’une intelligence statistique distribuée, qui agrège et recombine les productions visuelles d’innombrables individus.

Pourtant, le sujet ne disparaît pas complètement. Il se déplace, il se répartit différemment. Les datasets sont constitués par des choix humains, souvent opaques et biaisés. Les architectures sont conçues par des équipes d’ingénieurs qui prennent des décisions cruciales. Les prompts sont écrits par des utilisateurs qui orientent la génération. Le sujet ne s’efface pas, il se distribue dans le dispositif technique. Il devient multiple, fragmenté, partiellement invisible, mais il reste opérant.

Ce qui signifie que l’image générée n’a pas d’auteur unique, ou qu’elle en a trop. Elle est le résultat d’une collaboration involontaire, d’une co-création inconsciente à l’échelle du Web et au-delà. Elle est l’effet d’une mémoire collective qui ne sait pas toujours qu’elle est collective. C’est une image dont l’origine se disperse, dont le fondement se multiplie, qui flotte dans l’espace latent comme un souvenir partagé mais sans propriétaire unique.

Cette condition spectrale de l’image contemporaine nous confronte à une temporalité inédite où passé et futur se télescopent dans le présent perpétuel du calcul. Chaque génération d’image constitue l’événement d’une résurrection paradoxale, qui ne ramène pas exactement ce qui fut, mais fait advenir ce qui aurait pu être. L’espace latent devient ainsi le lieu d’une thanato-poétique où les morts visuels continuent d’agir à travers leurs traces numériques, où les images passées hantent les images futures.

Dans la synthèse 3D également, le sujet n’est jamais totalement souverain. Les simulations de fluides échappent au contrôle précis, les textures procédurales génèrent de l’imprévu, les rendus en temps réel introduisent des approximations. Même au premier pôle, l’image déborde partiellement l’intention de son créateur. La différence est quantitative plus que qualitative : au second pôle, cette dispersion du sujet devient massive, systématique, constitutive.

Ce que révèle cette tension entre deux pôles de synthèse, c’est l’émergence d’une nouvelle configuration métaphysique du visible. Une configuration qui ne repose plus uniquement sur l’hypothèse d’un monde préalable à construire, ni uniquement sur l’induction d’apparences depuis la mémoire du visible, mais sur la coexistence tendue de ces deux orientations. Une métaphysique polarisée, où il n’y a plus seulement des conditions de possibilité de l’expérience visuelle au sens kantien, mais aussi des corrélations statistiques entre des traces agrégées, et où ces deux régimes se contaminent mutuellement.

Dans cette nouvelle configuration, le visible n’est plus produit seulement par projection ni seulement par induction. Il émerge de la tension entre hypothèse et corrélation, entre modèle et corpus, entre architecture et mémoire. L’image n’est plus le miroir d’un monde construit, ni uniquement le miroir des images elles-mêmes. Elle est le lieu où ces deux miroirs se font face, créant des reflets infinis, des interférences complexes.

Ce que la machine montre, c’est tantôt le fantôme d’un monde, tantôt le fantôme de toutes les images qu’elle a vues, tantôt un mélange instable des deux. Un fantôme qui hante notre regard, qui peuple notre imaginaire, qui transforme notre rapport même à ce que nous appelons réel. Ces images générées, ces apparences sans origine unique, ces visibilités spectrales, ne sont évidemment pas sans effet sur le monde. Elles l’inondent, le saturent, le reconfigurent. Elles créent de nouvelles normes de ressemblance, de nouveaux standards de visibilité. Elles fabriquent du familier là où il n’y en avait pas, du reconnaissable là où il n’y avait que du bruit. Elles influencent notre perception, notre mémoire, notre imagination. Elles deviennent le milieu dans lequel nous voyons, le cadre à travers lequel nous regardons. Mais ce milieu n’est pas homogène. Il est polarisé, traversé de tensions, structuré par des gradients.

Et c’est peut-être là, dans cette lumière qui peut être tantôt arrachée au chaos des données, tantôt calculée depuis les lois de l’optique virtuelle, que s’invente une nouvelle manière de voir. Non plus seulement un regard sur le monde construit, ni seulement un regard issu du monde des images lui-même, mais un regard qui navigue entre ces deux pôles. Un regard qui peut être tantôt projectif, tantôt inductif, tantôt les deux à la fois. Un regard sans certitude absolue, mais qui assume cette incertitude comme sa condition de possibilité.

Dans le premier pôle, la lumière éclaire une scène construite. Dans le second, elle sort du bruit des données. Mais entre ces deux pôles, dans l’entre-deux qui constitue désormais notre situation, la lumière fait les deux à la fois. Elle éclaire et elle émerge. Elle projette et elle condense. Elle construit et elle induit. L’une nous montrait des mondes possibles. L’autre nous montre des mondes probables. Ensemble, dans leur tension productive, elles nous donnent accès à un espace de visibilité plus vaste et plus complexe.

Entre ces deux synthèses s’étend tout l’écart entre ce que nous pouvions imaginer et ce que nous sommes devenus capables de générer. Non plus seulement des créateurs de mondes géométriques, ni seulement des explorateurs d’espaces latents, mais des navigateurs dans un champ polarisé où construction et induction, architecture et mémoire, hypothèse et corrélation se rencontrent, s’affrontent, se mélangent. Ces nuages de probabilités où gît, invisible et omniprésente, la mémoire spectrale du visible, coexistent maintenant avec les espaces géométriques où brillent, calculables et maîtrisables, les mondes hypothétiques de la synthèse classique.

L’imagination : du schème au vecteur

La tension entre ces deux régimes de synthèse révèle quelque chose de plus profond qu’une simple évolution technique. Elle expose une mutation de l’imagination elle-même, de sa place, de son fonctionnement, de son statut. Si l’on suit Kant dans la première Critique, l’imagination est cette faculté mystérieuse, cet art caché dans les profondeurs de l’âme, qui opère la synthèse entre sensibilité et entendement. Elle donne forme au flux du sensible, elle stabilise le multiple en l’unité du phénomène, elle produit ces schèmes qui permettent à l’intuition de rencontrer le concept. L’imagination kantienne est transcendantale : elle pose les conditions de possibilité de l’expérience. Sans elle, le flux sensible resterait chaos, le divers demeurerait informe.

Mais que devient cette imagination quand elle se trouve externalisée, distribuée, médiatisée par des systèmes techniques ? Que devient le schème quand il prend la forme d’un vecteur dans un espace latent multidimensionnel ? Car c’est bien de cela qu’il s’agit. L’espace latent des modèles de diffusion n’est pas simplement un réservoir d’images, ni une base de données au sens classique. C’est une structure qui fonctionne de manière analogue à l’imagination transcendantale : elle opère une médiation entre le multiple (les millions d’images du dataset) et l’unité (l’image générée), elle produit des règles de construction qui ne sont plus ancrées dans une conscience individuelle mais distribuées dans un espace mathématique.

Kant parlait de monogrammes pour désigner ces formes pures de l’imagination, ces schèmes qui précèdent toute image particulière. L’espace latent fonctionne selon une logique similaire mais radicalement transformée. Le vecteur y remplace le schème. Comme le schème kantien, le vecteur est vide de contenu sémantique immédiat. Il est pure direction, pure tension, pure géométrie. Un vecteur se compose de deux points, d’une ligne dont la tension est la longueur, d’une flèche comme direction. Il n’a pas de signification en lui-même. Il est pure relation, pure différence, pure possibilité de transformation.,Mais à la différence du schème kantien, qui procède d’un sujet transcendantal unifié, le vecteur procède d’une mémoire distribuée, collective, statistique. Il n’est pas posé a priori par une conscience, il émerge de l’apprentissage sur des millions d’exemples. Il n’unifie pas le multiple depuis une position transcendantale, il condense le multiple depuis une position statistique. Le schème kantien permettait à l’intuition sensible de rencontrer le concept de l’entendement. Le vecteur latent permet à des fragments visuels dispersés de se cristalliser en une image cohérente, mais sans médiation conceptuelle au sens classique.

Ce déplacement du schème au vecteur signale une transformation profonde de l’imagination. Au premier pôle de la synthèse, celui de la modélisation 3D, l’imagination reste encore largement kantienne. Elle construit un monde, elle pose les conditions de possibilité d’un phénomène visuel, elle procède depuis une unité subjective vers la multiplicité des apparences. Le modeleur imagine un espace, une lumière, une scène, puis la machine calcule les conséquences optiques de cette imagination. L’imagination précède l’image, elle en est la condition transcendantale. Au second pôle, celui de l’induction statistique, l’imagination change de nature. Elle ne précède plus l’image, elle émerge avec elle. Elle n’est plus la faculté d’un sujet, mais la propriété d’un système. Elle n’unifie plus le multiple depuis une position transcendantale, elle condense le multiple depuis une position statistique. L’imagination n’est plus ce qui donne forme au chaos du sensible, elle est ce qui fait émerger de la cohérence depuis le bruit des données.

Ce qui fascine dans les modèles de diffusion, c’est précisément une zone trouble où l’imagination semble simultanément humaine et non-humaine. Quand on entre un prompt, on imagine quelque chose. Mais ce qui apparaît dépasse souvent ce qu’on avait imaginé. L’espace latent possède sa propre logique, ses propres règles implicites, ses propres patterns émergents. On y navigue comme dans un espace mental, mais un espace mental qui n’appartient à personne en particulier, qui est constitué par la mémoire collective du visible. Les vecteurs dans cet espace se comportent de manière étrange. On découvre qu’on peut effectuer des opérations arithmétiques sur eux : roi moins homme plus femme égale reine. Sourire plus visage égale visage souriant. Ces opérations ressemblent à des opérations de l’imagination, mais ce ne sont plus des opérations psychologiques au sens classique. Ce sont des opérations topologiques dans un espace de probabilités. L’imagination se trouve ici géométrisée, vectorisée, mais d’une géométrie qui n’est plus celle de l’espace euclidien, plutôt celle d’un hyperespace statistique aux milliers de dimensions.

Cette géométrisation de l’imagination pose des questions vertigineuses. Si l’imagination peut être encodée dans des vecteurs, si elle peut être manipulée mathématiquement, si elle peut être distribuée dans un système technique, que reste-t-il de son caractère proprement humain ? Sommes-nous encore les sujets de notre imagination ou en sommes-nous devenus les explorateurs ? L’imagination est-elle encore cette faculté mystérieuse qui nous distingue des machines ou est-elle devenue un processus calculable, optimisable, industrialisable ? La réponse ne peut être simple. Car l’imagination a toujours été, en un certain sens, technique. Kant lui-même le suggérait en parlant d’un art caché. L’imagination n’est pas une propriété naturelle, donnée, transparente. C’est une activité, un processus, une médiation. Elle a toujours requis des supports, des dispositifs, des extériorisations. L’écriture, le dessin, la peinture, la photographie, le cinéma : autant de techniques de l’imagination, autant de manières d’externaliser cette faculté interne.

Les modèles de diffusion ne font que pousser cette externalisation à un degré sans précédent. Ils ne suppriment pas l’imagination humaine, ils la redistribuent, la reconfigurent, la complexifient. Quand on génère une image avec Stable Diffusion, on n’abandonne pas l’imagination, on l’hybride avec un système technique qui possède sa propre forme d’imagination statistique. Ce qui émerge n’est ni purement humain ni purement machinique, c’est une imagination composée, distribuée entre plusieurs instances. Cette distribution de l’imagination a des conséquences importantes. Elle signifie d’abord que l’imagination n’est plus une propriété exclusive du sujet humain. Elle est devenue une propriété de systèmes sociotechniques complexes où humains et machines collaborent, souvent de manière invisible et inconsciente. Chaque image uploadée sur le web, chaque dataset constitué, chaque architecture de réseau conçue, chaque prompt écrit, contribue à façonner cette imagination collective distribuée. Elle signifie aussi que l’imagination n’est plus seulement projective, tournée vers l’avenir, vers le possible. Elle est également inductive, tournée vers le passé, vers le probable. L’imagination kantienne projetait des schèmes sur le flux du sensible pour lui donner forme. L’imagination statistique extrait des patterns du flux des données pour générer de nouvelles configurations. La première imagine ce qui pourrait être, la seconde recompose ce qui a été pour produire ce qui n’a jamais été mais qui possède la texture du déjà-vu.

Entre ces deux modalités, l’imagination contemporaine oscille constamment. Parfois nous imaginons des mondes, nous construisons des scènes, nous programmons des espaces. Parfois nous explorons des espaces latents, nous naviguons dans des probabilités, nous induisons des apparences depuis des mémoires collectives. La plupart du temps, nous faisons les deux simultanément, sans même nous en rendre compte. Cette coexistence des deux régimes transforme notre rapport au visible. Nous ne savons plus toujours si une image a été construite ou générée, projetée ou induite, imaginée depuis une conscience singulière ou condensée depuis une mémoire collective. Cette indécidabilité n’est pas un problème à résoudre, c’est la condition même du visible contemporain. Les images flottent maintenant dans cet entre-deux, elles circulent entre les deux pôles, elles empruntent à l’un et à l’autre.

Ce qui se joue dans cette tension entre schème et vecteur, entre imagination transcendantale et imagination statistique, c’est peut-être la naissance d’une imagination post-transcendantale. Une imagination qui ne pose plus les conditions de possibilité de l’expérience depuis une position a priori, mais qui émerge des conditions empiriques de la mémoire collective. Une imagination qui n’unifie plus le multiple depuis la conscience d’un sujet, mais qui condense le multiple depuis la distribution d’un système. Une imagination qui n’est plus seulement synthèse du divers, mais aussi induction du probable. Kant affirmait que sans imagination, le flux sensible resterait chaos. Peut-être faut-il aujourd’hui inverser la formule : sans le chaos du flux, sans le bruit des données, sans la dispersion des traces, l’imagination statistique ne pourrait pas émerger. L’imagination transcendantale donnait forme au chaos. L’imagination statistique fait émerger de la forme depuis le chaos. Entre les deux, entre l’ordre imposé et l’ordre émergent, entre le schème et le vecteur, se déploie le champ polarisé de l’imagination contemporaine.


Something, in the visible, has shifted. We no longer know quite where images come from, nor what they’re looking at. They appear, already made, already full, as if light had remembered everything. No longer reflections of the world, but residues of memory, precipitates of data that have learned to resemble.

We believed that seeing meant recognizing. Now, it means inducing. Images no longer start from a model, a plan, a geometric hypothesis: they emerge from an agitation, from noise. They weave themselves in a statistical matter where nothing is yet form, where everything hesitates between appearance and erasure.

One could say there are no longer images in the old sense, only gestures of calculation, oscillations of probability, clouds of possibilities. Light is no longer measured there: it is recomposed, slowly, by millions of other buried images. An anonymous, diffuse memory rises to the surface, as if the world’s imagination had moved outside us, into the very texture of the machine.

So, perhaps, what we see is no longer what we see. But the persistence of a seeing, without subject. A visible that remembers in our place.

Synthesis as Hypothesis In 3D synthesis, that of modeling software and computed rendering, the image always proceeds from a world. A fictional world no doubt, but a structured world: a geometric space, a distribution of light, an organization of volumes in extension. The modeler invents forms, arranges light sources, determines viewpoints. The machine then executes the calculations: projection of light, reflection on surfaces, interpolation of shadows. The final render appears as the rigorous optical consequence of a hypothetical world.

Everything there remains deducible in principle. The image flows from a structure that could be traversed, measured, reconfigured. It’s an image in which space exists before vision, where the gaze is only the effect of a projected world. The visible is born there from a prior architecture, from a geometric thought that invents the conditions of possibility of appearance.

Yet, even in this apparently mastered regime, zones of indeterminacy persist. Procedural textures use Perlin noise to generate unpredictable variations. Particle systems simulate fluids, smoke, fire, all phenomena whose exact behavior escapes direct control. Even in 3D, calculation already introduces randomness, emergence, the probabilistic. Geometric synthesis is never purely deductive. It contains within itself the seeds of induction, processes that strangely resemble what neural networks will do later.

We must therefore nuance. 3D synthesis tends toward deduction, it orients itself toward the calculable and predictable, but it never completely achieves this. In a render of smoke or waves, in a simulation of crowds or vegetation, something resists pure geometry. We program rules, certainly, but these rules produce configurations we hadn’t anticipated. The 3D world is hypothetical, but this hypothesis generates effects that overflow it.

Philosophically, we could say that this regime still falls under a Kantian aesthetics: it presupposes a space and time in which phenomena can appear, transcendental conditions of perception. The machine replays these conditions, it fabricates a world in which the image becomes thinkable. But this world is never totally transparent to itself. It contains its own zones of shadow, its own vanishing points.

In this first pole, the world precedes the image. The act of synthesis consists in producing a complete phenomenon from its conditions of possibility: light, matter, perspective, viewpoint. It’s a projection. A tendential deduction. A fiction in the strong sense: we make the world to see it, we make the world as a laboratory. We construct a mental space, then translate it into visible form. Synthesis here is an act of unification: it brings together the multiple into the unity of the phenomenon, the rendered image.

Synthesis as Statistical Induction With diffusion models, this economy is reversed. There is no longer a prior world, no geometric model, no explicitly constructed space to project. The image is no longer the consequence of an architectured scene: it is the result of an induction, the effect of a statistical memory. The machine doesn’t start from a volume in space, but from a cloud of data, an immense corpus of images seen, analyzed, decomposed into vectors of probabilities. It doesn’t invent a world in the geometric sense: it reactivates regularities extracted from millions of images. Generation no longer proceeds from spatial reasoning, but from a denoising process, a slow emergence of order from digital chaos.

In a diffusion model, we first learn to destroy: to add noise to images until nothing remains but a dust of intensities, a fog of shapeless pixels. Then we learn to reverse this process. To make a form, a color, a face resurge from the noise. The machine, guided by a text or a latent vector, traverses a space of probabilities, not a geometric space. It knows nothing of what it produces in the sense that it manipulates neither light, nor matter, nor space. It deduces nothing, it induces. The image that emerges has no single cause, no model behind it in the geometric sense. It is not projected from a constructed world, it emerges from a distribution of resemblances.

But here again, we must nuance. Because these diffusion models also learn structures. Not just superficial correlations, but deep regularities: the anatomy of bodies, the laws of perspective, the physical coherence of shadows, the spatial organization of scenes. Stable Diffusion, with its ControlNet modules, can even reintroduce explicit geometric constraints: edge detection, depth extraction, pose recognition. The latent space is not simply a chaos of correlations. It encodes structures, spatial relations, organizational principles that strangely resemble what a 3D modeler would have constructed explicitly.

The opposition is therefore not absolute. In 3D synthesis, we construct a world but this world generates the unpredictable. In statistical generation, we induce forms but these forms incorporate spatial structures. The two poles contaminate each other. Certain contemporary hybrid systems, like NeRF (Neural Radiance Fields), generate three-dimensional spaces from learning models. Dream Fusion uses diffusion models to create 3D objects. 3D Gaussian Splatting reconstructs scenes from probabilistic points. The boundary becomes porous, the two regimes interpenetrate.

This distinction nevertheless remains crucial. In 3D synthesis, the image is hypothetical: it flows from an invented world, coherent, governed by laws we have programmed. In statistical generation, it is inducible: it emerges from a network of learned correlations, from a collective memory of images seen. The first tends toward fiction, we make the world to see it. The second tends toward induction: we recompose visibility from traces of the already-seen world.

In 3D synthesis, coherence tendentially precedes vision. In AI generation, coherence tendentially emerges from vision itself. The synthetic image leans toward the effect of space. The generated image leans toward the effect of memory. One tends toward projection, the other toward apparition. One orients itself toward deduction, the other toward induction. But these tendencies are never pure, never absolute. They coexist, mix, continuously reconfigure themselves.

From Model to Corpus This passage from model to corpus, from hypothetical world to statistical world, doesn’t simply transform the nature of visibility. It complexifies it. 3D software starts from an intention: it translates an idea into form, it fabricates a mental space. But this space, as we’ve seen, already contains its own zones of indeterminacy. Artificial intelligence, for its part, functions from a distributed, multiple, contradictory intention. It correlates, aggregates, recomposes fragments of perception from millions of images created by countless authors. What it produces resembles an image, but it is a condensation of human visual experiences, an average of gazes, a calculated hallucination.

It’s no longer exactly a world projected by a singular subject, but the trace of a multitude of prior visions, aggregated into a coherent appearance. Diffusion models operate an induction of the visible: their functioning rests on the probability that a certain arrangement of pixels corresponds to something recognizable. What we see is not a reconstructed world in the geometric sense, but a statistical coincidence of visual signs. The machine sees nothing, it imagines nothing in the psychological sense, it adjusts. What we take for creation is an interpolation in the space of resemblances, a navigation in the cloud of possibles.

Yet, this interpolation is not arbitrary. It follows invisible rails, latent structures that organize the space of probabilities. When Stable Diffusion generates a face, it doesn’t randomly draw among pixels. It activates patterns that correspond to our collective understanding of what a face is: two eyes at a certain distance, a mouth below, a nose in the center, ears on the sides. These patterns are not explicitly programmed as in a 3D model, but they emerge from learning. Statistical induction recovers, by other means, structures that geometry had posed explicitly.

There is an ontological mutation here, certainly, but not a total rupture. No longer only projection of a world, but also emergence of an appearance from the memory of the visible. Images generated by AI effectively only refer to other images. They don’t directly simulate perception as 3D synthesis does: they simulate recognition. They produce the familiar without unique origin, the already-seen without singular antecedent. It’s a spectral visibility, haunted by all the images it has seen, saturated with the infinite memory of the visible.

The reversal is real but incomplete. In 3D synthesis, the visible tendentially flows from a constructed world, even if fictional. In image generation, the visible tendentially refers to other already-produced visibles. The first presupposes a model of the real that it invents. The second presupposes a memory of the real that it has accumulated: simulacra. The first constructs appearance from principles. The second reproduces its trace from examples. Where 3D rendering simulates the perception of a world, the diffusion network simulates the recognition of possible patterns.

Between Structure and Dispersion We must insist on this point. The latent space of generative models is not a space in the classical geometric sense, but it is not a pure chaos of correlations either. It’s a statistical space, a multidimensional mathematical structure where data are encoded as vectors of probabilities. In this space, each point can potentially generate an image, but no image exists there beforehand in pixelated form. There is neither light in the physical sense, nor tangible matter, nor visible form. Only regularities, correlations, calculated proximities among billions of visual fragments.

This space is in itself invisible, imperceptible. It contains, as possibility, an immense (though not infinite) number of generable images. But it contains no image in actuality. It’s a cloud of potentialities, a fog of resemblances where everything is connected without anything being fixed. The generation of an image is only the visualization of a point inside this space: a local actualization of a global probability.

Yet, this space is not without organization. Researchers who study latent spaces discover astonishing structures: vectorial directions that correspond to concepts (smile, age, brightness), regions that encode specific styles, gradients that allow continuous navigation from one image to another. The latent space possesses a topology, a proper geometry, which is not programmed but which emerges from learning.

We could say that the latent space is a world without origin but not without structure. A world that doesn’t precede the image in the sense that a 3D model precedes its rendering, but which is its result, the statistical product of learning on millions of images. In this world, there is no longer simple causality, no pure geometric deduction. There are only correlations, proximities, family resemblances. The image that emerges from it has no single source: it is the effect of a multitude of aggregated traces, of a collective memory that no longer allows itself to be decomposed into simple elements.

This is why the AI-generated image is profoundly indexical while being structured. It carries within it the traces of all the images that served to train the model, without being any of these images. It resembles everything without being anything precise. It is familiar without being exactly recognizable. It’s an image-specter, an apparition that haunts the visible without ever taking its place definitively. It is the ghost of all the images it has seen, but a ghost that obeys precise statistical laws.

On Synthesis Perhaps we must then rethink what image synthesis means rather than abandon the term. Because artificial intelligences also synthesize, but differently. They don’t bring together the multiple into the unity of a constructed spatial phenomenon. They condense traces to make a coherent appearance emerge. They don’t organize the visible from a pre-established plan, they sample it, filter it, redistribute it. They are not only vision machines in the optical sense, but collective memory machines. They don’t illuminate an invented space, they revive accumulated traces. Their synthesis is not an average because the latent space is continuous and therefore authorizes all passages, all metamorphoses.

Synthesis effectively changes meaning between the two poles. At the first pole, it designated an act of unification, a construction of the multiple toward the unity of the spatial phenomenon. At the second pole, it signifies an emergence of unity from the dispersion of traces. In the first case, the world tendentially precedes the image. In the second, it’s the image that tendentially precedes the world, or rather, it’s the collective memory of images that engenders new images. The geometric hypothesis coexists with statistical induction, projection with correlation.

The synthetic image at the first pole still belongs to a thinking of the world as constructible space. It is correlative, even if the content of this correlation is never attainable. The generated image at the second pole belongs to a thinking of images as analyzable corpus. But these two thoughts don’t cancel each other out. They complement each other, contaminate each other, mutually reconfigure each other. Contemporary hybrid systems prove it: we can now generate 3D worlds by statistical induction, we can constrain diffusion models by explicit geometries.

What 3D synthesis gives us to see is a world constructed from physical laws. What statistical generation shows us is a possible world induced from examples. Between these two poles of the visible extends all the gap between architectured fiction and aggregated memory, between hypothesis and induction. But this gap is not an abyss. It’s a gradient, a field of productive tensions.

The Image Without Subject There is an important philosophical consequence to this polarization. In 3D synthesis, there is still a subject or a team of subjects: the modeler, the designer, the one who constructs the world before projecting it into an image. In statistical generation, this subject multiplies and distributes itself. It becomes an anonymous multitude, a general intellect of the visible. The image is no longer the expression of a singular subjectivity but the product of a distributed statistical intelligence, which aggregates and recombines the visual productions of countless individuals.

Yet, the subject doesn’t completely disappear. It shifts, it distributes itself differently. Datasets are constituted by human choices, often opaque and biased. Architectures are designed by teams of engineers who make crucial decisions. Prompts are written by users who orient the generation. The subject doesn’t fade away, it distributes itself in the technical apparatus. It becomes multiple, fragmented, partially invisible, but it remains operative.

This means that the generated image has no single author, or that it has too many. It is the result of an involuntary collaboration, of an unconscious co-creation at the scale of the Web and beyond. It is the effect of a collective memory that doesn’t always know it is collective. It’s an image whose origin disperses, whose foundation multiplies, which floats in the latent space like a shared memory but without a single owner.

This spectral condition of the contemporary image confronts us with an unprecedented temporality where past and future telescope into the perpetual present of calculation. Each image generation constitutes the event of a paradoxical resurrection, which doesn’t bring back exactly what was, but brings forth what could have been. The latent space thus becomes the site of a thanato-poetics where visual dead continue to act through their digital traces, where past images haunt future images.

In 3D synthesis as well, the subject is never totally sovereign. Fluid simulations escape precise control, procedural textures generate the unexpected, real-time renders introduce approximations. Even at the first pole, the image partially overflows the intention of its creator. The difference is quantitative more than qualitative: at the second pole, this dispersion of the subject becomes massive, systematic, constitutive.

What this tension between two poles of synthesis reveals is the emergence of a new metaphysical configuration of the visible. A configuration that no longer rests uniquely on the hypothesis of a prior world to construct, nor uniquely on the induction of appearances from the memory of the visible, but on the tense coexistence of these two orientations. A polarized metaphysics, where there are no longer only conditions of possibility of visual experience in the Kantian sense, but also statistical correlations among aggregated traces, and where these two regimes mutually contaminate each other.

In this new configuration, the visible is no longer produced only by projection nor only by induction. It emerges from the tension between hypothesis and correlation, between model and corpus, between architecture and memory. The image is no longer the mirror of a constructed world, nor uniquely the mirror of images themselves. It is the place where these two mirrors face each other, creating infinite reflections, complex interferences.

What the machine shows is sometimes the ghost of a world, sometimes the ghost of all the images it has seen, sometimes an unstable mixture of both. A ghost that haunts our gaze, that populates our imaginary, that transforms our very relationship to what we call real. These generated images, these appearances without unique origin, these spectral visibilities, are obviously not without effect on the world. They flood it, saturate it, reconfigure it. They create new norms of resemblance, new standards of visibility. They fabricate the familiar where there was none, the recognizable where there was only noise. They influence our perception, our memory, our imagination. They become the milieu in which we see, the frame through which we look. But this milieu is not homogeneous. It is polarized, traversed by tensions, structured by gradients.

And it is perhaps there, in this light that can be sometimes wrested from the chaos of data, sometimes calculated from the laws of virtual optics, that a new way of seeing is invented. No longer only a gaze on the constructed world, nor only a gaze issued from the world of images itself, but a gaze that navigates between these two poles. A gaze that can be sometimes projective, sometimes inductive, sometimes both at once. A gaze without absolute certainty, but which assumes this uncertainty as its condition of possibility.

At the first pole, light illuminates a constructed scene. At the second, it emerges from the noise of data. But between these two poles, in the in-between that now constitutes our situation, light does both at once. It illuminates and it emerges. It projects and it condenses. It constructs and it induces. One showed us possible worlds. The other shows us probable worlds. Together, in their productive tension, they give us access to a vaster and more complex space of visibility.

Between these two syntheses extends all the gap between what we could imagine and what we have become capable of generating. No longer only creators of geometric worlds, nor only explorers of latent spaces, but navigators in a polarized field where construction and induction, architecture and memory, hypothesis and correlation meet, confront each other, mix. These clouds of probabilities where lies, invisible and omnipresent, the spectral memory of the visible, now coexist with geometric spaces where shine, calculable and controllable, the hypothetical worlds of classical synthesis.

Imagination: From Schema to Vector The tension between these two regimes of synthesis reveals something deeper than a simple technical evolution. It exposes a mutation of imagination itself, of its place, its functioning, its status. If we follow Kant in the first Critique, imagination is that mysterious faculty, that art hidden in the depths of the soul, which operates the synthesis between sensibility and understanding. It gives form to the flux of the sensible, it stabilizes the multiple into the unity of the phenomenon, it produces those schemata that allow intuition to encounter the concept. Kantian imagination is transcendental: it poses the conditions of possibility of experience. Without it, the sensible flux would remain chaos, the diverse would remain formless.

But what becomes of this imagination when it finds itself externalized, distributed, mediated by technical systems? What becomes of the schema when it takes the form of a vector in a multidimensional latent space? Because that’s what it’s about. The latent space of diffusion models is not simply a reservoir of images, nor a database in the classical sense. It’s a structure that functions analogously to transcendental imagination: it operates a mediation between the multiple (the millions of images in the dataset) and the unity (the generated image), it produces rules of construction that are no longer anchored in an individual consciousness but distributed in a mathematical space.

Kant spoke of monograms to designate these pure forms of imagination, these schemata that precede any particular image. The latent space functions according to a similar but radically transformed logic. The vector replaces the schema. Like the Kantian schema, the vector is empty of immediate semantic content. It is pure direction, pure tension, pure geometry. A vector is composed of two points, a line whose tension is the length, an arrow as direction. It has no meaning in itself. It is pure relation, pure difference, pure possibility of transformation. But unlike the Kantian schema, which proceeds from a unified transcendental subject, the vector proceeds from a distributed, collective, statistical memory. It is not posited a priori by a consciousness, it emerges from learning on millions of examples. It doesn’t unify the multiple from a transcendental position, it condenses the multiple from a statistical position. The Kantian schema allowed sensible intuition to meet the concept of understanding. The latent vector allows dispersed visual fragments to crystallize into a coherent image, but without conceptual mediation in the classical sense.

This displacement from schema to vector signals a profound transformation of imagination. At the first pole of synthesis, that of 3D modeling, imagination remains largely Kantian. It constructs a world, it poses the conditions of possibility of a visual phenomenon, it proceeds from a subjective unity toward the multiplicity of appearances. The modeler imagines a space, a light, a scene, then the machine calculates the optical consequences of this imagination. Imagination precedes the image, it is its transcendental condition. At the second pole, that of statistical induction, imagination changes nature. It no longer precedes the image, it emerges with it. It is no longer the faculty of a subject, but the property of a system. It no longer unifies the multiple from a transcendental position, it condenses the multiple from a statistical position. Imagination is no longer what gives form to the chaos of the sensible, it is what makes coherence emerge from the noise of data.

What fascinates in diffusion models is precisely a murky zone where imagination seems simultaneously human and non-human. When we enter a prompt, we imagine something. But what appears often exceeds what we had imagined. The latent space possesses its own logic, its own implicit rules, its own emergent patterns. We navigate in it as in a mental space, but a mental space that belongs to no one in particular, that is constituted by the collective memory of the visible. Vectors in this space behave strangely. We discover that we can perform arithmetic operations on them: king minus man plus woman equals queen. Smile plus face equals smiling face. These operations resemble operations of imagination, but they are no longer psychological operations in the classical sense. They are topological operations in a space of probabilities. Imagination finds itself here geometrized, vectorized, but with a geometry that is no longer that of Euclidean space, rather that of a statistical hyperspace with thousands of dimensions.

This geometrization of imagination poses vertiginous questions. If imagination can be encoded in vectors, if it can be manipulated mathematically, if it can be distributed in a technical system, what remains of its properly human character? Are we still the subjects of our imagination or have we become its explorers? Is imagination still this mysterious faculty that distinguishes us from machines or has it become a calculable, optimizable, industrializable process? The answer cannot be simple. Because imagination has always been, in a certain sense, technical. Kant himself suggested it by speaking of a hidden art. Imagination is not a natural, given, transparent property. It’s an activity, a process, a mediation. It has always required supports, devices, externalizations. Writing, drawing, painting, photography, cinema: so many techniques of imagination, so many ways of externalizing this internal faculty.

Diffusion models only push this externalization to an unprecedented degree. They don’t suppress human imagination, they redistribute it, reconfigure it, complexify it. When we generate an image with Stable Diffusion, we don’t abandon imagination, we hybridize it with a technical system that possesses its own form of statistical imagination. What emerges is neither purely human nor purely machinic, it’s a composite imagination, distributed among several instances. This distribution of imagination has important consequences. It first means that imagination is no longer an exclusive property of the human subject. It has become a property of complex sociotechnical systems where humans and machines collaborate, often invisibly and unconsciously. Each image uploaded to the web, each dataset constituted, each network architecture designed, each prompt written, contributes to shaping this distributed collective imagination. It also means that imagination is no longer only projective, turned toward the future, toward the possible. It is also inductive, turned toward the past, toward the probable. Kantian imagination projected schemata onto the flux of the sensible to give it form. Statistical imagination extracts patterns from the flux of data to generate new configurations. The first imagines what could be, the second recomposes what has been to produce what has never been but which possesses the texture of the already-seen.

Between these two modalities, contemporary imagination constantly oscillates. Sometimes we imagine worlds, we construct scenes, we program spaces. Sometimes we explore latent spaces, we navigate in probabilities, we induce appearances from collective memories. Most of the time, we do both simultaneously, without even realizing it. This coexistence of the two regimes transforms our relationship to the visible. We no longer always know if an image has been constructed or generated, projected or induced, imagined from a singular consciousness or condensed from a collective memory. This undecidability is not a problem to solve, it’s the very condition of the contemporary visible. Images now float in this in-between, they circulate between the two poles, they borrow from one and the other.

What is at stake in this tension between schema and vector, between transcendental imagination and statistical imagination, is perhaps the birth of a post-transcendental imagination. An imagination that no longer poses the conditions of possibility of experience from an a priori position, but which emerges from the empirical conditions of collective memory. An imagination that no longer unifies the multiple from the consciousness of a subject, but which condenses the multiple from the distribution of a system. An imagination that is no longer only synthesis of the diverse, but also induction of the probable. Kant affirmed that without imagination, the sensible flux would remain chaos. Perhaps today we must reverse the formula: without the chaos of flux, without the noise of data, without the dispersion of traces, statistical imagination could not emerge. Transcendental imagination gave form to chaos. Statistical imagination makes form emerge from chaos. Between the two, between imposed order and emergent order, between schema and vector, unfolds the polarized field of contemporary imagination.