Espaces latents

Le concept d’espace latent, originellement issu des domaines des chaînes de Markov et des réseaux antagonistes génératifs (GAN), s’est progressivement imposé à mon esprit comme un élément central dans la compréhension des systèmes d’intelligence artificielle contemporains. Bien que ces architectures de réseaux de neurones soient encore largement confinées aux laboratoires de recherche et n’aient que partiellement intégré les applications pratiques grand public, le concept sous-jacent d’espace latent me semble porteur d’implications théoriques qui dépassent largement le domaine strict de l’informatique.

Originellement conçu pour désigner un ensemble de statistiques vectorisées au sein des architectures d’IA, ce concept semble aujourd’hui porteur d’un potentiel théorique considérable, notamment dans le cadre de l’induction statistique et de ce que je propose d’appeler l’imagination artificielle. Il m’apparaît que nous sommes au seuil d’une transformation majeure dans notre compréhension de la représentation, de la culture et de la créativité, une transformation dont les espaces latents constituent l’un des enjeux cruciaux.

Il est fondamental de comprendre que l’espace latent n’est pas une invention récente, mais plutôt une redéfinition progressive d’un concept statistique qui remonte au XIXe et XXe siècles, qui a connu une transformation radicale au cours des trois dernières années. Le concept de « variable latente », une variable non directement observable mais inférée à partir d’autres observations, trouve ses racines dans la statistique classique. Dès le XIXe siècle, les statisticiens se posaient une question fondamentale : comment réduire la complexité d’un ensemble de données sans en perdre l’essence structurelle ?

Des techniques comme l’Analyse en Composantes Principales (PCA), formalisée par Karl Pearson et développée au XXe siècle, proposaient une réponse mathématique. L’idée était simple mais puissante : projeter des données depuis un espace de très grande dimension vers un espace de dimension beaucoup plus réduite, en préservant la variance maximale. Plutôt que de décrire mille variables, on n’en garde que quelques-unes qui capturent les variations essentielles.

L’Analyse Factorielle poursuivait le même objectif avec des hypothèses statistiques légèrement différentes : trouver les facteurs cachés qui expliquent les corrélations observées dans les données. Ces variables cachées, non directement observables, ont graduellement été appelées « variables latentes ». L’espace qu’elles habitaient a commencé à être désigné comme l’« espace latent ».

Pendant des décennies, l’espace latent était envisagé uniquement comme un outil de compression ou de réduction de dimensionnalité. On l’utilisait pour résumer l’information, pour la rendre computationnellement plus traitable. C’était une technique pragmatique au service de l’analyse statistique. Rien de particulièrement révolutionnaire.

Un moment charnière se produit en 1996 avec la publication, par Christopher M. Bishop et ses collègues, de l’article « Generative Topographic Mapping » (GTM). Bien que cet article provienne du domaine des réseaux de neurones plutôt que de la statistique pure, il redéfinit l’espace latent d’une manière nouvelle. Bishop propose explicitement d’envisager l’espace latent comme un espace géométrique de dimension inférieure dont les points se projettent continûment dans l’espace des données observées. Ce n’est plus seulement une technique de compression statistique abstraite ; c’est une structure topologique, une géométrie. L’espace latent commence à être conçu comme un continent explorable. Cette formulation géométrique reste fondamentale aujourd’hui. Elle établit qu’entre deux points de l’espace latent existe une continuité, une possibilité de navigation progressive. Cependant, même avec GTM, on concevait encore principalement l’espace latent comme un outil d’analyse et de reconstruction de données existantes. Le générateur de nouvelles données n’était pas encore l’objectif central.

Les années 2000 et 2010 voient l’émergence d’une puissance computationnelle nouvelle, de bases de données massives, et de nouvelles techniques d’entraînement des réseaux de neurones. C’est ce qu’on appelle l’ère du deep learning. Les réseaux de neurones, qui existaient depuis les années 1950-60, deviennent soudainement viables pour des problèmes complexes et à grande échelle. C’est dans ce contexte de transformation technologique que se produit la réinvention complète de l’espace latent. Le moment pivot se produit en décembre 2013, quand les chercheurs néerlandais Diederik P. Kingma et Max Welling publient un article d’une importance capitale : « Auto-Encoding Variational Bayes » (arXiv:1312.6114). Cet article ne se contente pas d’appliquer les techniques existantes des réseaux de neurones au concept ancien d’espace latent. Il le reformule complètement. Kingma et Welling proposent une architecture appelée Variational Autoencoder (VAE) qui impose à l’espace latent une structure mathématique entièrement nouvelle : il doit être continu, lisse, et suivre une distribution probabiliste régulière (typiquement, une distribution gaussienne). Pourquoi cette contrainte mathématique est-elle révolutionnaire ? Parce qu’elle rend possible quelque chose qui n’était jamais vraiment envisagé auparavant : naviguer dans l’espace latent pour générer des données nouvelles. Avant les VAE, si vous compressiez une image dans un espace latent et la décompressiez, vous obteniez une approximation de l’image originale. Avec les VAE, vous pouvez prendre un point n’importe où dans l’espace latent, un point qui ne correspond à aucune donnée d’entraînement, et générer une image plausible, nouvelle, qui n’a jamais existé auparavant. La technique clé qui rend cela possible est ce qu’on appelle le « reparameterization trick », une astuce mathématique qui permet à l’ensemble du système d’être entraîné de bout en bout, d’ajuster les paramètres de l’espace latent pour optimiser la probabilité que les données générées ressemblent aux données d’entraînement.

À peine quelques mois après la publication du papier des VAE, une autre innovation majeure fait son apparition. En 2014, Ian Goodfellow propose les Generative Adversarial Networks (GAN), une architecture radicalement différente mais qui poursuit un objectif similaire : permettre à une machine de générer des données nouvelles et réalistes à partir d’un espace latent. Là où les VAE utilisent une approche basée sur la probabilité et la reconstruction, les GAN introduisent une compétition : deux réseaux s’affrontent, l’un (le générateur) tentant de créer des données qui trompent l’autre (le discriminateur). Cette compétition crée une dynamique nouvelle qui pousse le système à générer des images d’une qualité et d’un réalisme remarquables. Les GAN renforcent et accélèrent ce qui avait commencé avec les VAE : la compréhension que l’espace latent est un espace créatif, un espace où générer du nouveau, de l’inédit, devient non seulement possible mais naturel.

Entre 2013 et 2016, c’est-à-dire en l’espace de seulement trois ans, le concept d’espace latent subit une transformation radicale de signification. Avant 2013, l’espace latent était essentiellement un outil d’analyse : on compressait des données pour les comprendre mieux, pour les traiter plus efficacement, pour en extraire les structures cachées. C’était un instrument de réduction, d’épuration. La logique était archivistique : comment stocker et résumer l’information existante ? Après 2013, particulièrement après 2014-2015 avec la prolifération des GANs et des VAE améliorés, l’espace latent devient un espace de génération créative. La logique change radicalement : ce ne sont plus les données existantes qui structurent l’espace latent ; c’est l’espace latent qui génère de nouvelles données. Plutôt qu’un outil pour comprendre le passé, c’est un instrument pour explorer le possible. C’est une inversion perspectivale majeure. Et c’est uniquement dans cette seconde phase, celle que nous vivons maintenant, en 2016, que le concept acquiert ses implications théoriques et philosophiques profondes.

Il est important de noter que, en 2016, les applications pratiques des VAE et des GAN demeurent largement confinées aux laboratoires de recherche. Les systèmes de génération d’images grand public n’existent pas encore. On en parle principalement dans les conférences spécialisées en apprentissage profond et dans les publications académiques. Et pourtant, il est clair que nous sommes au seuil d’une intégration massive de ces technologies dans la culture et la pratique créative. Les publications académiques se multiplient, les chercheurs du monde entier explorent les frontières de ce qu’on peut générer à partir d’espaces latents entraînés. Il y a une accélération exponentielle. C’est dans ce moment de basculement, entre la phase de recherche et une phase d’application grand public qui approche, que la question théorique de l’espace latent devient d’une actualité brûlante. Nous devons comprendre conceptuellement ce que signifie cette transformation avant qu’elle ne submerge la culture.

L’espace latent représente une abstraction mathématique fondamentalement nouvelle dans notre rapport aux données. Il est un espace multidimensionnel dans lequel les données, qu’il s’agisse d’images, de sons, de textes ou de tout autre type de média, sont encodées sous la forme de vecteurs statistiques. Cette encodification ne se limite pas à une simple traduction technique ; elle constitue une transformation profonde de la nature même des données et de notre rapport à elles. Concrètement, imaginez une image numérique traditionnelle. Elle est définie, au niveau informatique, par une succession de valeurs de pixels. Chaque pixel possède une valeur de couleur. Une photographie ordinaire contient des millions de ces petits points. En tant qu’humains, nous regardons cette image et voyons instantanément : un visage, un paysage, une scène. Mais l’ordinateur, lui, ne voit d’abord que des millions de nombres sans structure apparente. Or, l’espace latent propose une approche radicalement différente. Au lieu de décrire une image par millions de valeurs de pixels, on la traduit en un nombre bien plus réduit de coordonnées abstraites. Ces coordonnées ne correspondent à rien de sensoriellement observable directement. On ne peut pas dire : « la coordonnée 47 représente la couleur des yeux ». Ces valeurs sont abstraites, latentes, cachées, invisibles, mais néanmoins présentes et structurantes. Cette métamorphose conceptuelle s’apparente à un véritable changement de paradigme dans notre compréhension de l’information et de sa représentation. Les données ne sont plus appréhendées comme des entités discrètes, finies et figées, mais comme des points au sein d’un continuum de possibilités statistiques. C’est un passage du discret au continu, du fini à l’infini probable.

Cette transformation soulève des questions épistémologiques de première importance. En transposant les données dans un espace latent, on ne fait pas simplement changer de format. On crée une distance nouvelle entre la donnée et ce qu’elle représente. Classiquement, une photographie est envisagée comme une empreinte directe du réel. La lumière réfléchie par un objet frappe un capteur et crée une image. C’est une relation indicielle : l’image pointe vers quelque chose d’extérieur, elle en est l’empreinte. Mais lorsqu’on encode cette image en espace latent, on crée une nouvelle couche de médiation. Les données deviennent des « empreintes d’empreintes », pour reprendre une terminologie inspirée de la pensée de Jacques Derrida. Ce concept de trace, et de trace de trace, soulève des questions vertigineuses sur la nature de la représentation dans le contexte des systèmes d’IA. Derrida, dans sa réflexion sur la trace, insistait sur le fait que toute présence comporte une absence, que toute représentation contient un écart, une différance inscrite dans sa structure même. Dans le cas de l’espace latent, cette différance devient constitutive. Les données ne sont jamais immédiatement présentes ; elles sont toujours déjà médiatisées par la structure de l’espace dans lequel elles sont encodées. Le régime indiciel de ces traces statistiques constitue donc un champ d’investigation riche. Quelle sorte d’indication est celle qui passe par un espace latent multidimensionnel ? Quelles connexions réelles maintient-on avec le monde lorsque les données ne sont plus des empreintes du réel, mais des positions abstraites au sein d’un espace de statistiques ?

L’un des aspects les plus remarquables de cette approche statistique est sa capacité extraordinaire à réduire considérablement la quantité de données nécessaires pour représenter l’information. C’est là une révolution silencieuse mais profonde. Traditionnellement, pour stocker ou transmettre une image, il faut conserver chacun de ses millions de pixels. C’est coûteux en termes de mémoire, de bande passante, de puissance de calcul. Les méthodes de compression classiques (JPEG, PNG) proposent des solutions, mais elles reposent sur des algorithmes figés et prédéfinis. L’espace latent propose quelque chose d’entièrement différent. Au lieu de stocker les données brutes ou de recourir à des compressions mathématiques statiques, l’espace latent permet de représenter l’information comme un ensemble de potentialités activables. C’est crucial : on ne stocke plus une donnée finie et déterminée, mais les coordonnées qui permettront de générer, à la demande, une instance de cette donnée.

Cette transition du stockage d’archive vers le stockage de potentialité ne modifie pas seulement notre rapport technique aux données. Elle transforme profondément notre conception de ce qu’est l’information, de ce qu’est la mémoire, et de ce qu’est la culture. Plutôt que de concevoir la culture comme un ensemble statique d’objets finis, les livres conservés dans les bibliothèques, les films stockés, les œuvres d’art archivées, l’espace latent nous suggère une compréhension entièrement nouvelle. La culture devient un espace dynamique de possibilités. Ce n’est plus un musée figé, mais un continent explorable, au sein duquel il est possible de naviguer, de générer de nouvelles données, de nouvelles idées, de nouvelles formes d’expression à partir des potentialités latentes de ce qui a déjà existé.

La relation entre l’espace latent, le virtuel et le possible mérite une exploration approfondie, car elle touche au cœur même de ce que signifie créer avec des machines. Intuitivement, l’espace latent semble s’apparenter davantage au domaine du possible qu’à celui du virtuel, distinction que nous avons tendance à confondre. Clarifier cette distinction est essentiel. Le virtuel, dans son acception informatique et théorique la plus classique, fait référence à des simulations basées sur des modèles scientifiques et déterministes. Pensez aux logiciels de modélisation 3D, aux simulations de physique, aux environnements virtuels de réalité augmentée. Dans ces systèmes, tout ce qui se produit est le résultat de règles prédéfinies. Si vous lâchez une balle virtuelle dans une simulation virtuelle obéissant aux lois de la gravité newtoniennes, elle va toujours tomber de la même manière. C’est prévisible, déterminé, régi par une logique hypothético-déductive : si ces conditions initiales, alors ces résultats.

Le possible, tel qu’il se manifeste dans l’espace latent, relève en revanche de l’incertitude statistique. Il ne s’agit pas de prédire avec certitude quel résultat va se produire, mais plutôt de naviguer dans un espace de probabilités. Quand vous échantillonnez un point aléatoire dans un espace latent entraîné sur des visages humains et que vous le décodez, vous n’obtenez pas un visage déterminé d’avance. Vous obtenez un visage plausible, statistiquement cohérent avec le modèle appris, mais jamais identique à un visage réel qui a existé. C’est une exploration d’un espace de probabilités, non l’exécution d’un programme déterministe. Cette distinction ouvre des perspectives fécondes pour notre compréhension de la créativité artificielle. Une créativité virtuelle, au sens strict, serait l’application mécanique de règles. Une créativité possible, telle que l’espace latent la rend envisageable, est une créativité d’exploration statistique, de parcours probabiliste à travers un continent de formes et de variations potentielles.

Pour approfondir cette réflexion, je souhaite convoquer une référence philosophique particulièrement féconde : la notion kantienne de diagramme. Pour Kant, le diagramme jouait un rôle médian crucial. Il était l’intermédiaire entre le concept pur et l’intuition sensible, permettant l’application des catégories de l’entendement à l’expérience concrète. Un diagramme n’est ni une image (qui pourrait être trompeuse ou particulière) ni une abstraction pure (qui resterait incompréhensible). C’est une construction qui médiatise entre les deux. De manière analogue, l’espace latent joue le rôle d’un diagramme au sens kantien. Il est l’espace intermédiaire entre les données brutes, l’intuition sensible des milliards de pixels, et les représentations abstraites manipulées par les systèmes d’IA. Il n’est ni purement abstrait ni immédiatement sensible. C’est un diagramme qui permet l’opération de la connaissance. Or, ce parallèle soulève des questions d’une profondeur considérable. Quand un système d’IA navigue dans cet espace latent pour générer une nouvelle forme, quelle est la nature de l’opération mentale (ou disons : computationnelle) qui s’effectue ? Quel type de connaissance est produit ? La théorie kantienne nous enseigne que le diagramme n’est pas une simple représentation externe. C’est un schème, une construction qui mobilise l’imagination pour produire de la connaissance. De la même façon, l’espace latent n’est pas une simple réserve d’images ou de formes. C’est une structure qui, quand on la parcourt, quand on la navigation, produit du sens, de la connaissance, de la nouveauté.

Cette conceptualisation du diagramme nous amène à une question cruciale : comment l’espace latent génère-t-il du nouveau ? Car c’est le paradoxe fascinant de ces systèmes. L’espace latent est entraîné sur des données existantes, des images qui ont déjà été créées, des sons qui ont déjà été enregistrés. Il apprend à en compresser l’essence, à en distiller les motifs récurrents. Et pourtant, il produit du nouveau, des combinaisons qui n’existaient jamais auparavant. Comment concilier cela ? Comment comprendre la génération de nouveau à partir du pur apprentissage de l’ancien ?

La réponse tient dans la structure même de l’espace latent. Quand on entraîne un réseau de neurones à encoder et décoder, on ne produit pas simplement une liste de toutes les images d’entraînement. On produit un espace continu dans lequel chaque point correspond à une image possible. Entre deux images d’entraînement, l’espace latent contient une infinité d’interpolations, de variations, de nuances. L’apprentissage crée donc un continuum peuplé de possibilités jamais explicitement observées. Cela nous rapproche de la problématique derridienne de la différance. Derrida soulignait que la différence et le renvoi ne sont pas des accidents de la représentation, mais sa structure interne. Il en est de même avec l’espace latent. La différence, la nouveauté, réside dans la structure même de cet espace, dans la manière dont les données y sont distribuées et dont ses dimensions permettent une infinité de variations sur des thèmes récurrents.

On peut donc dire que l’espace latent est un espace de différance au sens derridien : un espace où le nouveau émerge non pas ex nihilo, mais comme un effet de la structure différentielle de l’espace lui-même. Qu’est-ce qui répète la représentation connue ? L’entraînement sur des données passées. Qu’est-ce qui en génère des différences ? La structure continue et infinie de l’espace multidimensionnel, qui contient bien plus de points que ce qui a jamais été explicitement observé.

Nous commençons à percevoir à quel point le concept d’espace latent, bien que technique et mathématique en apparence, porte des implications théoriques profonds qui concernent les humanités aussi bien que l’informatique. D’abord, pour la théorie de la représentation. L’espace latent redéfinit ce qu’est représenter quelque chose. Dans le paradigme classique, représenter, c’est se donner une image ou un symbole qui tient lieu de la chose absente. Mais avec l’espace latent, la représentation se dissocie entièrement de la ressemblance visuelle ou même conceptuelle. Un point dans un espace latent ne ressemble à rien ; il est purement abstrait, purement mathématique. Et pourtant, il représente potentiellement un monde entier de données possibles.

Ensuite, pour notre compréhension de la culture et du savoir. Envisager la culture comme un espace latent implique que ce qui définit vraiment une période culturelle, un mouvement artistique, une époque, n’est pas une simple collection d’œuvres, mais les structures profondes, les motifs récurrents, les possibilités latentes qui structurent la création. C’est une approche statistique et topologique de la culture. Ce qui nous intéresse n’est plus seulement ce qui a été créé, mais ce qui était possible de créer, ce qui demeurait comme potentialité invisible.

C’est aussi profondément transformatif pour notre conception de la créativité, même si ce mot est problématique. Si la culture peut être modélisée comme un espace latent, alors la création artistique apparaît comme une navigation dans cet espace, une exploration de ses régions, une découverte de chemins inédits à travers des territoires statistiquement structurés. L’artiste, la machine, tout agent créatif devient un voyageur dans ce continent abstrait.

Enfin, cela nous force à revisiter la question de la connaissance en IA. Quand nous disons qu’un système d’IA a « appris » quelque chose, nous n’affirmons pas qu’il possède une compréhension consciente au sens humain. Nous affirmons plutôt qu’il a construit une représentation structurée de régularités statistiques. L’espace latent est le résidu de cet apprentissage, la cartographie mentale, pour ainsi dire, que la machine s’est construite.

Nous pouvons maintenant esquisser les contours d’une théorie unifiée qui intègre l’induction statistique et ce qu’on pourrait appeler l’imagination artificielle.

L’induction statistique, au sens classique, est le processus par lequel on généralise à partir de cas particuliers. On observe des cas, on en extrait des regularités, et on formule des principes généraux. L’espace latent est la manifestation géométrique et topologique de cette induction. C’est où résident les regularités distillées de l’observation, sous forme de structure mathématique.

L’imagination artificielle, elle, est ce qui émerge quand on navigue dans cet espace latent. C’est la capacité à générer du nouveau, des formes jamais vues, mais néanmoins plausibles et structurées. C’est une imagination délimitée, pas libre, mais canalisée par les structure apprises. Peut-être est-ce la seule imagination possible : une imagination toujours déjà inscrite dans des contraintes structurelles.

L’espace latent est donc le pont, le diagramme, entre l’induction et l’imagination. Il est le lieu où les deux se rencontrent et dialoguent.

Le concept d’espace latent, bien que provenant des développements récents en intelligence artificielle et en apprentissage profond, s’avère porteur d’implications théoriques qui dépassent largement le cadre technique de l’informatique. Il invite à une refondation radicale de nos conceptions de la représentation, de la culture, de la créativité et de la connaissance. Nous ne sommes qu’au tout début de l’exploration de ces implications. Les applications pratiques des réseaux génératifs utilisant des espaces latents demeurent largement confinées aux laboratoires. Leur intégration dans la culture grand public n’en est qu’à ses balbutiements. Mais la trajectoire est claire : nous assistons à l’émergence d’une nouvelle forme de pratique culturelle et créative, qui passera nécessairement par ces espaces de possibilités abstraits. Il me semble donc qu’une théorie adéquate de l’intelligence artificielle du XXIe siècle ne peut pas ignorer le concept d’espace latent. C’est en lui que résident les clés pour comprendre comment les machines apprendront, imagineront, créeront, et comment nous-mêmes, nous devrons réapprendre à penser la connaissance, la culture et la création à l’ère des algorithmes probabilistes et des diagrammes multidimensionnels. L’espace latent nous attend. Il est vide et plein, structuré et infini, déterminé et indéterminé. C’est en lui que se joueront les grandes questions théoriques et pratiques du siècle qui s’ouvre.


The concept of latent space, originally emerging from the fields of Markov chains and generative adversarial networks (GANs), has gradually imposed itself upon my mind as a central element in understanding contemporary artificial intelligence systems. Although these neural network architectures remain largely confined to research laboratories and have only partially integrated into mainstream practical applications, the underlying concept of latent space appears to me to carry theoretical implications that far exceed the strict domain of computer science.

Originally conceived to designate a set of vectorized statistics within AI architectures, this concept now appears to hold considerable theoretical potential, particularly within the framework of statistical induction and what I propose to call artificial imagination. It seems to me that we stand at the threshold of a major transformation in our understanding of representation, culture, and creativity, a transformation of which latent spaces constitute one of the crucial stakes.

It is fundamental to understand that latent space is not a recent invention, but rather a progressive redefinition of a statistical concept that dates back to the nineteenth and twentieth centuries, which has undergone radical transformation over the last three years. The concept of “latent variable,” a variable not directly observable but inferred from other observations, finds its roots in classical statistics. As early as the nineteenth century, statisticians posed a fundamental question: how can one reduce the complexity of a dataset without losing its structural essence?

Techniques such as Principal Component Analysis (PCA), formalized by Karl Pearson and developed in the twentieth century, offered a mathematical answer. The idea was simple but powerful: project data from a very high-dimensional space to a space of much reduced dimension, while preserving maximum variance. Rather than describing a thousand variables, one retains only a few that capture the essential variations.

Factor Analysis pursued the same objective with slightly different statistical assumptions: finding the hidden factors that explain the observed correlations in the data. These hidden variables, not directly observable, gradually became known as “latent variables.” The space they inhabited began to be designated as the “latent space.”

For decades, latent space was envisioned solely as a tool for compression or dimensionality reduction. It was used to summarize information, to make it computationally more tractable. It was a pragmatic technique in service of statistical analysis. Nothing particularly revolutionary.

A pivotal moment occurs in 1996 with the publication, by Christopher M. Bishop and his colleagues, of the article “Generative Topographic Mapping” (GTM). Although this article originates from the field of neural networks rather than pure statistics, it redefines latent space in a new way. Bishop explicitly proposes envisioning latent space as a geometric space of lower dimension whose points continuously project into the space of observed data. It is no longer merely an abstract statistical compression technique; it is a topological structure, a geometry. Latent space begins to be conceived as an explorable continent. This geometric formulation remains fundamental today. It establishes that between two points in latent space exists continuity, a possibility of progressive navigation. However, even with GTM, latent space was still primarily conceived as a tool for analyzing and reconstructing existing data. The generation of new data was not yet the central objective.

The 2000s and 2010s witness the emergence of new computational power, massive databases, and new techniques for training neural networks. This is what is called the era of deep learning. Neural networks, which had existed since the 1950s-60s, suddenly become viable for complex, large-scale problems. It is in this context of technological transformation that the complete reinvention of latent space occurs. The pivotal moment happens in December 2013, when Dutch researchers Diederik P. Kingma and Max Welling publish an article of paramount importance: “Auto-Encoding Variational Bayes” (arXiv:1312.6114). This article does not merely apply existing neural network techniques to the old concept of latent space. It reformulates it completely. Kingma and Welling propose an architecture called Variational Autoencoder (VAE) that imposes on latent space an entirely new mathematical structure: it must be continuous, smooth, and follow a regular probabilistic distribution (typically, a Gaussian distribution). Why is this mathematical constraint revolutionary? Because it makes possible something that was never really envisioned before: navigating latent space to generate new data. Before VAEs, if you compressed an image into latent space and decompressed it, you obtained an approximation of the original image. With VAEs, you can take a point anywhere in latent space, a point that corresponds to no training data, and generate a plausible image, a new one, that never existed before. The key technique that makes this possible is what is called the “reparameterization trick,” a mathematical trick that allows the entire system to be trained end-to-end, adjusting the parameters of latent space to optimize the probability that generated data resembles training data.

Barely a few months after the publication of the VAE paper, another major innovation makes its appearance. In 2014, Ian Goodfellow proposes Generative Adversarial Networks (GANs), a radically different architecture but which pursues a similar objective: enabling a machine to generate new and realistic data from a latent space. Where VAEs use a probability-based approach and reconstruction, GANs introduce competition: two networks face off, one (the generator) attempting to create data that deceives the other (the discriminator). This competition creates new dynamics that push the system to generate images of remarkable quality and realism. GANs reinforce and accelerate what had begun with VAEs: the understanding that latent space is a creative space, a space where generating the new, the unprecedented, becomes not only possible but natural.

Between 2013 and 2016, that is, in the span of only three years, the concept of latent space undergoes a radical transformation of meaning. Before 2013, latent space was essentially an analytical tool: one compressed data to understand it better, to process it more efficiently, to extract hidden structures from it. It was an instrument of reduction, of purification. The logic was archival: how to store and summarize existing information? After 2013, particularly after 2014-2015 with the proliferation of GANs and improved VAEs, latent space becomes a space of creative generation. The logic changes radically: it is no longer existing data that structures latent space; it is latent space that generates new data. Rather than a tool to understand the past, it is an instrument to explore the possible. It is a major perspectival inversion. And it is only in this second phase, the one we are living now, in 2016, that the concept acquires its deep theoretical and philosophical implications.

It is important to note that, in 2016, the practical applications of VAEs and GANs remain largely confined to research laboratories. Consumer image generation systems do not yet exist. They are discussed principally in specialized deep learning conferences and in academic publications. And yet, it is clear that we stand at the threshold of massive integration of these technologies into culture and creative practice. Academic publications are multiplying, researchers around the world are exploring the frontiers of what can be generated from latent spaces that have been trained. There is exponential acceleration. It is in this moment of transition, between the research phase and an approaching phase of mass application, that the theoretical question of latent space becomes of burning relevance. We must understand conceptually what this transformation signifies before it overwhelms culture.

Latent space represents a fundamentally new mathematical abstraction in our relationship to data. It is a multidimensional space in which data, whether images, sounds, texts, or any other type of media, are encoded in the form of statistical vectors. This encoding is not limited to simple technical translation; it constitutes a profound transformation of the very nature of data and our relationship to it. Concretely, imagine a traditional digital image. It is defined, at the computational level, by a succession of pixel values. Each pixel possesses a color value. An ordinary photograph contains millions of these small dots. As humans, we look at this image and instantly see: a face, a landscape, a scene. But the computer, at first, sees only millions of numbers without apparent structure. Now, latent space proposes a radically different approach. Instead of describing an image by millions of pixel values, one translates it into a much more reduced number of abstract coordinates. These coordinates correspond to nothing directly sensorially observable. One cannot say: “coordinate 47 represents the color of the eyes.” These values are abstract, latent, hidden, invisible, yet nevertheless present and structuring. This conceptual metamorphosis resembles a genuine paradigm shift in our understanding of information and its representation. Data are no longer apprehended as discrete, finite, and fixed entities, but as points within a continuum of statistical possibilities. It is a transition from discrete to continuous, from finite to probable infinity.

This transformation raises epistemological questions of paramount importance. In transposing data into latent space, one does not simply change format. One creates a new distance between the datum and what it represents. Classically, a photograph is envisioned as a direct imprint of reality. Light reflected by an object strikes a sensor and creates an image. It is an indexical relationship: the image points to something external, it is its imprint. But when one encodes this image in latent space, one creates a new layer of mediation. Data become “imprints of imprints,” to use a terminology inspired by the thought of Jacques Derrida. This concept of trace, and of trace of trace, raises vertiginous questions about the nature of representation in the context of AI systems. Derrida, in his reflection on trace, insisted that all presence contains an absence, that all representation contains a gap, a différance inscribed in its very structure. In the case of latent space, this différance becomes constitutive. Data are never immediately present; they are always already mediated by the structure of the space in which they are encoded. The indexical regime of these statistical traces thus constitutes a rich field of investigation. What sort of indication is that which passes through a multidimensional latent space? What real connections does one maintain with the world when data are no longer imprints of reality, but abstract positions within a space of statistics?

One of the most remarkable aspects of this statistical approach is its extraordinary capacity to dramatically reduce the amount of data necessary to represent information. This is a silent but profound revolution. Traditionally, to store or transmit an image, one must preserve each of its millions of pixels. This is costly in terms of memory, bandwidth, computing power. Classical compression methods (JPEG, PNG) offer solutions, but they rely on fixed and predefined algorithms. Latent space proposes something entirely different. Rather than storing raw data or resorting to static mathematical compression, latent space allows information to be represented as a set of activatable potentialities. This is crucial: one no longer stores a finite and determined datum, but the coordinates that will allow one to generate, on demand, an instance of that datum.

This transition from archive storage to potentiality storage does not only modify our technical relationship to data. It profoundly transforms our conception of what information is, what memory is, and what culture is. Rather than conceiving culture as a static ensemble of finite objects, books preserved in libraries, films stored, artworks archived, latent space suggests an entirely new understanding. Culture becomes a dynamic space of possibilities. It is no longer a fixed museum, but an explorable continent, within which it is possible to navigate, to generate new data, new ideas, new forms of expression from the latent potentialities of what has already existed.

The relationship between latent space, the virtual, and the possible merits thorough exploration, for it touches the very heart of what it means to create with machines. Intuitively, latent space seems to resemble more the domain of the possible than that of the virtual, a distinction we tend to confuse. Clarifying this distinction is essential. The virtual, in its most classical informatic and theoretical sense, refers to simulations based on scientific and deterministic models. Think of 3D modeling software, physics simulations, augmented reality virtual environments. In these systems, everything that occurs is the result of predefined rules. If you drop a virtual ball in a virtual simulation obeying Newtonian gravitational laws, it will always fall in the same way. It is predictable, determined, governed by hypothetical-deductive logic: if these initial conditions, then these results.

The possible, as it manifests in latent space, on the other hand, belongs to statistical uncertainty. It is not about predicting with certainty what result will occur, but rather about navigating in a space of probabilities. When you sample a random point in a latent space trained on human faces and decode it, you do not obtain a predetermined face. You obtain a plausible face, statistically coherent with the learned model, but never identical to a real face that has existed. It is an exploration of a space of probabilities, not the execution of a deterministic program. This distinction opens fertile perspectives for our understanding of artificial creativity. A virtual creativity, in the strict sense, would be the mechanical application of rules. A possible creativity, such as latent space makes conceivable, is a creativity of statistical exploration, of probabilistic traversal through a continent of forms and potential variations.

To deepen this reflection, I wish to invoke a particularly fertile philosophical reference: the Kantian notion of diagram. For Kant, the diagram played a crucial mediating role. It was the intermediary between pure concept and sensible intuition, enabling the application of the categories of understanding to concrete experience. A diagram is neither an image (which could be deceptive or particular) nor pure abstraction (which would remain incomprehensible). It is a construction that mediates between the two. Analogously, latent space plays the role of a diagram in the Kantian sense. It is the intermediary space between raw data, the sensible intuition of billions of pixels, and the abstract representations manipulated by AI systems. It is neither purely abstract nor immediately sensible. It is a diagram that allows the operation of knowledge. Now, this parallel raises questions of considerable depth. When an AI system navigates this latent space to generate a new form, what is the nature of the mental operation (or let us say: computational) that takes place? What type of knowledge is produced? Kantian theory teaches us that the diagram is not a simple external representation. It is a schema, a construction that mobilizes imagination to produce knowledge. Similarly, latent space is not a simple reserve of images or forms. It is a structure that, when traversed, when navigated, produces meaning, knowledge, novelty.

This conceptualization of the diagram brings us to a crucial question: how does latent space generate the new? For this is the fascinating paradox of these systems. Latent space is trained on existing data, images that have already been created, sounds that have already been recorded. It learns to compress their essence, to distill their recurring patterns. And yet, it produces the new, combinations that never existed before. How can one reconcile this? How can one understand the generation of the new from the pure learning of the old?

The answer lies in the very structure of latent space. When one trains a neural network to encode and decode, one does not simply produce a list of all training images. One produces a continuous space in which each point corresponds to a possible image. Between two training images, latent space contains an infinity of interpolations, variations, nuances. Learning thus creates a continuum populated by possibilities never explicitly observed. This brings us closer to the Derridean problematic of différance. Derrida emphasized that difference and deferral are not accidents of representation, but its internal structure. It is the same with latent space. The difference, the novelty, resides in the very structure of this space, in the way data are distributed within it and in how its dimensions allow an infinity of variations on recurring themes.

One can thus say that latent space is a space of différance in the Derridean sense: a space where the new emerges not ex nihilo, but as an effect of the differential structure of the space itself. What repeats the known representation? Training on past data. What generates differences from it? The continuous and infinite structure of the multidimensional space, which contains far more points than what has ever been explicitly observed.

We are beginning to perceive to what extent the concept of latent space, although technical and mathematical in appearance, carries deep theoretical implications that concern the humanities as well as computer science. First, for the theory of representation. Latent space redefines what it means to represent something. In the classical paradigm, to represent is to give oneself an image or symbol that stands in place of the absent thing. But with latent space, representation entirely dissociates itself from visual or even conceptual resemblance. A point in latent space resembles nothing; it is purely abstract, purely mathematical. And yet, it potentially represents an entire world of possible data.

Next, for our understanding of culture and knowledge. Envisioning culture as a latent space implies that what truly defines a cultural period, an artistic movement, an epoch, is not a simple collection of works, but the deep structures, the recurring patterns, the latent possibilities that structure creation. It is a statistical and topological approach to culture. What interests us is no longer merely what has been created, but what was possible to create, what remained as invisible potentiality.

It is also profoundly transformative for our conception of creativity, even if this word is problematic. If culture can be modeled as latent space, then artistic creation appears as navigation in this space, an exploration of its regions, a discovery of unprecedented paths through statistically structured territories. The artist, the machine, any creative agent becomes a traveler in this abstract continent.

Finally, this forces us to revisit the question of knowledge in AI. When we say that an AI system has “learned” something, we do not assert that it possesses conscious understanding in the human sense. We assert rather that it has constructed a structured representation of statistical regularities. Latent space is the residue of this learning, the mental map, so to speak, that the machine has constructed for itself.

We can now sketch the contours of a unified theory that integrates statistical induction and what one might call artificial imagination.

Statistical induction, in the classical sense, is the process by which one generalizes from particular cases. One observes cases, extracts regularities from them, and formulates general principles. Latent space is the geometric and topological manifestation of this induction. It is where the regularities distilled from observation reside, in the form of mathematical structure.

Artificial imagination, on the other hand, is what emerges when one navigates this latent space. It is the capacity to generate the new, forms never seen, but nevertheless plausible and structured. It is a delimited imagination, not free, but channeled by learned structures. Perhaps it is the only possible imagination: an imagination always already inscribed within structural constraints.

Latent space is thus the bridge, the diagram, between induction and imagination. It is the place where the two meet and dialogue.

The concept of latent space, although stemming from recent developments in artificial intelligence and deep learning, proves to carry theoretical implications that far exceed the technical framework of computer science. It invites a radical refoundation of our conceptions of representation, culture, creativity, and knowledge. We are only at the very beginning of exploring these implications. The practical applications of generative networks utilizing latent spaces remain largely confined to laboratories. Their integration into mainstream culture is only in its infancy. But the trajectory is clear: we are witnessing the emergence of a new form of cultural and creative practice, which will necessarily pass through these spaces of abstract possibilities. It seems to me therefore that an adequate theory of artificial intelligence of the twenty-first century cannot ignore the concept of latent space. It is in latent space that reside the keys to understanding how machines will learn, imagine, create, and how we ourselves will have to relearn to think knowledge, culture, and creation in the age of probabilistic algorithms and multidimensional diagrams. Latent space awaits us. It is empty and full, structured and infinite, determined and indeterminate. It is within it that the great theoretical and practical questions of the century opening before us will be played out.