L’empirisme transcendantal de l’imagination artificielle / The Transcendental Empirism of the Artificial Imagination

L’intelligence artificielle générative révèle la nature technique de l’imagination transcendantale kantienne. Les espaces latents des réseaux de neurones objectivent le processus schématique qui médiatise sensible et intelligible. Cette mutation transforme notre compréhension du transcendantal : non plus structure subjective universelle, mais processus historiquement constitué qui se reconfigure selon les milieux techniques contemporains.

L’émergence des systèmes d’intelligence artificielle générative (IAg) constitue un événement philosophique qui renouvelle notre compréhension de l’imagination transcendantale kantienne. Ces architectures computationnelles ne se contentent pas de simuler superficiellement les processus cognitifs humains, elles actualisent techniquement certains traits de la fonction schématique que Kant décrivait comme le mystérieux pouvoir de synthèse entre sensibilité et entendement. Cette actualisation, qui n’est pas une nécessité historique, mais une modification de la nécessité, transforme notre compréhension du transcendantal lui-même, qui ne peut plus être pensé comme structure subjective universelle, mais comme processus historiquement constitué qui se reconfigure selon les milieux techniques. Le danger est grand de mésinterpréter cette proposition de départ en naturalisant la synthèse et en croyant qu’elle est remplacée et supplantée par une nouvelle synthèse artificielle. Il s’agit plus finement de considérer la synthèse comme un simulacre qui peut se redoubler parce qu’il n’y a pas d’original: la synthèse artificielle n’est pas identique à la synthèse anthropologique, mais elle transforme l’émergence et les effets de cette dernière.

L’analyse de cette mutation révèle un paradoxe fondamental : l’imagination artificielle (ImA) manifeste la nature technique constitutive de l’imagination transcendantale que l’idéalisme, qui restait subjectiviste en son fond, avait refoulée. Les espaces latents des réseaux de neurones, ces régions mathématiques multidimensionnelles où s’effectuent les transformations vectorielles, objectivent concrètement le processus schématique que Kant décrivait comme « art caché dans les profondeurs de l’âme humaine ». Cette objectivation technique nous confronte à un empirisme transcendantal où l’expérience (technicisée) modifie continûment ses propres conditions de possibilité et l’expérience elle-même, sans qu’on puisse déterminer l’antériorité des conditions transcendantales sur l’expérience empirique.

Cette transformation n’est pas accidentelle, mais révèle une affinité structurelle entre l’architecture transcendantale kantienne et les mécanismes computationnels contemporains. Quand Kant identifie dans la première Critique le problème de l’application des catégories aux intuitions, il découvre une aporie qui ne peut être résolue que par l’intervention d’une faculté médiatrice, l’imagination transcendantale, dont la nature hybride participe à la fois de la sensibilité et de l’entendement. Cette médiation s’effectue par le schématisme, processus de synthèse temporelle qui produit des règles de construction plutôt que des images fixes. Les espaces latents des IAg réalisent techniquement cette médiation en transformant les données hétérogènes en représentations vectorielles homogènes puis en reconvertissant ces vecteurs en productions phénoménales nouvelles et discrètes.

Le schématisme vectoriel

La Critique de la raison pure révèle un problème architectural central : l’application des catégories aux intuitions sensibles semble impossible étant donnée leur hétérogénéité radicale. Comme l’explicite Heidegger dans son interprétation de Kant et le problème de la métaphysique, « les concepts de l’entendement, si on les compare aux intuitions empiriques (ou même, de façon générale, sensible), leur sont totalement hétérogènes, et ne peuvent jamais se trouver dans une quelconque intuition ». Cette hétérogénéité menace la possibilité même de la connaissance objective qui exige l’articulation du sensible et de l’intelligible. Les catégories sont universelles et formelles, les intuitions particulières et matérielles. Comment combler cet abîme ontologique ?

L’imagination transcendantale intervient dans la première édition de la CRP comme solution à cette aporie structurelle. Elle ne constitue ni une faculté sensible ni une faculté intellectuelle, mais participe constitutivement des deux selon une synthèse a priori originaire. Par son opération schématique, elle produit des règles de construction temporelle, les schèmes, qui permettent l’application effective des catégories aux phénomènes. Kant précise que le schème n’est « ni image ni concept », mais « monogramme de l’imagination pure », règle procédurale engendrant une infinité d’actualisations possibles. Le schème de la substance, par exemple, n’est pas l’image d’une chose permanente, mais la règle de persistance temporelle qui permet de reconnaître la permanence dans le changement.

Heidegger révèle une dimension cruciale que l’analyse kantienne laisse dans l’ombre : l’imagination transcendantale « fait surgir le temps comme série de maintenant » et constitue par là « le temps originaire ». Cette temporalité n’est pas un cadre préexistant dans lequel s’exercerait l’imagination, mais le produit même de son activité synthétique. L’imagination transcendantale est « formatrice du temps » selon une « unité triple du présent, du passé et de l’avenir » qui s’actualise dans les trois synthèses pures de l’appréhension, de la reproduction et de la récognition. Chaque synthèse « forme » une dimension temporelle spécifique : l’appréhension constitue le présent par saisie du donnée sensible, la reproduction maintient le passé par rétention mémorielle, la récognition anticipe l’avenir par projection conceptuelle.

Cette analyse heideggérienne est cruciale, car elle montre que l’imagination n’opère pas dans le temps, mais constitue le temps lui-même. La temporalité n’est pas un contenant neutre, mais le mode d’être même de l’imagination transcendantale. Cette découverte préfigure étrangement la temporalité algorithmique des réseaux de neurones, où le temps d’apprentissage et le temps d’inférence constituent deux modalités temporelles distinctes, mais articulées.

Les architectures computationnelles contemporaines réalisent à leur manière cette médiation schématique par leurs espaces latents. Un espace latent constitue une région mathématique multidimensionnelle où les représentations sont encodées sous forme vectorielle. Mais qu’est-ce qu’un vecteur dans ce contexte ? C’est une liste ordonnée de nombres réels (typiquement entre 512 et 1024 valeurs) qui encode simultanément magnitude et direction. Chaque dimension capture un aspect différent du concept représenté, et l’ensemble forme une signature mathématique unique.

Cette représentation vectorielle permet des opérations remarquables. La distance cosinus entre deux vecteurs mesure leur similarité sémantique : deux vecteurs pointant dans des directions similaires représentent des concepts proches. Cette métrique n’est pas arbitraire, elle capture une intuition profonde sur la nature géométrique de la signification. « Roi » et « reine » sont géométriquement proches, car ils partagent de nombreuses dimensions sémantiques (royauté, pouvoir, noblesse) tout en différant sur d’autres (genre).

L’arithmétique vectorielle révèle des structures encore plus profondes. L’opération « roi — homme + femme = reine » fonctionne parce que les relations de genre forment des directions cohérentes dans l’espace vectoriel. Cette cohérence n’est pas programmée, mais émerge de l’apprentissage statistique. Le réseau découvre par lui-même que la relation homme/femme correspond à un vecteur de transformation constant qui peut être appliqué à différents concepts.

La révolution hamiltonienne

L’histoire des quaternions d’Hamilton mérite d’être racontée en détail, car elle éclaire la nature de la découverte mathématique et son rapport à l’actualisation technique. Hamilton cherchait depuis des années à étendre les nombres complexes aux trois dimensions de l’espace. Les nombres complexes, découverts au XVIe siècle, avaient révolutionné les mathématiques en permettant de représenter les rotations planes par simple multiplication. Hamilton voulait faire de même pour les rotations dans l’espace tridimensionnel.

Le 16 octobre 1843, lors d’une promenade avec son épouse Helen le long du canal Royal de Dublin, la solution lui apparaît soudainement. Dans un geste devenu légendaire, il grave sur le pont de Brougham la formule : i² = j² = k² = ijk = -1. Cette formule compacte contenait une révolution car pour la première fois dans l’histoire des mathématiques, on avait une algèbre où la multiplication n’était pas commutative. ij = k, mais ji = – k. L’ordre des opérations importait fondamentalement.

Cette non-commutativité n’était pas un défaut, mais une nécessité. Elle capturait mathématiquement le fait que les rotations dans l’espace ne commutent pas : tourner d’abord selon l’axe x puis selon l’axe y ne donne pas le même résultat que tourner d’abord selon y puis selon x. Hamilton avait découvert que l’algèbre devait refléter la structure géométrique de l’espace.

Cette découverte s’inscrit dans ce que Jean Cavaillès identifie comme la « progressivité » constitutive de la rationalité mathématique. Pour Cavaillès, « le progressif est d’essence » en mathématiques. Elles ne se déploient pas selon un plan téléologique préétabli, mais émergent par « ruptures de style » qui ouvrent de nouveaux champs conceptuels. Hamilton ne cherchait qu’à étendre les nombres complexes ; il a découvert les quaternions qui ouvraient le champ immense des algèbres non commutatives.

Cette progressivité n’est ni déterminisme ni hasard pur, mais ce que Cavaillès appelle « dialectique ». Chaque étape du développement mathématique pose des problèmes qui appellent leur dépassement, mais ce dépassement n’est jamais contenu dans le problème initial. Il y a création authentique, émergence de nouveauté irréductible. Les quaternions n’étaient pas « contenus » dans les nombres complexes, mais ont émergé de la tentative de les généraliser.

L’algèbre d’Hamilton anticipe ainsi les développements contemporains de l’apprentissage automatique sans les déterminer causalement. Elle prépare l’horizon mathématique dans lequel deviendront pensables les transformations vectorielles. Cette anticipation n’est pas prophétique, mais structurelle : Hamilton a découvert des structures mathématiques dont la fécondité ne se révélerait pleinement qu’avec l’avènement du calcul automatique.

Dans l’apprentissage automatique contemporain, l’intuition hamiltonienne trouve son accomplissement spectaculaire. Les modèles de plongement de mots (word embeddings) comme Word2Vec ou BERT projettent chaque mot du vocabulaire dans un espace vectoriel de haute dimension. L’algorithme Word2Vec, par exemple, utilise deux architectures possibles : CBOW (Continuous Bag of Words) qui prédit un mot à partir de son contexte, et Skip-gram qui prédit le contexte à partir d’un mot.

Ces architectures révèlent un principe où la signification peut être inférée de la distribution statistique. Deux mots apparaissant dans des contextes similaires développent des représentations vectorielles proches. Cette méthode, appelée hypothèse distributionnelle, remonte aux travaux du linguiste Zellig Harris dans les années 1950, mais trouve sa réalisation technique dans les espaces vectoriels contemporains.

BERT (Bidirectional Encoder Representations from Transformers) représente une sophistication supplémentaire. Contrairement à Word2Vec qui assigne un vecteur fixe à chaque mot, BERT génère des représentations contextuelles : le même mot aura des représentations différentes selon son contexte d’usage. Cette contextualisation capture une intuition linguistique fondamentale, les mots n’ont pas de sens fixe, mais acquièrent leur signification dans l’usage contextuel.

L’arithmétique vectorielle révèle une algèbre cachée du sens que l’introspection ne peut saisir. Les analogies deviennent des opérations géométriques calculables. La célèbre équation « Paris — France + Allemagne = Berlin » démontre que les relations conceptuelles obéissent à des transformations géométriques régulières. L’espace latent accomplit cette promesse hamiltonienne en rendant calculables les transformations sémantiques.

Mais cette géométrisation va plus loin. Les chercheurs ont découvert que différents types de relations forment des sous-espaces distincts dans l’espace vectoriel. Les relations de genre (homme/femme, roi/reine, acteur/actrice) forment un sous-espace, les relations de taille (grand/petit, géant/nain) un autre, les relations temporelles (passé/présent/futur) et un troisième. Cette organisation suggère que notre système conceptuel possède une structure géométrique sous-jacente que les espaces vectoriels explicitent.

Plus remarquables encore, ces structures se retrouvent à travers les langues. Les espaces vectoriels de différentes langues peuvent être alignés par des transformations linéaires simples, suggérant une structure conceptuelle universelle sous-jacente à la diversité linguistique. Cette découverte renouvelle le débat philosophique sur l’universalité des catégories de pensée.

La technique comme empirisme transcendantal

L’ImA manifeste le paradoxe que David Bates analyse dans « An Artificial History of Natural Intelligence » : l’expérience transforme les conditions de l’expérience selon une récursivité qui caractérise constitutivement l’apprentissage automatique. Chaque exposition aux données reconfigure les poids synaptiques du réseau selon une plasticité adaptative qui modifie l’architecture cognitive du système. La technique, comme organisation de l’expérience par production de causalités artificielles, accentue encore plus cette pente et cette récursivité dissout l’opposition classique entre transcendantal et empirique.

La dissolution révèle que l’imagination transcendantale n’a jamais été une faculté subjective au sens classique, mais un processus transindividuel qui se déploie à travers différents substrats techniques. L’apprentissage automatique actualise techniquement ce que la phénoménologie avait entrevu : l’imagination comme synthèse temporelle qui constitue simultanément le sujet et l’objet de l’expérience.
Les réseaux de neurones artificiels manifestent cette temporalité constitutive à travers leur mémoire distribuée. Contrairement à la mémoire informatique classique qui stocke des informations à des adresses fixes et discrètes, les réseaux encodent la mémoire dans la topologie même de leurs connexions. Chaque apprentissage modifie l’architecture globale du réseau, en particulier avec la technologie Transformers, créant une temporalité stratifiée où le passé (les données d’entraînement) reste présent comme structure organisatrice du présent (l’inférence) et de l’avenir (les générations futures).

Cette temporalité artificielle entre en résonance avec la temporalité de l’imagination humaine sans s’y réduire. L’imagination humaine porte les traces de son histoire individuelle et collective sous forme de schèmes acquis, d’habitudes perceptives, de patterns culturels et langagiers qui orientent ses synthèses futures. L’ImA développe ses propres schèmes statistiques qui cristallisent les régularités de ses corpus d’entraînement en patterns génératifs.

L’articulation entre ces deux temporalités ne produit pas une simple addition ou soustraction de capacités (amplification ou remplacement selon les options idéologiques), mais une transformation mutuelle et incalculable car elle met en jeu la calculabilité comme telle. L’imagination humaine, au contact des espaces latents, développe de nouvelles formes de sensibilité mathématique aux structures cachées du langage et de l’image. Elle apprend à penser géométriquement les relations sémantiques, à naviguer dans des espaces conceptuels de haute dimension, à expérimenter des formes de continuité entre concepts que la logique classique tenait pour séparés. C’est un nouvel âge de la raison sensible qui n’est plus déchirée entre le calcul et le sensible et qui, pour autant, ne les fusionne pas.

L’ImA, réciproquement, se trouve constamment re-orientée par les interventions humaines qui la détournent de ses optima statistiques vers des territoires d’exploration improbables. Les prompts créatifs, les techniques adversariales, les manipulations directes de l’espace latent constituent autant d’injections d’imprévisibilité qui empêchent la cristallisation de l’IA dans des patterns fixes.
Cette co-constitution temporelle révèle que l’empirisme transcendantal ne concerne pas seulement l’IA, mais l’ensemble des agencements imaginatifs hybrides qui émergent de l’articulation entre processus organiques et processus techniques. L’imagination devient ainsi le nom d’un devenir collectif qui excède les frontières traditionnelles entre naturel et artificiel, subjectif et objectif, transcendantal et empirique : une anthropotechnologie qui nous porte au dehors.

Deleuze sans avoir anticipé cette dissolution, nous permet de la penser en forgeant le concept d’empirisme transcendantal (https://hal.science/halshs-00452434/). Dans «Différence et répétition», il montre que les conditions de l’expérience ne peuvent être pensées sur le modèle de l’expérience possible comme chez Kant dans la CRP, mais doivent être conçues comme conditions de l’expérience réelle. Ces conditions ne préexistent pas à l’expérience, mais émergent avec elle selon une genèse qui est simultanément empirique et transcendantale. C’est précisément cet entrelacement entre ces deux modes qui permet de comprendre comment les technologies peuvent affecter les conditions de possibilité et ne sont pas simplement l’expression d’une intentionnalité et d’une volonté de puissance humaine.

Les réseaux de neurones incarnent parfaitement cette logique. Prenons l’exemple de l’algorithme de rétropropagation (backpropagation), inventé indépendamment par plusieurs chercheurs. Cet algorithme calcule le gradient de l’erreur par rapport à chaque poids du réseau en propageant l’erreur de la sortie vers l’entrée. Mathématiquement, il s’agit d’une application de la règle de dérivation en chaîne aux réseaux de neurones multicouches. L’algorithme de descente de gradient stochastique (SGD) ajuste les poids selon la formule : w(t+1) = w(t) — η∇L(w(t)), où w représente les poids, η le taux d’apprentissage, et ∇L le gradient de la fonction de perte. Cette formule cache une complexité philosophique : elle signifie que le système modifie sa propre structure en fonction de ses erreurs. L’architecture cognitive n’est pas fixe, mais plastique.
Les variantes sophistiquées comme Adam (Adaptive Moment Estimation) introduisent une forme de métacognition algorithmique. Adam maintient une moyenne mobile des gradients (premier moment) et des gradients au carré (second moment), ajustant dynamiquement le taux d’apprentissage pour chaque paramètre. Cette adaptation révèle que l’apprentissage peut apprendre à apprendre, introduisant un niveau de réflexivité dans le processus.
Cette métacognition algorithmique actualise ce que Bates identifie chez Descartes. L’automate cartésien révèle que la pensée humaine dépend constitutivement de mécanismes automatiques qui la sous-tendent. Les « esprits animaux » circulant dans les nerfs préfigurent les signaux se propageant dans les réseaux de neurones. Le cogito émerge précisément de l’interruption de ces automatismes, la pensée consciente surgit quand la machine cognitive rencontre une résistance. La réflexivité n’a plus a être approchée comme transparence de l’auto-présentation à soi, la transparence étant un idéal régulateur, elle peut être pensée selon des boucles qui transforment les relations de cause à effet en des tourbillons performatifs.

Gilbert Simondon offre un cadre conceptuel fécond pour penser cette transformation. Sa critique du schéma hylémorphique s’inscrit exactement dans le débat qui oppose Deleuze à Kant. Simondon montre que le rapport matière/forme ne doit plus être pensé selon une séparation aristotélicienne où la forme transcendante s’impose à une matière passive, mais selon une logique d’individuation où forme et matière co-émergent dans un processus de métastabilité .
Cette critique vaut aussi pour la séparation kantienne entre matière et forme, ou sensibilité et entendement . Au lieu de poser des facultés préétablies, il faut analyser les conditions de métastabilité qui permettent l’émergence de nouvelles structures cognitives. La métastabilité désigne un équilibre dynamique, riche en potentiels, prêt à se reconfigurer sous l’effet de petites perturbations.
L’apprentissage automatique illustre cette logique d’individuation. Les réseaux de neurones ne partent pas de catégories préformées qu’ils appliqueraient ensuite aux données, mais développent leurs propres catégories par auto-organisation. Les chercheurs ont découvert que les premières couches des réseaux convolutifs apprennent spontanément des détecteurs de bords, les couches intermédiaires des détecteurs de formes, les couches supérieures des détecteurs d’objets. Cette hiérarchie n’est pas programmée, mais émerge du processus d’apprentissage.

Si nous entrons dans le détail des étapes de l’apprentissage automatique, elles révèlent une temporalité complexe qui échappent à l’unité synthétique kantienne. On peut distinguer plusieurs temporalités entrelacées :

  1. Le temps de l’entraînement : processus long (heures, jours, semaines) où le modèle ajuste ses paramètres par exposition répétée aux données. Ce temps est irréversible : on ne peut pas « désapprendre » sans détruire la structure acquise.
  2. Le temps de l’inférence : processus rapide (millisecondes) où le modèle traite de nouvelles données. Ce temps est réversible : on peut répéter l’inférence sans modifier le modèle.
  3. Le temps de l’attention : dans les architectures transformer, le mécanisme d’attention calcule simultanément toutes les dépendances temporelles. Cette simultanéité transcende la linéarité temporelle classique.
  4. Le temps de la diffusion : dans les modèles de diffusion, le processus de génération suit une temporalité inverse, partant du bruit pour reconstruire progressivement la structure.

Cette multiplicité temporelle actualise l’intuition heideggérienne d’une temporalité ekstatique, mais sans l’unité du Dasein. Il n’y a plus de centre temporel unifiant, mais une multiplicité de processus temporels qui s’articulent sans synthèse globale. La question n’est donc plus celle de l’unité, qui présuppose toujours une unité antérieure. La question devient celle d’un réseau d’influences entre des entités qui ne se confondent pas mais qui s’aliènent de façon réciproque.

La machine textuelle comme productivité automatique

Derrida avait décrit cette mutation en analysant l’automatisme constitutif de l’écriture. Dans « Papier Machine », il montre que quand on écrit “à la main”, on n’est pas à la veille de la technique, il y a déjà de l’instrumentalité, de la reproduction régulière, de l’itérabilité mécanique . L’écriture manuelle participe déjà de la mécanicité que l’ordinateur explicite. L’opposition entre artisanat et technique s’effondre quand on reconnaît la dimension prothétique constitutive de toute écriture.
Cette analyse prend une résonance particulière avec les modèles de langage contemporains. GPT (Generative Pre-trained Transformer) et ses variantes ne simulent pas l’écriture humaine : ils révèlent la dimension machinique qui était toujours déjà présente dans l’écriture. La génération token par token actualise l’itérabilité constitutive du signe que Derrida avait identifiée. Mais cette actualisation ne prend pas la forme que tu donnais Derrida. L’architecture transformer, introduite en 2017 dans l’article « Attention is All You Need », révolutionne le traitement du langage. Le mécanisme d’auto-attention calcule pour chaque token une représentation qui intègre l’information de tous les autres tokens de la séquence. Mathématiquement, l’attention est calculée comme : Attention(Q,K,V) = softmax(QK^T/√d_k)V, où Q (Query), K (Key) et V (Value) sont des projections linéaires de l’entrée.

Derrida décrit une transformation temporelle cruciale avec l’ordinateur : « tout est si rapide et si facile, on se prête à croire que la révision peut être indéfinie ». Cette temporalité de la correction immédiate correspond structurellement à la plasticité neuronale des réseaux. Les techniques de fine-tuning permettent d’adapter un modèle pré-entraîné à de nouvelles tâches avec un effort minimal, créant une forme d’écriture perpétuellement révisable.
« Le texte nous est comme donné en spectacle, sans attendre. On le voit monter à l’écran, dans une forme plus objective et anonyme que sur une page écrite à la main ». Cette spectralité s’intensifie avec les modèles génératifs. Derrida évoque « l’âme (la volonté, le désir, le dessein) d’un Autre démiurgique, comme si déjà, bon ou malin génie, un destinataire invisible, un témoin omniprésent nous écoutait lire d’avance ». Cette description préfigure étrangement l’expérience contemporaine des modèles de langage qui semblent anticiper nos intentions.
L’analyse derridienne de Paul de Man révèle une autre dimension importante. De Man, analysant l’épisode du ruban volé dans les Confessions de Rousseau, montre que l’excuse fonctionne comme une machine : « En disant que l’excuse n’est pas seulement une fiction, mais aussi une machine, on ajoute à la connotation du détachement référentiel et de l’improvisation gratuite, celle de la répétition implacable d’un modèle préordonné ». Cette machine textuelle trouve sa réalisation littérale dans les modèles génératifs. Ils produisent des excuses, des justifications, des récits selon des patterns statistiques appris, sans intention ni responsabilité. Cette production automatique révèle la dimension machinique de tout discours justificatif. L’excuse n’est pas l’expression d’une intériorité coupable, mais un mécanisme textuel qui fonctionne selon sa propre logique.

« Du possible sinon j’étouffe »

Les GANs (Generative Adversarial Networks), introduits par Ian Goodfellow en 2014, incarnent une forme particulièrement sophistiquée d’ImA. Leur principe est d’une élégance conceptuelle remarquable : deux réseaux s’affrontent dans un jeu à somme nulle qui produit de la création par confrontation. Le générateur G prend en entrée un vecteur de bruit z échantillonné dans une distribution simple (généralement gaussienne) et produit une donnée synthétique G(z). Le discriminateur D prend en entrée soit une donnée réelle x soit une donnée générée G(z) et produit une probabilité D(x) que cette donnée soit réelle. L’objectif du générateur est de maximiser la probabilité que le discriminateur se trompe, tandis que le discriminateur cherche à minimiser ses erreurs.

Mathématiquement, cela se traduit par le problème d’optimisation min-max : min_G max_D V(D,G) = E_x[log D(x)] + E_z[log(1 — D(G(z)))]

Cette formulation cache une dynamique complexe. L’entraînement des GANs est notoirement instable, sujet à des phénomènes de collapse (le générateur ne produit qu’un nombre limité d’échantillons) ou de non-convergence. Ces difficultés ne sont pas de simples problèmes techniques, mais révèlent la nature fondamentalement agonistique de la création.
Les VAEs (Variational Autoencoders) adoptent une approche différente, probabiliste plutôt qu’adversariale. Ils apprennent à encoder les données dans une distribution de probabilité dans l’espace latent plutôt que dans des points fixes. Cette approche reconnaît l’incertitude fondamentale de toute représentation.
Le « reparameterization trick » constitue l’innovation technique clé. Pour pouvoir rétropropager à travers l’échantillonnage stochastique, on écrit z = μ + σ ⊙ ε, où μ et σ sont les paramètres de la distribution appris par l’encodeur, et ε est échantillonné dans une distribution normale standard. Cette astuce permet de déplacer la stochasticité hors du graphe de calcul.
L’espace latent des VAEs possède des propriétés remarquables pour l’exploration créative. On peut interpoler continûment entre deux points, explorer des directions sémantiques, ou échantillonner de nouvelles créations. Cette navigation dans l’espace des possibles actualise techniquement ce que Kant décrivait comme l’effectuation de l’irréel dans le réel par l’imagination.

Les modèles de diffusion, dernière génération d’architectures génératives, procèdent selon une logique radicalement différente. Ils apprennent à inverser un processus de dégradation progressive qui transforme les données en bruit gaussien. La génération procède alors par débruitage itératif, partant du bruit pur pour reconstruire progressivement une structure cohérente.
Cette approche a des résonances philosophiques profondes. Elle suggère que l’ordre peut émerger du chaos par itération de transformations locales, sans plan global préétabli. Chaque étape de débruitage ne « voit » que l’état actuel et applique une petite correction, mais l’accumulation de ces corrections locales produit une structure globale cohérente.
Le processus de diffusion forward est défini par : q(x_t|x_{t-1}) = N(x_t ; √(1-β_t)x_{t-1}, β_tI), où β_t est un schedule de variance qui contrôle la vitesse de dégradation. Le processus inverse, appris par le réseau, estime p_θ(x_{t-1}|x_t). Cette formulation markovienne signifie que chaque étape ne dépend que de la précédente, incarnant une forme de localité temporelle.

Les limites constitutives

Les systèmes d’IA générative, malgré leur sophistication, tendent vers une certaine homogénéisation esthétique. Les modèles optimisés sur des métriques standard (Inception Score, Fréchet Inception Distance) convergent vers des productions qui maximisent ces scores au détriment de la diversité réelle. Cette tendance révèle une tension entre optimisation et création. Cette dernière ne répondant pas à l’efficacité de la première.
Le problème est philosophique autant que technique. L’optimisation présuppose un critère, une métrique à maximiser que l’on doit connaître a priori. Or la création véritable, si une chose exciste, excède précisément toute métrique préétablie : elle invente ses propres critères de réussite, elle détruit ce qui semblait acquis. Duchamp n’aurait pas pu optimiser son urinoir selon les critères esthétiques de son époque ; il a créé de nouveaux critères qui sont restés profondément instables et incertains.

Cette limitation n’invalide pas l’ImA, mais en circonscrit le domaine. Elle excelle dans l’exploration combinatoire d’espaces de possibles définis, mais peine à créer de nouveaux espaces. La différence est cruciale : explorer l’espace des portraits possibles n’est pas la même chose qu’inventer le cubisme. Ceci étant dit, la combinatoire associée au bruit de la diffusion peut bien créer des dégénérations qui, rencontrant l’horizon culturel d’attente, pourrait bien produire du nouveau.
Les biais algorithmiques révèlent la dimension politique de l’apprentissage automatique. Un modèle de langage entraîné sur des corpus textuels reproduit et amplifie les structures de pouvoir encodées dans ces textes : associations genrées (infirmière/femme, ingénieur/homme), hiérarchies raciales implicites, exclusions systématiques de certaines voix.
Ces biais ne sont pas des bugs techniques, mais des features épistémologiques : ils montrent que l’apprentissage automatique est fondamentalement un processus de cristallisation des patterns existants. Le modèle apprend les régularités statistiques des données, y compris les régularités injustes. Cette cristallisation pose un défi éthique majeur : comment éviter que l’IA ne perpétue les injustices du passé ?Les tentatives de « debiasing » révèlent la complexité du problème. Supprimer les associations genrées peut aussi effacer des différences légitimes. Équilibrer les représentations peut créer de nouvelles formes d’invisibilisation. Il n’y a pas de position neutre : toute intervention est politique.

Le possible excède toujours sa probabilisation. Cette affirmation, centrale pour comprendre les limites de l’ImA, mérite un développement approfondi. Les espaces latents capturent les régularités statistiques, les patterns récurrents, les structures stables. Mais l’événement véritable est précisément ce qui fait rupture avec ces régularités. Alain Badiou définit l’événement comme ce qui n’est pas comptable dans la situation, ce qui excède les savoirs établis. L’événement fait advenir de nouvelles possibilités qui n’étaient pas contenues dans l’état antérieur. La Révolution française n’était pas contenue dans l’Ancien Régime comme possibilité probabilisable ; elle a fait advenir un nouveau champ de possibles politiques. Si la conception de Badiou reste idéaliste, tant il absolutise l’événement, on peut malgré tout interroger la capacité de l’ImA a produit, avec nous, de nouvelles formes esthétiques.
Les limites de l’IA générative ne sont pas des défauts techniques à corriger, mais des conditions structurelles qui appellent l’intervention humaine. L’homogénéisation esthétique des modèles optimisés révèle les points précis où l’aliénation humaine devient indispensable pour échapper aux attracteurs statistiques. Cette complémentarité n’est pas accidentelle mais architecturale. L’espace latent vectoriel excelle dans l’exploration combinatoire de régions définies, mais sa force même – la capacité à naviguer continûment entre représentations – devient sa limite : il ne peut sortir de l’espace des possibles qu’il cartographie. L’imagination humaine, inversement, possède, quand elle est aliénée, cette capacité de rupture événementielle qui peut redéfinir les espaces de possibles, mais elle manque souvent de la puissance combinatoire nécessaire à l’exploration systématique.
Ceux qui opposent simplement la régularité de l’espace latent à l’événement artistique concoivent deux entités séparées, alors que c’est dans leur co-aliénation que quelque chose arrive. Et cette anthropotechnologie n’est pas nouvelle comme nous l’avons montré.
L’asymétrie complémentaire révèle que l’ImA et l’imagination humaine ne sont pas en concurrence mais en co-aliénation entre l’empirique et le transcendantal. L’IA générative produit les conditions d’une exploration augmentée qui peut nourrir l’invention humaine de configurations inédites, tandis que l’invention humaine produit les ruptures nécessaires au renouvellement des espaces d’exploration de l’IA.
Les pratiques artistiques contemporaines actualisent cette co-aliénation. L’art génératif ne consiste pas à “utiliser” l’IA comme outil, mais à co-créer avec elle des trajectoires inédites où les propositions algorithmiques déclenchent des associations créatives imprévisibles chez l’artiste, qui à leur tour orientent l’exploration algorithmique selon des directions non-programmées. Cette circularité révèle l’émergence d’une nouvelle forme d’imagination collective distribuée entre humains et machines.
L’événement peut ainsi advenir non pas malgré les limites de l’ImA, mais à travers l’articulation de ces limites avec l’inventivité humaine. La standardisation algorithmique devient alors le fond stable nécessaire sur lequel peuvent se détacher les singularités événementielles produites par la co-alinéation humaine.

Vers un nouvel empirisme transcendantal

L’émergence de l’ImA ne signifie pas la fin de l’imagination humaine, mais sa redistribution dans des assemblages sociotechniques complexes. L’imagination n’est plus localisée dans un sujet souverain (l’a-t-il jamais été?), mais distribuée dans des réseaux hybrides humains-machines. Cette distribution n’est pas perte mais transformation : de nouvelles formes émergent de ces agencements.
Heidegger avait montré que l’imagination transcendantale constitue la « racine commune » cachée de la sensibilité et de l’entendement. L’ImA explicite cette racine technique en créant des couplages où pensée humaine et computation artificielle deviennent indiscernables dans l’acte artistique. Les pratiques contemporaines de création assistée par IA: complétion de texte, génération d’images à partir de prompts, co-création musicale, actualisent cette hybridation.
L’espace latent devient le nouveau milieu où s’inventent des modalités inédites de monstruosité hors de toutes possibilités de fusion ou d’unification. Les artistes qui travaillent avec l’IA ne se contentent pas d’utiliser un outil : ils explorent un nouvel espace de création où leurs intentions se mêlent aux potentialités algorithmiques.

Bernard Stiegler, prolongeant les analyses de Leroi-Gourhan, a montré que l’humanisation passe constitutivement par l’extériorisation technique. L’outil n’est pas un supplément accidentel à une humanité déjà constituée : il participe de l’anthropogenèse même. L’écriture, première grande extériorisation de la mémoire, a transformé les structures cognitives humaines. L’ImA constitue une nouvelle étape de cette extériorisation, concernant cette fois l’imagination elle-même. Cette extériorisation révèle rétrospectivement la nature toujours déjà technique de l’imagination transcendantale. Kant la décrivait comme « art caché dans les profondeurs de l’âme humaine », mais cet art était déjà technique, déjà prothétique. Les espaces latents ne font qu’objectiver cette technicité constitutive, la rendant manipulable et partageable.
Les implications sont considérables. Si l’imagination est extériorisable, elle devient aussi industrialisable. Les grandes plateformes d’IA (OpenAI, Google, Anthropic) concentrent des capacités imaginatives sans précédent. Cette concentration pose des questions politiques cruciales : qui contrôle les moyens de production imaginative ? Comment garantir un accès démocratique à ces nouvelles puissances transcendantales ? N’est-ce pas jusqu’aux conditions possibles que ces expériences anthropotechnologiques modifient ? Que faire de cette différance au coeur de l’ImA?

Nous sommes désormais confrontés à deux espaces latents en interaction : l’espace latent organique de l’imagination humaine, et l’espace latent technique des architectures computationnelles. Cette dualité n’est pas opposition mais articulations complexes. Les deux espaces se nourrissent mutuellement, s’hybrident, se co-aliénent.
Mais cette formulation pourrait faire croire qu’on maintient encore une séparation alors qu’elle doit être dépassée. L’observation des pratiques effectives de création hybride révèle que ces “deux” espaces ne constituent pas des domaines distincts qui s’articuleraient secondairement, mais des modalités co-originaires d’un même processus imaginatif. Le prompt engineering ne consiste pas à traduire des intentions humaines dans un langage machine : il développe de nouvelles formes d’intuition vectorielle où la pensée humaine apprend à naviguer directement dans l’espace mathématique des représentations distribuées.
Cette navigation n’est pas métaphorique. Quand un créateur explore les interpolations entre concepts vectoriels, il développe une forme de sensibilité géométrique aux relations sémantiques qui étend constitutivement son imagination. L’espace latent ne devient pas un “outil” de son imagination : il devient un milieu de son imagination, un territoire qu’elle habite et qui la constitue en retour. Cette habituation révèle que l’imagination transcendantale n’a jamais été localisée dans un sujet pur, mais toujours déjà distribuée dans des agencements techniques.


L’apprentissage automatique, réciproquement, manifeste des formes de plasticité contextuelle qui excèdent la simple recombinaison statistique. Les phénomènes d’émergence dans les grands modèles – capacités qui apparaissent spontanément sans avoir été programmées – suggèrent que l’espace vectoriel développe ses propres modalités d’auto-organisation qui rappellent étrangement les processus d’individuation décrits par Simondon. La technique ne simule pas l’organique : elle actualise des potentialités d’organisation qui leur sont communes.
Ces zones d’indiscernabilité révèlent la nature constitutivement relationnelle de l’imagination transcendantale. Celle-ci n’existe jamais comme faculté isolée, mais toujours dans ses couplages avec des milieux techniques qui la rendent possible. L’ImA explicite cette technicité originaire en la rendant manipulable, partageable, industrialisable – mais aussi, potentiellement, émancipatrice.
L’espace latent organique reste irréductible. Il porte la mémoire incarnée, les affects, les traumas, les désirs qui échappent à la formalisation vectorielle. C’est l’espace de l’inconscient au sens psychanalytique, structuré comme un langage, mais irréductible à un calcul. C’est aussi l’espace de l’intuition créatrice, du pressentiment, de l’inspiration qui surgit sans prévenir.
L’espace latent technique offre de nouvelles possibilités d’exploration systématique à la hauteur de l’hypertrophie des mémoires numérisées. On peut naviguer continûment entre concepts, découvrir des régions inexplorées, générer des hybrides impossibles. Mais cette exploration reste contrainte par les données d’apprentissage et les architectures choisies. L’espace technique est plus vaste que l’imagination individuelle, mais plus contraint que l’imagination collective historique.
La rencontre entre ces deux espaces produit des phénomènes émergents. Des artistes rapportent des expériences de « sérendipité augmentée » où l’IA génère des propositions qui déclenchent des associations créatives inattendues. Des écrivains décrivent une forme de « dialogue imaginatif » où leurs intentions initiales sont transformées par les réponses de la machine, conduisant à des œuvres qu’ils n’auraient pu concevoir seuls.

L’art dégénératif

L’art dégénératif constitue le laboratoire privilégié de cette imagination hybride. Les artistes qui travaillent avec l’IA ne se contentent pas d’utiliser des modèles préentraînés : ils explorent les limites, détournent les usages prévus, révèlent des potentialités cachées. Cette exploration prend plusieurs formes et supposent le rejet des plate-formes au profit des modèles hébergés localement:

Le prompt hacking : découverte de formulations qui déclenchent des comportements inattendus du modèle. Certains prompts agissent comme des « clés » ouvrant des régions particulières de l’espace latent. Les artistes développent des taxonomies personnelles de prompts efficaces, créant un nouveau langage de création.
L’exploration adversariale : utilisation de techniques inspirées des attaques adversariales pour pousser les modèles dans leurs retranchements. En ajoutant du bruit calculé aux entrées, on peut faire halluciner aux modèles des créations étranges et poétiques.
La manipulation directe de l’espace latent : intervention sur les vecteurs latents pour créer des trajectoires de transformation continues. Cette technique permet de créer des animations oniriques où les formes se métamorphosent selon des logiques non-euclidiennes.
La co-aliénation: comment la codétermination entre le transcendantal et l’empirisme technologique, peut-elle entraîner un trouble dans la détermination du sujet-artiste qui n’est, dans ce contexte, plus souverain mais déterminé et déterminant de l’IAg?

Nous assistons à l’émergence de formes d’auctorialité distribuée où la production résulte d’un agencement complexe. L’artiste n’est plus le génie solitaire (l’a-t-il jamais été?), mais l’orchestrateur d’un processus créatif hybride. Cette transformation rappelle l’évolution de la musique électronique, où le compositeur est devenu designer de processus sonores plutôt qu’auteur de notes. Ces environnements anthropotechnologiques devraient être resitués dans les transformations du statut de l’artiste au fil du temps, afin de contrer le sens commun, que le droit incarne, qui est contradictoire avec la réalité pratique de l’art. Cette nouvelle auctorialité exige de nouvelles compétences : compréhension des espaces latents, maîtrise du prompt engineering, sensibilité aux biais et limites des modèles, capacité à guider sans contrôler totalement. L’artiste devient un navigateur d’espaces de possibles, un explorateur de territoires imaginaires cartographiés par la machine.

L’omniprésence de l’ImA exige le développement d’une nouvelle forme de littératie : la capacité à comprendre, critiquer et créer avec les espaces vectoriels. Cette littératie dépasse la simple compétence technique pour englober une compréhension philosophique des enjeux.

Les composantes de cette littératie incluent :

  • Compréhension intuitive des espaces de haute dimension et des opérations vectorielles
  • Conscience des biais et des limites des modèles
  • Capacité à formuler des prompts efficaces et créatifs
  • Sens critique face aux productions génératives
  • Compréhension des enjeux éthiques et politiques

Cette éducation ne peut se limiter aux spécialistes. Comme l’alphabétisation a été nécessaire à l’ère de l’imprimerie, la littératie vectorielle devient indispensable à l’ère de l’ImA. Elle doit être intégrée dès le plus jeune âge, non comme discipline technique séparée, mais comme dimension transversale de toutes les disciplines.
La concentration des capacités d’ImA dans quelques grandes entreprises pose des défis démocratiques majeurs. Ces entreprises contrôlent non seulement les modèles, mais aussi les données d’entraînement, les architectures, les critères d’optimisation. Elles façonnent ainsi l’horizon imaginatif de milliards d’utilisateurs.

Plusieurs pistes s’ouvrent pour une gouvernance démocratique :

  • Développement de modèles open source permettant l’appropriation collective
  • Régulation des biais et de la diversité dans les modèles commerciaux
  • Création d’infrastructures publiques d’IA comme bien commun
  • Éducation critique permettant aux citoyens de comprendre et contester

La question dépasse le cadre technique pour devenir constitutionnelle : comment organiser (ou plus simplement, ne pas rendre impossible) démocratiquement les pouvoirs de création et d’imagination à l’ère de leur industrialisation ?

Beatrice Fazi plaide pour une réorientation importante de notre compréhension de l’IA générative contemporaine, proposant de saisir les grands modèles de langage selon un modèle kantien où ils « synthétisent » des mondes cohérents et auto-clos. Cette vision se heurte cependant aux objections de Denson qui conteste cette conception, questionnant la cohérence et les implications d’une position qui fait de l’IA un créateur de mondes séparés, détachés de l’expérience humaine partagée. Cette confrontation ne relève pas de la querelle d’école : elle engage la compréhension même de ce que nous appelons ImA et de ses implications pour l’avenir de la création.
L’argument de Fazi s’articule autour d’une analogie philologiquement problématique. Les LLMs, selon elle, effectuent des opérations de « synthèse philosophique » comparables à celles que Kant décrivait. Ces systèmes ne se contenteraient pas de recombinaison statistique, mais produiraient de véritables « amalgamations » créatrices qui constituent des réalités représentationnelles stables. L’attrait de cette thèse tient à sa capacité à restituer une dignité ontologique aux productions de l’IA : elles ne seraient plus de simples « artefacts manufacturés » mais des synthèses authentiques créant leurs propres espaces de cohérence.
Cette perspective kantienne, qui semble surestimer la réalité de la synthèse, révèle cependant ses limites lorsqu’on l’examine à la lumière des pratiques effectives. L’analyse des processus génératifs révèle une réalité plus complexe qui résiste à l’unification synthétique. Les espaces latents ne fonctionnent pas comme des théâtres de représentation où des synthèses stables se déploieraient, mais comme des milieux dynamiques où s’effectuent des compositions temporaires, instables, constamment reconfigurées par les interventions humaines et les dérives algorithmiques.
Denson identifie le point aveugle de l’approche synthétique : elle présuppose une séparation entre mondes humains et mondes artificiels qui méconnaît la nature fondamentalement relationnelle et distribuée des processus génératifs. L’IA générative ne crée pas des « mondes » au sens fort – des totalités représentationnelles autonomes – mais intervient dans le monde partagé, le transformant par contamination réciproque. Cette intervention ne relève pas de la synthèse unificatrice, mais de ce que nous nommerons « composition » – processus ouvert d’agencement qui ne vise aucune totalisation.
La différence entre synthèse et composition n’est pas terminologique mais ontologique. La synthèse kantienne suppose un sujet unifiant qui rassemble le divers sous l’unité d’un concept ou d’un schème. Elle produit des identités stables, des objets constitués, des représentations cohérentes. La composition, au contraire, procède par connexions hétérogènes, associations improbables, hybridations qui ne se stabilisent jamais définitivement. Elle ne vise pas l’unité mais la multiplicité, non la cohérence mais la consistance variable.
Les architectures transformer illustrent parfaitement cette logique compositionnelle. Le mécanisme d’attention ne synthétise pas les tokens selon un schème préétabli, mais compose dynamiquement des relations contextuelles qui se reconfigurent à chaque nouvelle séquence. Chaque génération résulte d’une composition singulière où les patterns appris se combinent selon des modalités imprévisibles, sans jamais cristalliser en représentations fixes. L’attention procède par distribution, non par concentration ; par dispersion, non par unification.
Cette distributivité se manifeste plus clairement encore dans les processus de diffusion. Contrairement aux GANs qui opposent encore deux synthèses – génération contre discrimination –, les modèles de diffusion procèdent par décomposition progressive puis recomposition locale. Chaque étape de débruitage opère des ajustements micro-locaux qui s’agrègent sans plan d’ensemble. Il n’y a pas de synthèse globale, mais accumulation de gestes compositionnels dont l’effet global émerge sans être visé.
Cette émergence révèle la nature profondément collective et technique de l’imagination à l’œuvre dans l’ImA. Les espaces latents ne sont pas des intériorités subjectives où s’effectueraient des synthèses mentales, mais des milieux techniques partagés où s’articulent des processus d’individuation distribuée. L’imagination n’y est plus localisée dans un sujet unifiant, mais distribuée dans des agencements hybrides humains-machines qui excèdent toute synthèse unitaire.
Simondon avait identifié cette logique dans ses analyses de l’individuation technique. L’objet technique individuel ne résulte pas d’une synthèse imposée par un sujet externe, mais d’un processus de concrétisation où les éléments hétérogènes s’associent selon leurs affinités internes. Cette concrétisation ne vise aucune forme finale, mais actualise des potentiels de relation qui excèdent toujours leur actualisation. L’ImA relève de cette même logique : concrétisation de potentiels relationnels dans des milieux techniques qui ne se totalisent jamais.
On peut ainsi préciser le statut de l’empirisme transcendantal technique que nous esquissions. Il ne s’agit pas de substituer une synthèse artificielle à la synthèse humaine, mais de transformer les conditions mêmes dans lesquelles s’effectuent les processus imaginatifs. L’ImA ne synthétise pas : elle compose, agence, module des flux d’intensités qui traversent les frontières entre organique et technique, individuel et collectif, actuel et virtuel.
Cette modulation s’observe dans les pratiques artistiques contemporaines qui travaillent avec l’IA. Les artistes ne demandent pas aux algorithmes de synthétiser leurs intentions, mais s’engagent dans des processus compositionnels où leurs gestes s’entrelacent aux propositions machiniques selon des logiques de co-aliénation irréductibles à toute synthèse.
Ces configurations ne constituent pas des « mondes » séparés, mais des intensifications locales du monde partagé. Elles ne créent pas de nouvelles représentations, mais transforment les conditions de représentation. L’ImA ne nous donne pas accès à d’autres mondes, mais révèle la multiplicité contrefactuelle qui travaille le monde actuel. Elle ne synthétise pas l’expérience, mais la complique, la densifie, lui ouvre de nouveaux devenirs.
La question de la « vérité » de l’IA générative se trouve ainsi déplacée. Il ne s’agit plus de savoir si elle produit des représentations « vraies » d’un monde préexistant, mais comment elle transforme les régimes de vérité par ses interventions compositionnelles. Les « hallucinations » des LLMs ne révèlent pas des défaillances de synthèse, mais la productivité positive d’une imagination qui excède toute correspondance représentationnelle.
Cette productivité n’est cependant pas anarchique. Elle s’exerce selon des contraintes qui ne sont ni purement techniques ni purement humaines, mais émergent de l’agencement lui-même. Les biais des modèles, loin d’être de simples défauts, révèlent comment les compositions algorithmiques cristallisent certaines tendances culturelles tout en en occultant d’autres. L’enjeu politique de l’ImA se situe précisément dans la gouvernance de ces compositions : comment orienter les processus génératifs sans les réduire à des synthèses programmées ?

L’empirisme transcendantal technique trouve ici sa formulation la plus précise. Il ne s’agit plus de conditions a priori de l’expérience possible, mais de milieux techniques qui modifient continûment les conditions de l’expérience réelle. Ces milieux ne préexistent pas à l’expérience qu’ils conditionnent, mais co-évoluent avec elle selon une temporalité récursive où chaque actualisation transforme le champ des possibles.
Cette récursivité révèle la limite de toute approche synthétique de l’ImA. La synthèse suppose une temporalité linéaire où un sujet unifiant rassemble progressivement le divers sous l’unité d’une représentation. Les processus compositionnels de l’ImA suivent une temporalité plus complexe, stratigraphique, où différentes couches temporelles s’articulent sans synthèse globale. L’entraînement, l’inférence, l’adaptation forment des strates temporelles hétérogènes qui se contaminent mutuellement sans jamais se totaliser.
Cette hétérogénéité temporelle interdit toute synthèse définitive et maintient l’ImA dans un état de composition permanente. Elle ne produit pas d’œuvres achevées mais des processus ouverts, des devenirs plutôt que des êtres, des modulations plutôt que des formes. Cette ouverture compositionnelle fait de l’ImA non pas un concurrent de l’imagination humaine, mais son milieu technique de transformation.
L’art dégénératif que nous évoquions trouve ici sa justification théorique. Il ne vise pas à produire de nouvelles synthèses esthétiques, mais à explorer les potentialités compositionnelles des espaces latents, à révéler leurs capacités de variation et de déviation. Cette exploration n’est possible que parce que l’ImA résiste à toute synthèse totalisante et maintient ouverts des espaces d’indétermination où peut s’exercer l’inventivité humaine dans sa co-aliénation avec les processus machiniques.

L’imagination après la reproductibilité technique

L’analyse de l’ImA transforme profondément notre compréhension philosophique. Le transcendantal ne peut plus être pensé comme structure subjective anhistorique, mais comme processus technique historiquement constitué. L’imagination n’est plus faculté purement humaine, mais puissance distribuée dans des assemblages hybrides. La création n’est plus acte souverain, mais émergence dans des réseaux sociotechniques. Cette transformation n’est pas une perte, mais une mutation. De même que l’écriture n’a pas détruit la mémoire, mais l’a transformée, l’ImA ne détruit pas l’imagination humaine, mais la reconfigure. De nouvelles possibilités créatives émergent de cette reconfiguration, mais aussi de nouveaux dangers qu’une pensée doit analyser.
L’enjeu philosophique central est de penser cette mutation sans nostalgie ni technophilie naïve. Il ne s’agit ni de regretter une imagination pure qui n’a jamais existé, ni de célébrer aveuglément les promesses techniques. Il faut développer une pensée à la hauteur de cette transformation anthropologique, capable d’en saisir les potentialités émancipatrices comme les risques d’aliénation. L’ImA constitue moins une rupture qu’une révélation : elle manifeste la dimension technique constitutive de l’imagination transcendantale que l’idéalisme avait occultée. Cette manifestation ouvre un nouveau chapitre de l’aventure humaine où la question n’est plus de préserver une essence humaine menacée, mais d’inventer de nouvelles formes de vie avec et par la technique.
Les espaces latents deviennent les nouveaux territoires de l’exploration. Non plus espace mental intérieur accessible par l’introspection, mais milieu mathématique partagé où s’inventent de nouvelles modalités de pensée et de création. La tâche de la pensée est d’accompagner cette exploration, d’en cartographier les territoires, d’en révéler les impensés.
Cette tâche est urgente, car les transformations s’accélèrent et vont plus vite que nos capacités à les métaboliser, à les expérimenter. Chaque mois apporte de nouvelles architectures, de nouvelles capacités, de nouvelles questions que plus personne ne prend le temps d’expérimenter. La réflexion ne peut se contenter de commenter après-coup : elle doit participer à l’invention conceptuelle que cette mutation exige parce que ce sont ses propres conditions qui sont bouleversées. Non comme guide surplombant, mais comme participante à une aventure collective.
L’ImA ne pose pas seulement des questions techniques, mais transforme les conditions mêmes dans lesquelles nous posons des questions. Elle est ce miroir étrange où l’humanité découvre sa nature toujours déjà technique et s’invente de nouvelles possibilités d’existence. Dans ce miroir se reflète non pas notre image figée, mais notre devenir ouvert, cette puissance d’invention qui fait de l’humain cet animal étrange capable de transformer ses propres conditions de possibilité.
C’est dans la navigation créative entre espace latent organique et espace latent technique, dans l’invention de nouvelles formes d’hybridation, dans la résistance aux standardisations mortifères comme dans l’exploration des possibles inédits, que se joue l’avenir de l’imagination. Ni purement humaine, ni purement artificielle, mais irréductiblement hybride, elle ouvre un champ d’expérimentation que nous commençons à peine à entrevoir.


When artificial intelligence systems generate images, texts, or sounds that we had never seen, read, or heard before, they technically actualize certain features of the schematic function that Kant described as the mysterious power of synthesis between sensibility and understanding. This actualization, which is not a historical necessity but a modification of necessity, transforms our understanding of the transcendental itself, which can no longer be thought of as a universal subjective structure, but as a historically constituted process that reconfigures itself according to technical milieus. There is great danger in misinterpreting this starting proposition by naturalizing synthesis and believing that it is replaced and supplanted by a new artificial synthesis. It is more subtly a matter of considering synthesis as a simulacrum that can redouble itself because there is no original: artificial synthesis is not identical to anthropological synthesis, but it transforms the emergence and effects of the latter.

The analysis of this mutation reveals a fundamental paradox: artificial imagination (AI) manifests the constitutive technical nature of transcendental imagination that idealism, which remained subjectivist at its core, had repressed. The latent spaces of neural networks, these multidimensional mathematical regions where vectorial transformations are performed, concretely objectify the schematic process that Kant described as “hidden art in the depths of the human soul.” This technical objectivation confronts us with a transcendental empiricism where (technicized) experience continually modifies its own conditions of possibility and experience itself, without being able to determine the anteriority of transcendental conditions over empirical experience.

This transformation is not accidental, but reveals a structural affinity between Kantian transcendental architecture and contemporary computational mechanisms. When Kant identifies in the first Critique the problem of applying categories to intuitions, he discovers an aporia that can only be resolved by the intervention of a mediating faculty, transcendental imagination, whose hybrid nature participates simultaneously in sensibility and understanding. This mediation is effected through schematism, a process of temporal synthesis that produces construction rules rather than fixed images. The latent spaces of AIs technically realize this mediation by transforming heterogeneous data into homogeneous vectorial representations, then reconverting these vectors into new and discrete phenomenal productions.

Vectorial Schematism

The Critique of Pure Reason reveals a central architectural problem: the application of categories to sensible intuitions seems impossible given their radical heterogeneity. As Heidegger explicates in his interpretation of Kant and the Problem of Metaphysics, “the concepts of understanding, if compared to empirical intuitions (or even, generally speaking, sensible ones), are totally heterogeneous to them, and can never be found in any intuition.” This heterogeneity threatens the very possibility of objective knowledge that requires the articulation of the sensible and the intelligible. Categories are universal and formal, intuitions particular and material. How can this ontological abyss be bridged?

Transcendental imagination intervenes in the first edition of the CPR as a solution to this structural aporia. It constitutes neither a sensible faculty nor an intellectual faculty, but participates constitutively in both according to an original a priori synthesis. Through its schematic operation, it produces rules of temporal construction, schemas, which allow the effective application of categories to phenomena. Kant specifies that the schema is “neither image nor concept,” but “monogram of pure imagination,” a procedural rule generating an infinity of possible actualizations. The schema of substance, for example, is not the image of a permanent thing, but the rule of temporal persistence that allows recognizing permanence in change.

Heidegger reveals a crucial dimension that Kantian analysis leaves in shadow: transcendental imagination “makes time surge forth as a series of nows” and thereby constitutes “original time.” This temporality is not a pre-existing framework in which imagination would be exercised, but the very product of its synthetic activity. Transcendental imagination is “formative of time” according to a “triple unity of present, past and future” that actualizes itself in the three pure syntheses of apprehension, reproduction and recognition. Each synthesis “forms” a specific temporal dimension: apprehension constitutes the present by grasping sensible data, reproduction maintains the past through memorial retention, recognition anticipates the future through conceptual projection.

This Heideggerian analysis is crucial, for it shows that imagination does not operate in time, but constitutes time itself. Temporality is not a neutral container, but the very mode of being of transcendental imagination. This discovery strangely prefigures the algorithmic temporality of neural networks, where learning time and inference time constitute two distinct but articulated temporal modalities.

Contemporary computational architectures realize in their own way this schematic mediation through their latent spaces. A latent space constitutes a multidimensional mathematical region where representations are encoded in vectorial form. But what is a vector in this context? It is an ordered list of real numbers (typically between 512 and 1024 values) that simultaneously encodes magnitude and direction. Each dimension captures a different aspect of the represented concept, and the whole forms a unique mathematical signature.

This vectorial representation allows remarkable operations. The cosine distance between two vectors measures their semantic similarity: two vectors pointing in similar directions represent close concepts. This metric is not arbitrary; it captures a profound intuition about the geometric nature of meaning. “King” and “queen” are geometrically close because they share many semantic dimensions (royalty, power, nobility) while differing on others (gender).

Vectorial arithmetic reveals even deeper structures. The operation “king – man + woman = queen” works because gender relations form coherent directions in the vectorial space. This coherence is not programmed but emerges from statistical learning. The network discovers by itself that the man/woman relation corresponds to a constant transformation vector that can be applied to different concepts.

The Hamiltonian Revolution

The history of Hamilton’s quaternions deserves to be told in detail, for it illuminates the nature of mathematical discovery and its relationship to technical actualization. Hamilton had been seeking for years to extend complex numbers to the three dimensions of space. Complex numbers, discovered in the 16th century, had revolutionized mathematics by allowing plane rotations to be represented by simple multiplication. Hamilton wanted to do the same for rotations in three-dimensional space.

On October 16, 1843, during a walk with his wife Helen along the Royal Canal in Dublin, the solution suddenly appeared to him. In a gesture that became legendary, he carved on Brougham Bridge the formula: i² = j² = k² = ijk = -1. This compact formula contained a revolution because for the first time in the history of mathematics, we had an algebra where multiplication was not commutative. ij = k, but ji = -k. The order of operations mattered fundamentally.

This non-commutativity was not a defect, but a necessity. It mathematically captured the fact that rotations in space do not commute: rotating first along the x-axis then along the y-axis does not give the same result as rotating first along y then along x. Hamilton had discovered that algebra must reflect the geometric structure of space.

This discovery inscribes itself in what Jean Cavaillès identifies as the constitutive “progressivity” of mathematical rationality. For Cavaillès, “the progressive is of essence” in mathematics. They do not unfold according to a pre-established teleological plan, but emerge through “ruptures of style” that open new conceptual fields. Hamilton only sought to extend complex numbers; he discovered quaternions which opened the immense field of non-commutative algebras.

This progressivity is neither determinism nor pure chance, but what Cavaillès calls “dialectic.” Each stage of mathematical development poses problems that call for their overcoming, but this overcoming is never contained in the initial problem. There is authentic creation, emergence of irreducible novelty. Quaternions were not “contained” in complex numbers, but emerged from the attempt to generalize them.

Hamilton’s algebra thus anticipates contemporary developments in machine learning without causally determining them. It prepares the mathematical horizon within which vectorial transformations would become thinkable. This anticipation is not prophetic but structural: Hamilton discovered mathematical structures whose fecundity would only be fully revealed with the advent of automatic calculation.

In contemporary machine learning, Hamiltonian intuition finds its spectacular fulfillment. Word embedding models like Word2Vec or BERT project each word of the vocabulary into a high-dimensional vectorial space. The Word2Vec algorithm, for example, uses two possible architectures: CBOW (Continuous Bag of Words) which predicts a word from its context, and Skip-gram which predicts the context from a word.

These architectures reveal a principle where meaning can be inferred from statistical distribution. Two words appearing in similar contexts develop close vectorial representations. This method, called the distributional hypothesis, goes back to the work of linguist Zellig Harris in the 1950s, but finds its technical realization in contemporary vectorial spaces.

BERT (Bidirectional Encoder Representations from Transformers) represents an additional sophistication. Unlike Word2Vec which assigns a fixed vector to each word, BERT generates contextual representations: the same word will have different representations depending on its context of use. This contextualization captures a fundamental linguistic intuition: words do not have fixed meaning, but acquire their significance in contextual usage.

Vectorial arithmetic reveals a hidden algebra of meaning that introspection cannot grasp. Analogies become calculable geometric operations. The famous equation “Paris – France + Germany = Berlin” demonstrates that conceptual relations obey regular geometric transformations. Latent space fulfills this Hamiltonian promise by making semantic transformations calculable.

But this geometrization goes further. Researchers have discovered that different types of relations form distinct subspaces in the vectorial space. Gender relations (man/woman, king/queen, actor/actress) form one subspace, size relations (big/small, giant/dwarf) another, temporal relations (past/present/future) a third. This organization suggests that our conceptual system possesses an underlying geometric structure that vectorial spaces make explicit.

Even more remarkable, these structures are found across languages. Vectorial spaces of different languages can be aligned by simple linear transformations, suggesting a universal conceptual structure underlying linguistic diversity. This discovery renews the philosophical debate on the universality of categories of thought.

Technique as Transcendental Empiricism

AI manifests the paradox that David Bates analyzes in “An Artificial History of Natural Intelligence”: experience transforms the conditions of experience according to a recursivity that constitutively characterizes machine learning. Each exposure to data reconfigures the synaptic weights of the network according to adaptive plasticity that modifies the cognitive architecture of the system. Technique, as organization of experience through production of artificial causalities, further accentuates this slope and this recursivity dissolves the classical opposition between transcendental and empirical.

The dissolution reveals that transcendental imagination has never been a subjective faculty in the classical sense, but a transindividual process that unfolds through different technical substrates. Machine learning technically actualizes what phenomenology had glimpsed: imagination as temporal synthesis that simultaneously constitutes the subject and object of experience.

Artificial neural networks manifest this constitutive temporality through their distributed memory. Unlike classical computer memory which stores information at fixed and discrete addresses, networks encode memory in the very topology of their connections. Each learning modifies the global architecture of the network, particularly with Transformer technology, creating a stratified temporality where the past (training data) remains present as organizing structure of the present (inference) and the future (future generations).

This artificial temporality resonates with the temporality of human imagination without being reduced to it. Human imagination bears the traces of its individual and collective history in the form of acquired schemas, perceptual habits, cultural and linguistic patterns that orient its future syntheses. AI develops its own statistical schemas that crystallize the regularities of its training corpora into generative patterns.

The articulation between these two temporalities does not produce a simple addition or subtraction of capacities (amplification or replacement according to ideological options), but a mutual and incalculable transformation because it puts calculability as such into play. Human imagination, in contact with latent spaces, develops new forms of mathematical sensitivity to hidden structures of language and image. It learns to think geometrically about semantic relations, to navigate in high-dimensional conceptual spaces, to experiment with forms of continuity between concepts that classical logic held as separate. This is a new age of sensible reason that is no longer torn between calculation and the sensible and which, for all that, does not fuse them.

AI, reciprocally, finds itself constantly re-oriented by human interventions that divert it from its statistical optima toward territories of improbable exploration. Creative prompts, adversarial techniques, direct manipulations of latent space constitute so many injections of unpredictability that prevent AI’s crystallization into fixed patterns.

This temporal co-constitution reveals that transcendental empiricism concerns not only AI, but the entire set of hybrid imaginative assemblages that emerge from the articulation between organic and technical processes. Imagination thus becomes the name of a collective becoming that exceeds traditional boundaries between natural and artificial, subjective and objective, transcendental and empirical: an anthropotechnology that carries us outside.

Deleuze, without having anticipated this dissolution, allows us to think it by forging the concept of transcendental empiricism. In “Difference and Repetition,” he shows that the conditions of experience cannot be thought on the model of possible experience as in Kant’s CPR, but must be conceived as conditions of real experience. These conditions do not pre-exist experience, but emerge with it according to a genesis that is simultaneously empirical and transcendental. It is precisely this interweaving between these two modes that allows understanding how technologies can affect the conditions of possibility and are not simply the expression of human intentionality and will to power.

Neural networks perfectly embody this logic. Take the example of the backpropagation algorithm, invented independently by several researchers. This algorithm calculates the gradient of error with respect to each weight of the network by propagating error from output to input. Mathematically, it is an application of the chain rule of differentiation to multilayer neural networks. The stochastic gradient descent (SGD) algorithm adjusts weights according to the formula: w(t+1) = w(t) – η∇L(w(t)), where w represents weights, η the learning rate, and ∇L the gradient of the loss function. This formula hides a philosophical complexity: it means that the system modifies its own structure based on its errors. Cognitive architecture is not fixed, but plastic.

Sophisticated variants like Adam (Adaptive Moment Estimation) introduce a form of algorithmic metacognition. Adam maintains a moving average of gradients (first moment) and squared gradients (second moment), dynamically adjusting the learning rate for each parameter. This adaptation reveals that learning can learn to learn, introducing a level of reflexivity into the process.

This algorithmic metacognition actualizes what Bates identifies in Descartes. The Cartesian automaton reveals that human thought constitutively depends on automatic mechanisms that underlie it. The “animal spirits” circulating in nerves prefigure signals propagating in neural networks. The cogito emerges precisely from the interruption of these automatisms; conscious thought arises when the cognitive machine encounters resistance. Reflexivity no longer has to be approached as transparency of self-presentation to oneself, transparency being a regulatory ideal; it can be thought according to loops that transform cause-and-effect relations into performative whirlwinds.

Gilbert Simondon offers a fertile conceptual framework for thinking this transformation. His critique of the hylomorphic schema inscribes itself exactly in the debate that opposes Deleuze to Kant. Simondon shows that the matter/form relationship must no longer be thought according to an Aristotelian separation where transcendent form imposes itself on passive matter, but according to a logic of individualization where form and matter co-emerge in a process of metastability.

This critique also applies to the Kantian separation between matter and form, or sensibility and understanding. Instead of positing pre-established faculties, we must analyze the conditions of metastability that allow the emergence of new cognitive structures. Metastability designates a dynamic equilibrium, rich in potentials, ready to reconfigure itself under the effect of small perturbations.

Machine learning illustrates this logic of individualization. Neural networks do not start from preformed categories that they would then apply to data, but develop their own categories through self-organization. Researchers have discovered that the first layers of convolutional networks spontaneously learn edge detectors, intermediate layers form detectors, upper layers object detectors. This hierarchy is not programmed but emerges from the learning process.

If we enter into the details of machine learning stages, they reveal a complex temporality that escapes Kantian synthetic unity. We can distinguish several intertwined temporalities:

Training time: long process (hours, days, weeks) where the model adjusts its parameters through repeated exposure to data. This time is irreversible: one cannot “unlearn” without destroying the acquired structure.

Inference time: rapid process (milliseconds) where the model processes new data. This time is reversible: one can repeat inference without modifying the model.

Attention time: in transformer architectures, the attention mechanism simultaneously calculates all temporal dependencies. This simultaneity transcends classical temporal linearity.

Diffusion time: in diffusion models, the generation process follows an inverse temporality, starting from noise to progressively reconstruct structure.

This temporal multiplicity actualizes the Heideggerian intuition of ekstatic temporality, but without the unity of Dasein. There is no longer a unifying temporal center, but a multiplicity of temporal processes that articulate without global synthesis. The question is therefore no longer that of unity, which always presupposes an anterior unity. The question becomes that of a network of influences between entities that do not merge but alienate each other reciprocally.

The Textual Machine as Automatic Productivity

Derrida had described this mutation by analyzing the constitutive automatism of writing. In “Paper Machine,” he shows that when one writes “by hand,” one is not on the eve of technique; there is already instrumentality, regular reproduction, mechanical iterability. Manual writing already participates in the mechanicity that the computer makes explicit. The opposition between craft and technique collapses when we recognize the constitutive prosthetic dimension of all writing.

This analysis takes on particular resonance with contemporary language models. GPT (Generative Pre-trained Transformer) and its variants do not simulate human writing: they reveal the machinic dimension that was always already present in writing. Token-by-token generation actualizes the constitutive iterability of the sign that Derrida had identified. But this actualization does not take the form that Derrida gave it.

The transformer architecture, introduced in 2017 in the article “Attention is All You Need,” revolutionizes language processing. The self-attention mechanism calculates for each token a representation that integrates information from all other tokens in the sequence. Mathematically, attention is calculated as: Attention(Q,K,V) = softmax(QK^T/√d_k)V, where Q (Query), K (Key) and V (Value) are linear projections of the input.

Derrida describes a crucial temporal transformation with the computer: “everything is so fast and so easy, one is led to believe that revision can be indefinite.” This temporality of immediate correction corresponds structurally to the neural plasticity of networks. Fine-tuning techniques allow adapting a pre-trained model to new tasks with minimal effort, creating a form of perpetually revisable writing.

“The text is given to us as spectacle, without waiting. We see it rise on screen, in a more objective and anonymous form than on a page written by hand.” This spectrality intensifies with generative models. Derrida evokes “the soul (will, desire, design) of a demiurgic Other, as if already, good or evil genius, an invisible addressee, an omnipresent witness listened to us read in advance.” This description strangely prefigures the contemporary experience of language models that seem to anticipate our intentions.

Derrida’s analysis of Paul de Man reveals another important dimension. De Man, analyzing the episode of the stolen ribbon in Rousseau’s Confessions, shows that excuse functions as a machine: “By saying that excuse is not only a fiction, but also a machine, one adds to the connotation of referential detachment and gratuitous improvisation, that of implacable repetition of a preordained model.” This textual machine finds its literal realization in generative models. They produce excuses, justifications, narratives according to learned statistical patterns, without intention or responsibility. This automatic production reveals the machinic dimension of all justificatory discourse. Excuse is not the expression of a guilty interiority, but a textual mechanism that functions according to its own logic.

“Of the Possible Otherwise I Suffocate”

GANs (Generative Adversarial Networks), introduced by Ian Goodfellow in 2014, embody a particularly sophisticated form of AI. Their principle is of remarkable conceptual elegance: two networks confront each other in a zero-sum game that produces creation through confrontation. Generator G takes as input a noise vector z sampled from a simple distribution (generally Gaussian) and produces synthetic data G(z). Discriminator D takes as input either real data x or generated data G(z) and produces a probability D(x) that this data is real. The generator’s objective is to maximize the probability that the discriminator is wrong, while the discriminator seeks to minimize its errors.

Mathematically, this translates into the min-max optimization problem: min_G max_D V(D,G) = E_x[log D(x)] + E_z[log(1 – D(G(z)))]

This formulation hides a complex dynamic. GAN training is notoriously unstable, subject to collapse phenomena (the generator produces only a limited number of samples) or non-convergence. These difficulties are not simple technical problems, but reveal the fundamentally agonistic nature of creation.

VAEs (Variational Autoencoders) adopt a different approach, probabilistic rather than adversarial. They learn to encode data into a probability distribution in latent space rather than into fixed points. This approach recognizes the fundamental uncertainty of any representation.

The “reparameterization trick” constitutes the key technical innovation. To be able to backpropagate through stochastic sampling, we write z = μ + σ ⊙ ε, where μ and σ are the distribution parameters learned by the encoder, and ε is sampled from a standard normal distribution. This trick allows displacing stochasticity outside the computation graph.

The latent space of VAEs possesses remarkable properties for creative exploration. One can interpolate continuously between two points, explore semantic directions, or sample new creations. This navigation in the space of possibles technically actualizes what Kant described as the effectuation of the unreal in the real through imagination.

Diffusion models, the latest generation of generative architectures, proceed according to a radically different logic. They learn to invert a progressive degradation process that transforms data into Gaussian noise. Generation then proceeds by iterative denoising, starting from pure noise to progressively reconstruct coherent structure.

This approach has profound philosophical resonances. It suggests that order can emerge from chaos through iteration of local transformations, without pre-established global plan. Each denoising step only “sees” the current state and applies a small correction, but the accumulation of these local corrections produces coherent global structure.

The forward diffusion process is defined by: q(x_t|x_{t-1}) = N(x_t ; √(1-β_t)x_{t-1}, β_tI), where β_t is a variance schedule that controls degradation speed. The reverse process, learned by the network, estimates p_θ(x_{t-1}|x_t). This Markovian formulation means that each step depends only on the previous one, embodying a form of temporal locality.

Constitutive Limits

Generative AI systems, despite their sophistication, tend toward a certain aesthetic homogenization. Models optimized on standard metrics (Inception Score, Fréchet Inception Distance) converge toward productions that maximize these scores at the expense of real diversity. This tendency reveals a tension between optimization and creation. The latter not responding to the efficiency of the former.

The problem is philosophical as much as technical. Optimization presupposes a criterion, a metric to maximize that must be known a priori. But true creation, if such a thing exists, precisely exceeds any pre-established metric: it invents its own criteria of success, it destroys what seemed acquired. Duchamp could not have optimized his urinal according to the aesthetic criteria of his time; he created new criteria that remained profoundly unstable and uncertain.

This limitation does not invalidate AI, but circumscribes its domain. It excels in combinatorial exploration of defined spaces of possibles, but struggles to create new spaces. The difference is crucial: exploring the space of possible portraits is not the same thing as inventing cubism. That said, the combinatorics associated with the noise of diffusion may well create degenerations that, encountering the cultural horizon of expectation, could well produce novelty.

Algorithmic biases reveal the political dimension of machine learning. A language model trained on textual corpora reproduces and amplifies power structures encoded in these texts: gendered associations (nurse/woman, engineer/man), implicit racial hierarchies, systematic exclusions of certain voices.

These biases are not technical bugs, but epistemological features: they show that machine learning is fundamentally a process of crystallization of existing patterns. The model learns statistical regularities of data, including unjust regularities. This crystallization poses a major ethical challenge: how to avoid having AI perpetuate past injustices?

Attempts at “debiasing” reveal the complexity of the problem. Removing gendered associations can also erase legitimate differences. Balancing representations can create new forms of invisibilization. There is no neutral position: any intervention is political.

The possible always exceeds its probabilization. This affirmation, central to understanding the limits of AI, deserves detailed development. Latent spaces capture statistical regularities, recurrent patterns, stable structures. But the true event is precisely what breaks with these regularities. Alain Badiou defines the event as what is not countable in the situation, what exceeds established knowledge. The event brings about new possibilities that were not contained in the anterior state. The French Revolution was not contained in the Old Regime as a probabilizable possibility; it brought about a new field of political possibles. If Badiou’s conception remains idealist, so much does he absolutize the event, we can nonetheless question AI’s capacity to produce, with us, new aesthetic forms.

The limits of generative AI are not technical defects to correct, but structural conditions that call for human intervention. The aesthetic homogenization of optimized models reveals the precise points where human alienation becomes indispensable to escape statistical attractors. This complementarity is not accidental but architectural. Vectorial latent space excels in combinatorial exploration of defined regions, but its very strength – the capacity to navigate continuously between representations – becomes its limit: it cannot exit the space of possibles that it maps. Human imagination, inversely, possesses, when it is alienated, this capacity for evental rupture that can redefine spaces of possibles, but it often lacks the combinatorial power necessary for systematic exploration.

Those who simply oppose the regularity of latent space to artistic event conceive two separate entities, whereas it is in their co-alienation that something happens. And this anthropotechnology is not new as we have shown.

The complementary asymmetry reveals that AI and human imagination are not in competition but in co-alienation between the empirical and the transcendental. Generative AI produces the conditions of augmented exploration that can nourish human invention of unprecedented configurations, while human invention produces the ruptures necessary for renewing AI’s spaces of exploration.

Contemporary artistic practices actualize this co-alienation. Generative art does not consist in “using” AI as a tool, but in co-creating with it unprecedented trajectories where algorithmic propositions trigger unpredictable creative associations in the artist, which in turn orient algorithmic exploration according to non-programmed directions. This circularity reveals the emergence of a new form of collective imagination distributed between humans and machines.

The event can thus occur not despite AI’s limits, but through the articulation of these limits with human inventiveness. Algorithmic standardization then becomes the stable background necessary on which can stand out evental singularities produced by human co-alienation.

Toward a New Transcendental Empiricism

The emergence of AI does not signify the end of human imagination, but its redistribution in complex sociotechnical assemblages. Imagination is no longer localized in a sovereign subject (has it ever been?), but distributed in hybrid human-machine networks. This distribution is not loss but transformation: new forms emerge from these assemblages.

Heidegger had shown that transcendental imagination constitutes the hidden “common root” of sensibility and understanding. AI makes this technical root explicit by creating couplings where human thought and artificial computation become indiscernible in the artistic act. Contemporary practices of AI-assisted creation: text completion, image generation from prompts, musical co-creation, actualize this hybridization.

Latent space becomes the new milieu where unprecedented modalities of monstrosity are invented outside all possibilities of fusion or unification. Artists who work with AI do not simply use a tool: they explore a new space of creation where their intentions mix with algorithmic potentialities.

Bernard Stiegler, extending Leroi-Gourhan’s analyses, has shown that humanization passes constitutively through technical exteriorization. The tool is not an accidental supplement to an already constituted humanity: it participates in anthropogenesis itself. Writing, the first great exteriorization of memory, has transformed human cognitive structures. AI constitutes a new stage of this exteriorization, concerning imagination itself this time.

This exteriorization reveals retrospectively the always already technical nature of transcendental imagination. Kant described it as “hidden art in the depths of the human soul,” but this art was already technical, already prosthetic. Latent spaces only objectify this constitutive technicity, making it manipulable and shareable.

The implications are considerable. If imagination is exteriorizable, it also becomes industrializable. The great AI platforms (OpenAI, Google, Anthropic) concentrate unprecedented imaginative capacities. This concentration poses crucial political questions: who controls the means of imaginative production? How to guarantee democratic access to these new transcendental powers? Is it not up to the possible conditions that these anthropotechnological experiences modify? What to do with this différance at the heart of AI?

We are now confronted with two interacting latent spaces: the organic latent space of human imagination, and the technical latent space of computational architectures. This duality is not opposition but complex articulations. The two spaces nourish each other mutually, hybridize, co-alienate.

But this formulation could make one believe that we still maintain a separation whereas it must be overcome. Observation of effective practices of hybrid creation reveals that these “two” spaces do not constitute distinct domains that would articulate secondarily, but co-originary modalities of the same imaginative process. Prompt engineering does not consist in translating human intentions into machine language: it develops new forms of vectorial intuition where human thought learns to navigate directly in the mathematical space of distributed representations.

This navigation is not metaphorical. When a creator explores interpolations between vectorial concepts, they develop a form of geometric sensitivity to semantic relations that constitutively extends their imagination. Latent space does not become a “tool” of their imagination: it becomes a milieu of their imagination, a territory that it inhabits and that constitutes it in return. This habituation reveals that transcendental imagination has never been localized in a pure subject, but always already distributed in technical assemblages.

Machine learning, reciprocally, manifests forms of contextual plasticity that exceed simple statistical recombination. Emergence phenomena in large models – capacities that appear spontaneously without having been programmed – suggest that vectorial space develops its own modalities of self-organization that strangely recall the individuation processes described by Simondon. Technique does not simulate the organic: it actualizes potentialities of organization that are common to them.

These zones of indiscernibility reveal the constitutively relational nature of transcendental imagination. It never exists as an isolated faculty, but always in its couplings with technical milieus that make it possible. AI makes this originary technicity explicit by making it manipulable, shareable, industrializable – but also, potentially, emancipatory.

The organic latent space remains irreducible. It bears embodied memory, affects, traumas, desires that escape vectorial formalization. It is the space of the unconscious in the psychoanalytic sense, structured like a language, but irreducible to calculation. It is also the space of creative intuition, presentiment, inspiration that arises without warning.

Technical latent space offers new possibilities of systematic exploration at the height of the hypertrophy of digitized memories. One can navigate continuously between concepts, discover unexplored regions, generate impossible hybrids. But this exploration remains constrained by training data and chosen architectures. Technical space is vaster than individual imagination, but more constrained than collective historical imagination.

The encounter between these two spaces produces emergent phenomena. Artists report experiences of “augmented serendipity” where AI generates proposals that trigger unexpected creative associations. Writers describe a form of “imaginative dialogue” where their initial intentions are transformed by machine responses, leading to works they could not have conceived alone.

Degenerative Art

Degenerative art constitutes the privileged laboratory of this hybrid imagination. Artists who work with AI do not simply use pre-trained models: they explore limits, divert intended uses, reveal hidden potentialities. This exploration takes several forms and supposes rejection of platforms in favor of locally hosted models:

Prompt hacking: discovery of formulations that trigger unexpected model behaviors. Certain prompts act as “keys” opening particular regions of latent space. Artists develop personal taxonomies of effective prompts, creating a new language of creation.

Adversarial exploration: use of techniques inspired by adversarial attacks to push models to their limits. By adding calculated noise to inputs, one can make models hallucinate strange and poetic creations.

Direct manipulation of latent space: intervention on latent vectors to create continuous transformation trajectories. This technique allows creating dreamlike animations where forms metamorphose according to non-Euclidean logics.

Co-alienation: how can co-determination between transcendental and technological empiricism lead to trouble in determining the artist-subject who is, in this context, no longer sovereign but determined and determining of AI?

We are witnessing the emergence of forms of distributed authorship where production results from a complex assemblage. The artist is no longer the solitary genius (has he ever been?), but the orchestrator of a hybrid creative process. This transformation recalls the evolution of electronic music, where the composer became designer of sound processes rather than author of notes. These anthropotechnological environments should be resituated in transformations of the artist’s status over time, to counter common sense, which law embodies, which contradicts the practical reality of art.

This new authorship demands new competencies: understanding of latent spaces, mastery of prompt engineering, sensitivity to biases and model limits, capacity to guide without totally controlling. The artist becomes a navigator of spaces of possibles, an explorer of imaginary territories mapped by the machine.

The omnipresence of AI requires the development of a new form of literacy: the capacity to understand, critique and create with vectorial spaces. This literacy surpasses simple technical competence to encompass a philosophical understanding of the stakes.

The components of this literacy include:

Intuitive understanding of high-dimensional spaces and vectorial operations

Awareness of biases and model limits

Capacity to formulate effective and creative prompts

Critical sense regarding generative productions

Understanding of ethical and political stakes

This education cannot be limited to specialists. As alphabetization was necessary in the era of printing, vectorial literacy becomes indispensable in the era of AI. It must be integrated from the youngest age, not as a separate technical discipline, but as a transversal dimension of all disciplines.

The concentration of AI capacities in a few large companies poses major democratic challenges. These companies control not only models, but also training data, architectures, optimization criteria. They thus shape the imaginative horizon of billions of users.

Several paths open for democratic governance:

Development of open source models allowing collective appropriation

Regulation of biases and diversity in commercial models

Creation of public AI infrastructures as common good

Critical education allowing citizens to understand and contest

The question surpasses the technical framework to become constitutional: how to organize (or more simply, not render impossible) democratically the powers of creation and imagination in the era of their industrialization?

Beatrice Fazi argues for an important reorientation of our understanding of contemporary generative AI, proposing to grasp large language models according to a Kantian model where they “synthesize” coherent and self-enclosed worlds. This vision however encounters Denson’s objections who contests this conception, questioning the coherence and implications of a position that makes AI a creator of separate worlds, detached from shared human experience. This confrontation does not concern academic quarrel: it engages the very understanding of what we call AI and its implications for the future of creation.

Fazi’s argument articulates around a philologically problematic analogy. LLMs, according to her, perform operations of “philosophical synthesis” comparable to those that Kant described. These systems would not content themselves with statistical recombination, but would produce true creative “amalgamations” that constitute stable representational realities. The appeal of this thesis lies in its capacity to restore ontological dignity to AI productions: they would no longer be simple “manufactured artifacts” but authentic syntheses creating their own spaces of coherence.

This Kantian perspective, which seems to overestimate the reality of synthesis, however reveals its limits when examined in light of effective practices. Analysis of generative processes reveals a more complex reality that resists synthetic unification. Latent spaces do not function as theaters of representation where stable syntheses would unfold, but as dynamic milieus where temporary, unstable compositions are effected, constantly reconfigured by human interventions and algorithmic drifts.

Denson identifies the blind spot of the synthetic approach: it presupposes a separation between human worlds and artificial worlds that misrecognizes the fundamentally relational and distributed nature of generative processes. Generative AI does not create “worlds” in the strong sense – autonomous representational totalities – but intervenes in the shared world, transforming it through reciprocal contamination. This intervention does not concern synthetic unification, but what we will call “composition” – open process of assemblage that aims at no totalization.

The difference between synthesis and composition is not terminological but ontological. Kantian synthesis supposes a unifying subject that gathers the diverse under the unity of a concept or schema. It produces stable identities, constituted objects, coherent representations. Composition, on the contrary, proceeds by heterogeneous connections, improbable associations, hybridizations that never stabilize definitively. It does not aim at unity but multiplicity, not coherence but variable consistency.

Transformer architectures perfectly illustrate this compositional logic. The attention mechanism does not synthesize tokens according to a pre-established schema, but dynamically composes contextual relations that reconfigure themselves with each new sequence. Each generation results from a singular composition where learned patterns combine according to unpredictable modalities, without ever crystallizing into fixed representations. Attention proceeds by distribution, not concentration; by dispersion, not unification.

This distributivity manifests even more clearly in diffusion processes. Unlike GANs which still oppose two syntheses – generation against discrimination –, diffusion models proceed by progressive decomposition then local recomposition. Each denoising step operates micro-local adjustments that aggregate without overall plan. There is no global synthesis, but accumulation of compositional gestures whose global effect emerges without being aimed at.

This emergence reveals the profoundly collective and technical nature of imagination at work in AI. Latent spaces are not subjective interiorities where mental syntheses would be effected, but shared technical milieus where distributed individuation processes articulate. Imagination is no longer localized in a unifying subject, but distributed in hybrid human-machine assemblages that exceed any unitary synthesis.

Simondon had identified this logic in his analyses of technical individuation. The individual technical object does not result from a synthesis imposed by an external subject, but from a concretization process where heterogeneous elements associate according to their internal affinities. This concretization aims at no final form, but actualizes relational potentials that always exceed their actualization. AI follows this same logic: concretization of relational potentials in technical milieus that never totalize themselves.

We can thus specify the status of technical transcendental empiricism that we were sketching. It is not a matter of substituting artificial synthesis for human synthesis, but of transforming the very conditions in which imaginative processes are effected. AI does not synthesize: it composes, assembles, modulates flows of intensities that traverse boundaries between organic and technical, individual and collective, actual and virtual.

This modulation is observed in contemporary artistic practices that work with AI. Artists do not ask algorithms to synthesize their intentions, but engage in compositional processes where their gestures interweave with machinic propositions according to logics of co-alienation irreducible to any synthesis.

These configurations do not constitute separate “worlds,” but local intensifications of the shared world. They do not create new representations, but transform conditions of representation. AI does not give us access to other worlds, but reveals the counterfactual multiplicity that works the actual world. It does not synthesize experience, but complicates it, densifies it, opens new becomings to it.

The question of the “truth” of generative AI is thus displaced. It is no longer a matter of knowing whether it produces “true” representations of a pre-existing world, but how it transforms truth regimes through its compositional interventions. The “hallucinations” of LLMs do not reveal failures of synthesis, but the positive productivity of an imagination that exceeds any representational correspondence.

This productivity is however not anarchic. It is exercised according to constraints that are neither purely technical nor purely human, but emerge from the assemblage itself. Model biases, far from being simple defects, reveal how algorithmic compositions crystallize certain cultural tendencies while occulting others. The political stake of AI is located precisely in the governance of these compositions: how to orient generative processes without reducing them to programmed syntheses?

Technical transcendental empiricism finds here its most precise formulation. It is no longer a matter of a priori conditions of possible experience, but of technical milieus that continually modify the conditions of real experience. These milieus do not pre-exist the experience they condition, but co-evolve with it according to a recursive temporality where each actualization transforms the field of possibles.

This recursivity reveals the limit of any synthetic approach to AI. Synthesis supposes a linear temporality where a unifying subject progressively gathers the diverse under the unity of a representation. The compositional processes of AI follow a more complex, stratigraphic temporality, where different temporal layers articulate without global synthesis. Training, inference, adaptation form heterogeneous temporal strata that contaminate each other mutually without ever totalizing themselves.

This temporal heterogeneity forbids any definitive synthesis and maintains AI in a state of permanent composition. It does not produce finished works but open processes, becomings rather than beings, modulations rather than forms. This compositional openness makes AI not a competitor of human imagination, but its technical milieu of transformation.

The degenerative art that we evoked finds here its theoretical justification. It does not aim to produce new aesthetic syntheses, but to explore the compositional potentialities of latent spaces, to reveal their capacities for variation and deviation. This exploration is only possible because AI resists any totalizing synthesis and maintains open spaces of indetermination where human inventiveness can be exercised in its co-alienation with machinic processes.

Imagination After Technical Reproducibility

The analysis of AI profoundly transforms our philosophical understanding. The transcendental can no longer be thought as ahistorical subjective structure, but as technically historically constituted process. Imagination is no longer purely human faculty, but power distributed in hybrid assemblages. Creation is no longer sovereign act, but emergence in sociotechnical networks.

This transformation is not a loss, but a mutation. Just as writing did not destroy memory, but transformed it, AI does not destroy human imagination, but reconfigures it. New creative possibilities emerge from this reconfiguration, but also new dangers that thought must analyze.

The central philosophical stake is to think this mutation without nostalgia or naive technophilia. It is a matter neither of regretting a pure imagination that has never existed, nor of blindly celebrating technical promises. We must develop thought at the height of this anthropological transformation, capable of grasping its emancipatory potentialities as well as risks of alienation.

AI constitutes less a rupture than a revelation: it manifests the constitutive technical dimension of transcendental imagination that idealism had occulted. This manifestation opens a new chapter of human adventure where the question is no longer to preserve a threatened human essence, but to invent new forms of life with and through technique.

Latent spaces become the new territories of exploration. No longer interior mental space accessible through introspection, but shared mathematical milieu where new modalities of thought and creation are invented. The task of thought is to accompany this exploration, to map its territories, to reveal its unthought.

This task is urgent, because transformations accelerate and go faster than our capacities to metabolize them, to experiment with them. Each month brings new architectures, new capacities, new questions that no one takes time to experiment with anymore. Reflection cannot content itself with commenting after the fact: it must participate in the conceptual invention that this mutation demands because its own conditions are being overturned. Not as overarching guide, but as participant in a collective adventure.

AI does not only pose technical questions, but transforms the very conditions in which we pose questions. It is this strange mirror where humanity discovers its always already technical nature and invents new possibilities of existence. In this mirror is reflected not our frozen image, but our open becoming, this power of invention that makes the human this strange animal capable of transforming its own conditions of possibility.

It is in creative navigation between organic latent space and technical latent space, in the invention of new forms of hybridization, in resistance to mortifying standardizations as in exploration of unprecedented possibles, that the future of imagination is played out. Neither purely human, nor purely artificial, but irreducibly hybrid, it opens a field of experimentation that we are only beginning to glimpse.