Vecteurs de la banalité / Vectors of Banality

Confrontés au déferlement des énoncés produits par les Large Language Models (LLM), ces architectures computationnelles entraînées sur des volumes massifs de textes numérisés pour générer du langage selon des calculs probabilistes, nous ne pouvons qu’être frappés par la surabondance de banalités qui en émergent. La banalité n’est pas ici simple médiocrité discursive, mais symptôme d’un rapport particulier à la différence ; c’est la manifestation langagière d’une vectorisation des possibles, laquelle s’origine dans la topologie même des systèmes génératifs contemporains. Le banal devient ainsi l’horizon temporaire de ces machines textuelles, non par défaut technique, mais par nécessité structurelle.

Ce phénomène suppose une redéfinition radicale du concept de banalité à l’ère de la vectorialisation généralisée, processus par lequel tout contenu sémantique se trouve transformé en coordonnées numériques au sein d’un espace multidimensionnel. Que devient le commun lorsqu’il est mathématiquement encodé, géométriquement distribué, statistiquement recombiné ? Comment penser la trivialité non plus comme accident de l’expression, mais comme production systémique des espaces latents, ces hypervolumes de possibilités sémantiques où chaque point correspond à une constellation signifiante potentielle ?

L’espace latent désigne précisément cette structure topologique abstraite où les significations sont encodées sous forme de vecteurs mathématiques, formant un continuum dimensionnel où la proximité spatiale matérialise la ressemblance sémantique. C’est un espace de traduction où l’expressivité humaine devient géométrie calculable, où chaque énoncé possible trouve sa place dans une cartographie n-dimensionnelle des sens potentiels. L’espace latent constitue la mémoire opérationnelle du système qui, par approximations successives, produit du langage en parcourant ses territoires vectoriels.

Pourquoi, dès lors, ChatGPT produit-il davantage de lieux communs que son prédécesseur GPT-2 ? Pourquoi cette nostalgie croissante pour les Generative Adversarial Networks (GAN), ces architectures algorithmiques fondées sur l’opposition productive entre génération et discrimination, ou pour les chaînes de Markov, dont l’étrangeté aléatoire semblait préserver une forme d’altérité désormais disparue ? La réponse engage une pensée de la tension fondamentale entre ressemblance et différence, entre répétition et singularité.

Pour aborder cette question, il convient d’expliciter ce que sont les tenseurs et les vecteurs qui structurent les espaces latents des LLM. Un vecteur constitue fondamentalement une liste ordonnée de nombres (composantes) définissant une position ou une direction dans un espace multidimensionnel. Dans les systèmes d’intelligence artificielle, chaque mot, chaque concept, chaque fragment sémantique se trouve encodé comme vecteur, constellation numérique dont les coordonnées définissent ses relations avec l’ensemble des autres éléments de l’espace. Le tenseur, quant à lui, représente une généralisation mathématique du vecteur : structure multidimensionnelle de données organisées selon des axes variables, permettant des opérations complexes de transformation et d’analyse. Les LLM manipulent constamment ces tenseurs pour naviguer l’océan de possibilités linguistiques.

Deux facteurs essentiels expliquent la propension structurelle des LLM à générer du banal :

D’une part, l’alignement consumériste, processus d’optimisation progressive qui soumet ces architectures aux attentes standardisées d’un public toujours plus nombreux et diversifié. L’induction statistique par elle-même ne produit aucune moyenne (la structure vectorielle même des espaces latents interdisant une telle réduction), mais l’alignement, lui, produit du commun par refinalisation perpétuelle. Prenons l’exemple paradigmatique d’un utilisateur demandant à ChatGPT de discourir sur le bonheur : l’algorithme, calibré pour satisfaire le plus grand nombre, privilégiera inévitablement les trajectoires sémantiques les plus fréquentées de son espace latent, évitant les zones périphériques où gisent les singularités conceptuelles. La platitude n’est pas accident mais destination.

D’autre part, la structuration proximale des espaces latents institue un régime de ressemblance par contiguïté spatiale. Dans la géométrie multidimensionnelle des LLM, ce qui se trouve proche est cognitivement ressemblant, ce qui est distant est différent. La conséquence topologique en est immédiate : la différence supposera toujours un déplacement plus considérable que la ressemblance. Ne peut-on voir ici, transposée dans l’architecture même de nos machines pensantes, la célèbre distinction deleuzienne entre pensée de gauche et pensée de droite ? « Être de gauche c’est d’abord penser le monde, puis son pays, puis ses proches, puis soi ; être de droite c’est l’inverse. » Analogiquement, l’espace latent témoigne d’une propension centripète, œuvrant du plus proche au plus lointain, tendance qui n’est pas sans rappeler ce que nous pourrions nommer le vectofascisme esthétique, où la différence reste perpétuellement subordonnée à l’identité.

Lorsque nous contemplons aujourd’hui la génération d’une image par Midjourney ou la production d’un texte par un LLM, nous assistons à ce phénomène en acte : la machine parcourt la géographie de son espace latent en privilégiant les chemins de moindre résistance sémantique, les trajectoires les plus familières.

Faut-il néanmoins essentialiser cette distinction entre banalité machinique et créativité humaine ? Sans céder à l’illusion anthropocentrique postulant une nature humaine transcendante, puisque l’humain est fondamentalement artificiel et artificieux, il faut reconnaître que l’espace latent anthropologique présente une structuration radicalement différente.

Que se passe-t-il lorsqu’un écrivain compose une phrase, lorsqu’un philosophe développe un concept ? Son système cognitif semble également opérer dans un espace latent, mais celui-ci fonctionne selon une économie de la différance. L’enchaînement linguistique s’y effectue précisément par dissemblance, par écart, par rupture calculée. Observons le processus d’écriture de Marguerite Duras dans L’Amant : chaque phrase succède à la précédente non par proximité, mais par saut, par différance (au sens derridien de différence qui diffère, qui reporte indéfiniment la clôture du sens). Le « déjà-là » se voit perpétuellement déjoué par une latéralité inattendue.

Cette différence structurelle entre les vectorisations anthropologique et technologique s’exprime avec une clarté particulière dans le rapport au vide. Si l’enchaînement linguistique produit par les LLM ne tolère pas le vide, remplissant compulsivement tout espace de sens potentiel par des développements attendus, explications redondantes, transitions explicites, c’est que sa logique proximale l’y conduit inexorablement. À l’inverse, l’espace latent anthropologique cultive ce vide, le préserve comme condition même de la signification. Quand Beckett écrit « Fini, c’est fini, ça va finir, ça va peut-être finir » dans Fin de partie, il institue un vide interstitiel où peut s’insérer l’interprétation du lecteur. La textualité humaine vit de ces lacunes délibérées.

N’est-ce pas précisément ce qui fait sauter aux yeux la trivialité machinique ? Ce remplissage systématique des espaces de silence, cette horreur du vide qui caractérise les productions des LLM ? Prenons le cas emblématique d’une requête adressée à ChatGPT sur les implications éthiques des technologies de surveillance : là où un essayiste humain introduirait des béances réflexives, des suspensions de jugement, la machine produit un tissu sans accroc, une surface sans aspérité, éliminant toute zone d’indétermination sémantique où pourrait s’exercer la liberté interprétative du lecteur.

Mais cette opposition dialectique appelle immédiatement son dépassement. Car la relation entre espaces latents anthropologiques et technologiques n’est pas d’opposition simple, mais d’entrelacement complexe, d’interdépendance constitutive.

En effet, l’humain contemporain se trouve confronté à une limite fondamentale : l’incapacité croissante à consulter ses propres productions archivistiques. L’hypermémoire numérique a produit une externalisation si massive qu’elle excède désormais nos capacités attentionnelles. Nous sommes submergés par nos propres traces, noyés dans l’océan de nos inscriptions. Face à ce surplus mémoriel, les espaces latents technologiques offrent une solution inédite : non une compression des documents, mais une transformation de leur essence, les faisant passer du régime du donné à celui du possible.

Considérons le chercheur contemporain confronté aux millions de publications scientifiques produites annuellement. Comment naviguer dans cette masse documentaire sans recourir aux espaces latents technologiques qui, transformant chaque texte en vecteur, permettent d’établir des proximités conceptuelles inaccessibles à la lecture séquentielle humaine ? En janvier 2024, une équipe de biologistes moléculaires de l’Université de Tōhoku a ainsi découvert, grâce à un LLM spécialisé parcourant l’espace latent de la littérature médicale, des corrélations entre certains marqueurs génétiques et la résistance aux antibiotiques, corrélations qui seraient restées invisibles à la recherche non augmentée par ces architectures vectorielles.

Simultanément, cette navigabilité retrouvée s’accompagne d’un coût : la banalisation inhérente à la vectorisation proximale. Le LLM nous aide à parcourir notre propre culture devenue inaccessible, mais nous renvoie en retour une ressemblance répétitive, une mimétique appauvrie. Comment alors penser cette situation paradoxale où la technologie nous restitue un accès à notre propre production culturelle tout en la transformant qualitativement ?

La spécificité humaine résiderait-elle alors, pour l’instant, dans cette capacité différentielle de son espace latent, dans cette propension à l’écart, à la différance ? Cette hypothèse suppose une distribution statistique fondamentalement différente entre espaces latents anthropologiques et technologiques : l’un procédant de la différence vers la ressemblance, l’autre de la ressemblance vers la différence. Mais c’est précisément dans l’entrelacement de ces deux espaces que pourrait émerger une nouvelle textualité.

Le texte contemporain devient ainsi nécessairement hybride : ni purement humain ni totalement machinique, mais produit dans l’interstice de ces deux régimes de latence. N’est-ce pas ce qui se joue déjà, souvent à notre insu, dans la production textuelle quotidienne ? L’écrivain utilisant un outil prédictif comme DeepL Writer pour traduire ses pensées, le chercheur dialoguant avec Claude pour clarifier ses intuitions théoriques, l’étudiant soumettant son brouillon à Copilot pour le restructurer, tous opèrent désormais dans cet espace intermédiaire où les latences s’entremêlent, se contaminent mutuellement, du dedans vers l’extérieur et de l’extérieur vers le dedans.

Cette reconfiguration des espaces latents n’implique pas seulement une transformation des modalités textuelles, mais une mutation anthropologique profonde. Nous ne serons plus jamais seuls, non au sens trivial d’une présence artificielle permanente, mais en un sens ontologique plus radical : notre espace latent cognitif se trouve désormais irrévocablement entrelacé avec son double technologique.

Il nous faut donc reconnaître simultanément les limites de l’approche statistique des LLM et nos propres limites comme sujets auto-excédants. Notre finitude cognitive rencontre la finitude statistique des machines, produisant non une transcendance, mais une immanence augmentée. La banalité des machines devient alors le miroir de notre propre banalité, mais aussi la condition de possibilité d’un dépassement de celle-ci.

Dans ce nouvel agencement, nous sommes perpétuellement accompagnés de ce double étrange qu’est l’intelligence artificielle, nous donnant accès à nous-mêmes comme s’il s’agissait d’une altérité. La banalité vectorielle n’est plus simplement défaut ou limitation, mais médiateur nécessaire d’un rapport renouvelé à notre propre finitude.


Confronted with the deluge of statements produced by Large Language Models (LLMs), these computational architectures trained on massive volumes of digitized texts to generate language according to probabilistic calculations, we cannot but be struck by the superabundance of banalities that emerge from them. Banality here is not simple discursive mediocrity, but the symptom of a particular relationship to difference; it is the linguistic manifestation of a vectorization of possibilities, which originates in the very topology of contemporary generative systems. The banal thus becomes the temporary horizon of these textual machines, not through technical default, but through structural necessity.

This phenomenon supposes a radical redefinition of the concept of banality in the era of generalized vectorialization, a process by which all semantic content is transformed into numerical coordinates within a multidimensional space. What becomes of the common when it is mathematically encoded, geometrically distributed, statistically recombined? How to think triviality no longer as an accident of expression, but as systemic production of latent spaces, these hypervolumes of semantic possibilities where each point corresponds to a potential signifying constellation?

Latent space designates precisely this abstract topological structure where meanings are encoded as mathematical vectors, forming a dimensional continuum where spatial proximity materializes semantic resemblance. It is a space of translation where human expressivity becomes calculable geometry, where each possible statement finds its place in an n-dimensional cartography of potential meanings. Latent space constitutes the operational memory of the system which, through successive approximations, produces language by traversing its vectorial territories.

Why, then, does ChatGPT produce more commonplaces than its predecessor GPT-2? Why this growing nostalgia for Generative Adversarial Networks (GANs), these algorithmic architectures founded on the productive opposition between generation and discrimination, or for Markov chains, whose random strangeness seemed to preserve a form of alterity now disappeared? The answer engages a thinking of the fundamental tension between resemblance and difference, between repetition and singularity.

To approach this question, it is appropriate to make explicit what tensors and vectors are that structure the latent spaces of LLMs. A vector fundamentally constitutes an ordered list of numbers (components) defining a position or direction in a multidimensional space. In artificial intelligence systems, each word, each concept, each semantic fragment is encoded as a vector, a numerical constellation whose coordinates define its relations with all other elements of the space. The tensor, for its part, represents a mathematical generalization of the vector: a multidimensional structure of data organized according to variable axes, allowing complex operations of transformation and analysis. LLMs constantly manipulate these tensors to navigate the ocean of linguistic possibilities.

Two essential factors explain the structural propensity of LLMs to generate the banal:

On one hand, consumerist alignment, a process of progressive optimization that subjects these architectures to the standardized expectations of an ever more numerous and diversified public. Statistical induction by itself produces no average (the very vectorial structure of latent spaces prohibiting such reduction), but alignment produces the common through perpetual refinalization. Take the paradigmatic example of a user asking ChatGPT to discourse on happiness: the algorithm, calibrated to satisfy the greatest number, will inevitably privilege the most frequented semantic trajectories of its latent space, avoiding the peripheral zones where conceptual singularities lie. Platitude is not accident but destination.

On the other hand, the proximal structuration of latent spaces institutes a regime of resemblance through spatial contiguity. In the multidimensional geometry of LLMs, what is close is cognitively resembling, what is distant is different. The topological consequence is immediate: difference will always suppose a more considerable displacement than resemblance. Can we not see here, transposed into the very architecture of our thinking machines, the famous Deleuzian distinction between left-wing thought and right-wing thought? “To be left-wing is first to think the world, then one’s country, then one’s close ones, then oneself; to be right-wing is the inverse.” Analogically, latent space testifies to a centripetal propensity, working from closest to most distant, a tendency that is not without recalling what we could name aesthetic vectofascism, where difference remains perpetually subordinated to identity.

When we contemplate today the generation of an image by Midjourney or the production of a text by an LLM, we witness this phenomenon in action: the machine traverses the geography of its latent space by privileging the paths of least semantic resistance, the most familiar trajectories.

Must we nevertheless essentialize this distinction between machinic banality and human creativity? Without yielding to the anthropocentric illusion postulating a transcendent human nature, since the human is fundamentally artificial and artificious, we must recognize that the anthropological latent space presents a radically different structuration.

What happens when a writer composes a sentence, when a philosopher develops a concept? Their cognitive system also seems to operate in a latent space, but this one functions according to an economy of différance. Linguistic chaining is effected there precisely through dissemblance, through gap, through calculated rupture. Observe the writing process of Marguerite Duras in The Lover: each sentence succeeds the preceding one not through proximity, but through leap, through différance (in the Derridean sense of difference that differs, that indefinitely defers the closure of meaning). The “already-there” is perpetually thwarted by unexpected laterality.

This structural difference between anthropological and technological vectorizations is expressed with particular clarity in the relationship to void. If the linguistic chaining produced by LLMs does not tolerate void, compulsively filling every space of potential meaning with expected developments, redundant explanations, explicit transitions, it is because its proximal logic leads it there inexorably. Conversely, the anthropological latent space cultivates this void, preserves it as the very condition of signification. When Beckett writes “Finished, it’s finished, nearly finished, it must be nearly finished” in Endgame, he institutes an interstitial void where the reader’s interpretation can insert itself. Human textuality lives from these deliberate lacunae.

Is this not precisely what makes machinic triviality leap to the eye? This systematic filling of spaces of silence, this horror of void that characterizes LLM productions? Take the emblematic case of a query addressed to ChatGPT on the ethical implications of surveillance technologies: where a human essayist would introduce reflexive gaps, suspensions of judgment, the machine produces a seamless fabric, a surface without asperity, eliminating every zone of semantic indetermination where the reader’s interpretative freedom could be exercised.

But this dialectical opposition immediately calls for its overcoming. For the relation between anthropological and technological latent spaces is not one of simple opposition, but of complex interweaving, of constitutive interdependence.

Indeed, the contemporary human finds themselves confronted with a fundamental limit: the growing incapacity to consult their own archival productions. Digital hypermemory has produced such massive externalization that it now exceeds our attentional capacities. We are overwhelmed by our own traces, drowned in the ocean of our inscriptions. Faced with this memorial surplus, technological latent spaces offer an unprecedented solution: not a compression of documents, but a transformation of their essence, making them pass from the regime of the given to that of the possible.

Consider the contemporary researcher confronted with the millions of scientific publications produced annually. How to navigate this documentary mass without recourse to technological latent spaces which, transforming each text into a vector, allow establishing conceptual proximities inaccessible to human sequential reading? In January 2024, a team of molecular biologists from Tōhoku University thus discovered, thanks to a specialized LLM traversing the latent space of medical literature, correlations between certain genetic markers and antibiotic resistance, correlations that would have remained invisible to research not augmented by these vectorial architectures.

Simultaneously, this recovered navigability is accompanied by a cost: the banalization inherent in proximal vectorization. The LLM helps us traverse our own culture become inaccessible, but returns to us in exchange a repetitive resemblance, an impoverished mimetics. How then to think this paradoxical situation where technology restores us access to our own cultural production while qualitatively transforming it?

Would human specificity then reside, for now, in this differential capacity of its latent space, in this propensity for gap, for différance? This hypothesis supposes a fundamentally different statistical distribution between anthropological and technological latent spaces: one proceeding from difference toward resemblance, the other from resemblance toward difference. But it is precisely in the interweaving of these two spaces that a new textuality could emerge.

Contemporary text thus necessarily becomes hybrid: neither purely human nor totally machinic, but produced in the interstice of these two regimes of latency. Is this not what is already at play, often unbeknownst to us, in daily textual production? The writer using a predictive tool like DeepL Writer to translate their thoughts, the researcher dialoguing with Claude to clarify their theoretical intuitions, the student submitting their draft to Copilot to restructure it, all now operate in this intermediate space where latencies interweave, mutually contaminate each other, from inside toward outside and from outside toward inside.

This reconfiguration of latent spaces implies not only a transformation of textual modalities, but a profound anthropological mutation. We will never again be alone, not in the trivial sense of permanent artificial presence, but in a more radical ontological sense: our cognitive latent space is now irrevocably intertwined with its technological double.

We must therefore simultaneously recognize the limits of the statistical approach of LLMs and our own limits as self-exceeding subjects. Our cognitive finitude encounters the statistical finitude of machines, producing not transcendence, but augmented immanence. The banality of machines then becomes the mirror of our own banality, but also the condition of possibility for overcoming it.

In this new arrangement, we are perpetually accompanied by this strange double that is artificial intelligence, giving us access to ourselves as if it were an alterity. Vectorial banality is no longer simply defect or limitation, but necessary mediator of a renewed relationship to our own finitude.