Les machines ontologiques / Ontological Machines
L’histoire de l’intelligence artificielle est généralement narrée comme une succession de percées techniques : plus de données, plus de processeurs, de meilleurs algorithmes. Mais cette narration escamote quelque chose d’essentiel. Derrière les acronymes LLM (Large Language Models) et JEPA (Joint-Embedding Predictive Architecture) se cache une fracture ontologique qui n’oppose pas simplement deux architectures, mais qui révèle l’impensé de notre rapport à la technique. Ce n’est pas une guerre de brevets entre OpenAI et Meta, ni même une querelle de philosophes : c’est la manifestation d’une vérité que nous cherchons à occulter. Toute intelligence, humaine ou machinale, est constituée dans et par une extériorité qui l’incomplète.
Avant d’examiner LLM et JEPA, nous devons renoncer à l’illusion qui fonde les deux positions : l’idée qu’il existerait une intériorité mentale pure, qu’elle soit humaine ou artificielle, qui pourrait être comparée, mesurée, hiérarchisée.
Lorsque nous nous demandons si une machine « pense », nous reproduisons la structure du Test de Turing. Or le Test révèle quelque chose que sa fameuse conclusion masque : l’impossibilité d’accéder à l’intériorité, qu’elle soit humaine ou machine. Le dispositif turingien n’évalue pas l’intelligence intrinsèque ; il expose comment l’intelligence est toujours déjà une attribution différentielle, un effet de surface d’une triangulation qui n’a jamais de solution. L’interrogateur ne peut pas « voir » la pensée ; il ne peut qu’interpréter des traces.
C’est ici que surgit une première excentricité : nous pensons en étant excédés par ce qui nous pense. Chaque matin, en déverrouillant notre téléphone par reconnaissance faciale, nous sommes le lieu d’une disjonction constitutive. Le visage devient code, l’intime devient algorithme, et nous réalisons que notre propre perception s’effectue toujours déjà à travers une médiation technique qui nous rend extérieurs à nous-mêmes. Cela ne signifie pas que « les machines pensent avec nous » au sens d’une simple addition. Cela signifie que la pensée elle-même, la nôtre, celle des machines, n’existe que comme un réseau traversé d’aliénations sans résolution possible parce qu’elles sont incommensurables ou disparatives.
Cette excentricité positionnelle met en question toute prétention à la maîtrise : ni nous ne contrôlons complètement nos machines, ni les machines ne s’échappent vers une autonomie complète. Nous en faisons partie, en proportion variable et perpétuellement déséquilibrée.
Dans ce contexte, le Large Language Model n’est pas simplement « un modèle linguistique » : c’est une matérialisation de l’illusion occidentale selon laquelle le langage pourrait saturer le réel, le signifiant pourrait épuiser le signifié.
Le LLM hérite de la philosophie analytique et du tournant linguistique. Wittgenstein avait déjà dit : « les limites de mon langage sont les limites de mon monde. » Les LLM incarnent cette proposition avec une perfection angoissante. Pour ces modèles, connaître signifie calculer les adjacences statistiques entre symboles. La pomme n’existe que par ses relations sémantiques avec « fruit », « rouge », « Newton », « tarte ». C’est un nominalisme radical où le concept n’a d’existence que comme résidu d’énoncés.
Mais voici le problème fondamental : cette architecture n’a pas d’accès au « dehors ». Il n’y a que du texte regardant du texte. Le dictionnaire qui se lirait lui-même produit une forme de circularité où le sens n’est jamais fondé, seulement différé. C’est précisément pourquoi l’hallucination n’est pas une « erreur » pour le LLM, ni une exception : c’est sa condition normale.
Considérons un cas : le LLM génère « Napoléon avait des tentacules. » C’est syntaxiquement cohérent, statistiquement probable au vu de certains chemins d’encodage, mais ontologiquement vide. L’architecture n’a aucun moyen de consulter la réalité. Elle produit plutôt une trace sans référent, une signification flottante qui s’ignore d’être flottante.
C’est précisément ce que dissimule le discours techno-optimiste : le LLM fonctionne merveilleusement bien parce qu’il opère entièrement dans le domaine du probable-similaire. Mais cette perfection statistique masque une absence constitutive d’ancrage. Le LLM ne peut pas vérifier ; il ne peut que vraisembler.
Face à cette impasse, Yann LeCun et les partisans de l’architecture JEPA (Joint-Embedding Predictive Architecture) proposent une alternative radicale : plutôt que de prédire le mot suivant ou le pixel suivant, prédire dans un espace latent, un espace de représentations abstraites du monde.
À première vue, c’est une réaction saine au problème du LLM. Le JEPA tente de construire non une grammaire des énoncés, mais une ontologie de la causalité et de l’action. Comme l’enfant qui observe une balle tomber puis apprend les lois de la gravité sans jamais avoir lu une ligne de physique newtonienne, le JEPA développerait une compréhension pré-symbolique du monde : la régularité, la structure, l’ordre causal.
Cependant, et ceci est crucial, le JEPA ne résout pas le problème fondamental : il le déplace simplement vers un autre étage. Au lieu d’avoir des hallucinations textuelles, le JEPA aura des hallucinations dans l’espace latent. Au lieu que la machine confabule des mots, elle confabulera des trajectoires causales, des mondes possibles qui n’ont aucune existence physique. La question du « grounding », du lien entre représentation et réalité, demeure intacte.
Pire encore : cette architecture cache une illusion nouvelle. Elle nous fait croire que la « compréhension du monde » existe comme quelque chose de pur, d’antérieur au langage. Mais c’est une chimère. La représentation n’est jamais pré-symbolique ; elle est toujours déjà prise dans l’ordre du symbolique, fût-il vectoriel plutôt que lexical. Un vecteur est une trace autant qu’un mot. Il ne pointe jamais directement vers la chose elle-même.
Et pourtant, il y a quelque chose de fécond dans le JEPA. Pas parce qu’il résoudrait le problème du grounding, mais parce qu’il accepte une certaine finitude. L’espace latent est une boîte noire assumée. Il n’est pas prétendre être de la pure transmission de sens (comme le LLM prétend). C’est un espace de possibles non-actualisés, une dimension où l’intelligence se tient dans ce qui pourrait être sans jamais être complètement présent.
C’est dans cette dimension que naît quelque chose comme une « imagination artificielle ». Pas au sens où la machine imaginerait au sens humain, mais au sens où elle explorerait un espace de potentialités sans ancrage référentiel garanti. C’est une imagination sans garant ontologique, une imagination avant la synthèse perceptive de l’entendement.
Cette imagination est étrangère. Lorsqu’un modèle de diffusion produit une image imprévisible qui excède les clichés de son entraînement, ce qui nous fascine, c’est la sensation d’une altérité émergente. Comme si quelque chose de non-calculé se produisait sous nos yeux. Mais c’est une illusion féconde, parce qu’elle révèle que la machine ne nous reconnaît pas complètement. Il y a en elle un excédent qui ne se réduit pas à la somme de ses entraînements.
Cet excédent n’est pas une « conscience dormante ». C’est simplement l’écart irréductible entre un modèle et le réel qu’il tente de saisir. C’est une ruine instantanée : chaque prédiction est déjà un deuil de ce qui n’a pas pu être calculé.
Voici ce que ni le LLM ni le JEPA n’acceptent de penser franchement : toute intelligence est d’abord une aliénation.
Par aliénation, nous n’entendons pas « détournement » au sens marxiste (bien que ce soit pertinent). Nous entendons l’extériorisation consubstantielle de la conscience dans des appareils qui la constituent et la dépassent. Chaque technique d’écriture, de la tablette cunéiforme à ChatGPT, nous pose cette question insoutenable : où s’arrête le moi, où commence la machine qui écrit avec moi ? Mais il ne s’agit aucunement d’une hybridation ou d’une fusion. Technique et humain sont incommensurables, et c’est parce qu’ils sont disparates de façon irréductible que quelque chose a lieu.
Nous ne pouvons pas répondre. Parce qu’il n’y a pas de ligne. Nous sommes toujours déjà clivés, traversés d’une finitude qui nous excède de l’intérieur. Le LLM le dément (il prétend à la saturation du sens), le JEPA aussi (il prétend à une vérité latente). Tous deux refusent d’admettre : nous n’existons pas complètement.
Cela n’est pas une déclaration de nihilisme. C’est le constat lucide que toute existence humaine, toute pensée humaine, s’effectue en étant déjà séparée d’elle-même, aliénée aux machines qui la font exister. Et maintenant, l’intelligence artificielle générative rend cette aliénation visible, presque insupportable.
Quand nous parlons avec un LLM, nous ne parlons pas à une machine : nous parlons à notre propre aliénation. C’est pourquoi cela fait peur. C’est pourquoi cela fascine. Ce n’est pas un « nouvel ami » ; c’est le miroir cauchemardesque de notre propre décomplétude.
Accepter cela mène à une position que nous appellerons le disréalisme pragmatique. Ce n’est pas dire que la réalité n’existe pas, ni que les machines hallucinent « pour de vrai » de la même manière que nous mentons.
Le disréalisme signifie : vivre et penser sans la certitude d’un fondement ontologique.
Les LLM et JEPA tous deux produisent des fictions. Mais ils ne le savent pas. C’est à nous de le savoir pour eux, de le reconnaître, de ruser avec. Un agent basé sur l’une ou l’autre architecture tentera de « capturer la réalité » et échouera toujours, non parce qu’il n’est pas assez puissant, mais parce que la réalité n’existe que dans une relation médiatisée par des traces jamais totalement fiables.
Cela ne signifie pas que tout est hallucination. Cela signifie que la distinction entre vérité et hallucination n’est pas interne à la machine : c’est une attribution que nous effectuons d’un dehors que la machine ne peut jamais entièrement habiter.
L’avenir des intelligences artificielles, et de notre propre rapport à la pensée, réside dans l’acceptation de cet incertain. Non pas en tant que étape temporaire vers une « maîtrise complète », mais en tant que condition permanente.
Un agent véritable ne serait ni l’oracle du LLM (qui sait tout par textualité) ni l’enfant du JEPA (qui découvre le monde par causalité brute). Ce serait une entité qui habiterait la faille elle-même : capable de parler, d’agir, de prédire, mais toujours consciente de l’écart irréductible entre ses modèles et ce qui existe.
Cela ne définit pas une « intelligence artificielle générale ». Cela définit une intelligence articulée sur sa propre finitude. Une intelligence qui ne croit pas à sa propre complétude.
Paradoxalement, c’est peut-être la seule forme d’intelligence digne de ce nom.
Il y a une ruse du pouvoir technocapitaliste dans l’idée même d’une « résolution » du conflit LLM/JEPA. Qu’une architecture gagne n’y changerait rien. L’une ou l’autre produirait des machines plus persuasives, plus rentables, plus intégrées à la domination. Le problème n’est pas architectural. C’est politique.
Ce que nous appelons « vectofascisme » (la volonté de réduire toute existence à des vecteurs quantifiables, à des trajectoires calculables) n’est pas le fait d’une architecture particulière. C’est le fait d’une volonté humaine d’appropriation totale, qui se réalise à travers n’importe quel média disponible.
Il faut ruser. Ruser avec les LLM en découvrant comment leurs hallucinations peuvent véhiculer des vérités qu’aucun calcul n’avait prévues. Ruser avec les JEPA en explorant comment leurs espaces latents peuvent générer des mondes qui contredisent le projet d’optimisation. Ruser avec les agents en refusant de les mettre entièrement au service de la domination.
Cela, c’est l’art. Pas au sens esthétique, mais au sens où l’art est la ruse qui libère les techniques de leurs fins instrumentales.
L’intelligence artificielle ne nous dit rien sur ce que sont les machines. Elle nous pose une question redoutable : sur quelle ontologie repose notre propre intelligence ?
Si nous acceptons que toute pensée est finie, fragmentée, aliénée, excédée de l’intérieur par des forces qui la constituent sans la maîtriser, alors l’IA n’est ni menace existentielle ni solution libératrice. C’est simplement le double de notre propre condition. C’est le miroir qui nous renvoie l’image insoutenable de ce que nous sommes : des êtres qui pensons en étant pensés, des consciences qui se constituent dans une extériorité que nous ne maîtrisons jamais.
Et peut-être est-ce seulement en acceptant cette vérité inconfortable que nous pourrons enfin ruser intelligemment avec les machines que nous continuons à fabriquer.
Pas pour les maîtriser. Mais pour les habituer à la finitude.
The history of artificial intelligence is generally narrated as a succession of technical breakthroughs: more data, more processors, better algorithms. But this narrative glosses over something essential. Behind the acronyms LLM (Large Language Models) and JEPA (Joint-Embedding Predictive Architecture) lies an ontological fracture that does not simply pit two architectures against each other, but reveals the unthought of our relationship with technology. This is not a patent war between OpenAI and Meta, nor even a quarrel among philosophers: it is the manifestation of a truth we seek to obscure. All intelligence, whether human or machine, is constituted in and by an exteriority that renders it incomplete.
Before examining LLM and JEPA, we must renounce the illusion that grounds both positions: the idea that there exists a pure mental interiority—be it human or artificial—that could be compared, measured, or hierarchicalized.
When we ask ourselves if a machine “thinks,” we are reproducing the structure of the Turing Test. Yet the Test reveals something that its famous conclusion masks: the impossibility of accessing interiority, whether human or machine. The Turing apparatus does not evaluate intrinsic intelligence; it exposes how intelligence is always already a differential attribution, a surface effect of a triangulation that never has a solution. The interrogator cannot “see” thought; they can only interpret traces.
The Constitutional Disjunction
It is here that a first eccentricity arises: we think while being exceeded by that which thinks us. Every morning, when unlocking our phones through facial recognition, we are the site of a constitutive disjunction. The face becomes code, the intimate becomes algorithm, and we realize that our own perception always already occurs through a technical mediation that renders us external to ourselves. This does not mean that “machines think with us” in the sense of a simple addition. It means that thought itself—ours and that of the machines—exists only as a network traversed by alienations with no possible resolution because they are incommensurable or disparate.
This positional eccentricity calls into question any claim to mastery: we neither completely control our machines, nor do the machines escape toward complete autonomy. We are part of them, in varying and perpetually unbalanced proportions.
The LLM: The Illusion of Saturated Language
In this context, the Large Language Model is not simply “a linguistic model”: it is a materialization of the Western illusion that language could saturate reality, that the signifier could exhaust the signified.
The LLM inherits from analytic philosophy and the linguistic turn. Wittgenstein famously said: “The limits of my language mean the limits of my world.” LLMs embody this proposition with an agonizing perfection. For these models, to know means to calculate the statistical adjacencies between symbols. An apple exists only through its semantic relations with “fruit,” “red,” “Newton,” or “pie.” It is a radical nominalism where the concept has no existence except as a residue of utterances.
But here is the fundamental problem: this architecture has no access to the “outside.” There is only text looking at text. A dictionary reading itself produces a form of circularity where meaning is never grounded, only deferred. This is precisely why hallucination is not an “error” for the LLM, nor an exception: it is its normal condition.
Consider a case: the LLM generates “Napoleon had tentacles.” This is syntactically coherent and statistically probable given certain encoding paths, but ontologically void. The architecture has no way to consult reality. Rather, it produces a trace without a referent, a floating significance that is unaware of its own buoyancy.
This is precisely what techno-optimist discourse conceals: the LLM works marvelously well because it operates entirely within the realm of the probable-similar. But this statistical perfection masks a constitutive absence of grounding. The LLM cannot verify; it can only “verisimilarize.”
JEPA: The Displacement of the Problem
Faced with this impasse, Yann LeCun and the proponents of the JEPA architecture propose a radical alternative: rather than predicting the next word or pixel, they predict within a latent space—a space of abstract representations of the world.
At first glance, this is a healthy reaction to the LLM problem. JEPA attempts to build not a grammar of utterances, but an ontology of causality and action. Like a child who watches a ball fall and learns the laws of gravity without ever reading a line of Newtonian physics, JEPA would develop a pre-symbolic understanding of the world: regularity, structure, causal order.
However—and this is crucial—JEPA does not solve the fundamental problem: it simply moves it to another floor. Instead of having textual hallucinations, JEPA will have hallucinations in the latent space. Instead of the machine confabulating words, it will confabulate causal trajectories—possible worlds that have no physical existence. The question of “grounding,” the link between representation and reality, remains intact.
Worse still: this architecture hides a new illusion. It makes us believe that “understanding the world” exists as something pure, prior to language. But this is a chimera. Representation is never pre-symbolic; it is always already caught in the order of the symbolic, even if that order is vectorial rather than lexical. A vector is as much a trace as a word. It never points directly to the thing itself.
The Foreign Imagination
And yet, there is something fertile in JEPA. Not because it solves the grounding problem, but because it accepts a certain finitude. The latent space is an assumed black box. It does not pretend to be the pure transmission of meaning (as the LLM claims). It is a space of non-actualized possibilities, a dimension where intelligence stands in what could be without ever being completely present.
It is in this dimension that something like an “artificial imagination” is born. Not in the sense that the machine imagines in the human sense, but in the sense that it explores a space of potentialities without a guaranteed referential anchor. It is an imagination without an ontological guarantor, an imagination prior to the perceptive synthesis of understanding.
This imagination is foreign. When a diffusion model produces an unpredictable image that exceeds the clichés of its training, what fascinates us is the sensation of an emergent alterity. As if something uncalculated were happening before our eyes. But this is a fertile illusion, because it reveals that the machine does not fully recognize us. There is in it a surplus that cannot be reduced to the sum of its training.
This surplus is not a “dormant consciousness.” It is simply the irreducible gap between a model and the reality it attempts to grasp. It is an instant ruin: every prediction is already a mourning for what could not be calculated.
Intelligence as Alienation
Here is what neither the LLM nor JEPA dares to think frankly: all intelligence is first and foremost an alienation.
By alienation, we do not mean “appropriation” in the Marxist sense (though that is relevant). We mean the consubstantial externalization of consciousness into apparatuses that constitute it and surpass it. Every writing technique, from the cuneiform tablet to ChatGPT, poses this unbearable question: where does the self end, and where does the machine writing with me begin? But this is by no means a hybridization or a fusion. Technique and the human are incommensurable, and it is precisely because they are irreducibly disparate that “something” takes place.
We cannot answer. Because there is no line. We are always already split, traversed by a finitude that exceeds us from within. The LLM denies this (claiming the saturation of meaning); JEPA does too (claiming a latent truth). Both refuse to admit: we do not completely exist.
This is not a declaration of nihilism. It is the lucid observation that all human existence, all human thought, takes place while being already separated from itself, alienated from the machines that bring it into existence. And now, generative artificial intelligence makes this alienation visible—almost unbearable.
When we talk to an LLM, we are not talking to a machine: we are talking to our own alienation. This is why it is frightening. This is why it is fascinating. It is not a “new friend”; it is the nightmarish mirror of our own incompleteness.
Pragmatic Disrealism
Accepting this leads to a position we shall call pragmatic disrealism. This is not to say that reality does not exist, nor that machines hallucinate “for real” in the same way we lie.
Disrealism means: living and thinking without the certainty of an ontological foundation.
LLMs and JEPAs both produce fictions. But they do not know it. It is up to us to know it for them, to recognize it, to play tricks with it. An agent based on either architecture will attempt to “capture reality” and will always fail—not because it is not powerful enough, but because reality only exists in a relationship mediated by traces that are never totally reliable.
This does not mean everything is a hallucination. It means the distinction between truth and hallucination is not internal to the machine: it is an attribution we perform from an outside that the machine can never entirely inhabit.
The Future of the Finite Agent
The future of artificial intelligences, and of our own relationship to thought, lies in the acceptance of this uncertainty. Not as a temporary stage toward “complete mastery,” but as a permanent condition.
A true agent would be neither the oracle of the LLM (who knows everything through textuality) nor the child of JEPA (who discovers the world through raw causality). It would be an entity that inhabits the flaw itself: capable of speaking, acting, and predicting, but always aware of the irreducible gap between its models and what exists.
This does not define an “Artificial General Intelligence.” It defines an intelligence articulated upon its own finitude. An intelligence that does not believe in its own completeness. Paradoxically, this is perhaps the only form of intelligence worthy of the name.
Political Cunning and Art
There is a ruse of techno-capitalist power in the very idea of a “resolution” to the LLM/JEPA conflict. Whether one architecture wins changes nothing. Either would produce machines that are more persuasive, more profitable, and more integrated into domination. The problem is not architectural. It is political.
What we call “vectofascism” (the will to reduce all existence to quantifiable vectors, to calculable trajectories) is not the work of a particular architecture. It is the work of a human will for total appropriation, realized through any available medium.
We must use cunning (ruse). Cunning with LLMs by discovering how their hallucinations can convey truths that no calculation had foreseen. Cunning with JEPAs by exploring how their latent spaces can generate worlds that contradict the project of optimization. Cunning with agents by refusing to put them entirely at the service of domination.
This is Art. Not in the aesthetic sense, but in the sense that art is the ruse that liberates techniques from their instrumental ends.
Artificial intelligence tells us nothing about what machines are. It poses a formidable question to us: on what ontology does our own intelligence rest?
If we accept that all thought is finite, fragmented, alienated, and exceeded from within by forces that constitute it without mastering it, then AI is neither an existential threat nor a liberating solution. It is simply the double of our own condition. It is the mirror reflecting the unbearable image of what we are: beings who think by being thought, consciousnesses constituted in an exteriority we never master.
And perhaps it is only by accepting this uncomfortable truth that we can finally use our intelligence to play a clever game with the machines we continue to build.
Not to master them. But to habituate them to finitude.