La vérité des LLM / The LLM truth

Il y a quelques amusements à observer les « tests » effectués par certains sur chatGPT qui marquent souvent une déception quant aux limitations de ce LLM ou d’un autre. Mais c’est qu’on en attend trop parce qu’on n’en comprend pas la structure.

Le plus souvent, on espère que le LLM devrait avoir une relation avec la vérité et on s’amuse qu’il ne puisse pas faire certaines choses comme simplement résumer un livre. Par là, on présuppose d’une part qu’un LLM a une relation au langage comme compréhension de la signification et d’autre part qu’un être humain (qui est alors dérivé des exigences adressées au LLM) a également une relle relation compréhensive.

On découvre rapidement les « erreurs » du LLM, ses hallucinations et ses répétitions, ses mésinterprétations, mais celles-ci ne sont négatives que parce qu’on les juge selon ce présupposé de compréhension de la signification.

Si on suspend cette attente, à la manière phénoménologique d’une épochée, pour percevoir le LLM selon ses capacités propres et non selon notre volonté instrumentale qui n’est qu’un miroir déformant de notre propre réflexivité, si on disloque la signification et les référents, alors le LLM est, comme technique, un simulacre de signification qui mime nos propres simulacres.

Et si parfois, nous ressentons de la compréhension dans un LLM ce n’est pas dû au fait d’un platonisme et d’une consistance a priori des Formes idéales, c’est du fait de l’analogie trouble entre ses simulacres et les nôtres, comme une intimité sourde entre la technique et l’être humain.

Dès lors les LLM peuvent être l’expérience naïve, enthousiaste et le plus souvent déceptive, d’une consistance de la signification (à laquelle la technique serait plus ou moins ajustée et qui garderait comme modèle l’anthropologie) ou l’expérimentation de l’anthropotechnologie comme simulacre faisant vaciller la consistance du sens qui est alors à considérer comme un effet.


There is some amusement to be had in observing the “tests” carried out by some on chatGPT, which often mark a disappointment as to the limitations of this LLM or another. But that’s because we expect too much, because we don’t understand the structure.

More often than not, the expectation is that the LLM should have a relationship with the truth, and we’re amused that it can’t do things like simply summarize a book. This presupposes, on the one hand, that an LLM has a relationship with language as an understanding of meaning and, on the other, that a human being (who is then derived from the demands made on the LLM) also has a real understanding relationship.

We quickly discover the LLM’s “errors”, its hallucinations and repetitions, its misinterpretations, but these are negative only because we judge them according to this presupposition of understanding meaning.
If we suspend this expectation, in the phenomenological manner of an epoch, to perceive the LLM according to its own capacities and not according to our instrumental will, which is merely a distorting mirror of our own reflexivity, if we dislocate meaning and referents, then the LLM is, as a technique, a simulacrum of meaning that mimics our own simulacra.

And if we sometimes feel understanding in an LLM, it’s not because of Platonism and the a priori consistency of Ideal Forms, but because of the blurred analogy between its simulacra and our own, like a muted intimacy between technology and the human being.

From then on, LLMs can be the naïve, enthusiastic and, more often than not, disappointing experience of a consistency of meaning (to which technology would be more or less adjusted and which would keep anthropology as a model) or the experimentation of anthropotechnology as a simulacrum that makes the consistency of meaning waver.