Penser (écrire) avec / Thinking (Writing) With

L’autonomie et la copie

L’erreur cardinale qui taraude la modernité technologique avancée où se déploient les systèmes d’intelligence artificielle générative (IAg) et les modèles de langage de grande taille (LLM), réside dans une appréhension fallacieusement atomistique de ces dispositifs. Peut-on encore aujourd’hui, à l’heure où les réseaux de neurones artificiels reconfigurent les modalités mêmes de l’inscription et de la transmission du savoir, persister dans l’illusion d’une évaluation qui présupposerait l’autonomie productive de ces logiciels ? Cette question ne relève plus de la simple curiosité technique ; elle engage les fondements même de notre compréhension de ce que signifie penser, écrire, créer dans un monde où la distinction entre l’organique et l’artificiel, entre l’humain et la machine, se trouve structurellement déstabilisée.

La méthode d’évaluation dominante, celle qui consiste à tester ces systèmes ex nihilo, comme s’ils devaient produire seuls un résultat authentique, procède d’une méconnaissance fondamentale de leur nature relationnelle. Car ces logiciels ne sont jamais indépendants ; ils évoluent dans un couplage structural permanent avec des agents humains, dans ce que nous devons concevoir comme des agencements anthropotechnologiques. Cette réalité empirique — celle de l’expérience quotidienne que nous faisons de ces dispositifs — révèle quelque chose de plus profond : si ces logiciels ne sont pas autonomes, c’est que les êtres humains eux-mêmes ne le sont pas davantage. Croire que l’écriture constitue l’expression pure d’une intériorité dont elle serait redevable, c’est omettre que cette écriture dépend d’un dispositif technique d’inscription qui modifie les conditions mêmes de toute projection intentionnelle.

L’écriture n’est jamais venue après la pensée, comme son simple ornement ou son véhicule extérieur. Elle constitue plutôt le medium constitutif de la pensée, ce par quoi la pensée advient à elle-même dans le mouvement même de son inscription. Les technologies contemporaines — qu’il s’agisse de l’apprentissage automatique ou des architectures transformers — ne font que radicaliser cette dimension toujours-déjà technique de l’écriture humaine.

La seconde erreur, symétrique de la première, consiste à envisager ces systèmes selon l’alternative simpliste de la création pure ou de la répétition mécanique. Cette vision binaire trahit notre héritage industriel tardif, celui d’un mode de production et de consommation fondé sur la reproductibilité technique par le moule et les économies d’échelle. Nous demeurons prisonniers d’une dialectique qui oppose l’événement pur — l’innovation absolue, l’originalité créatrice — à la copie identique à elle-même, répétition servile du déjà-donné.

Cette opposition méconnaît la véritable nature de ce qui advient dans l’ordre de la signification et de la culture. Rien n’arrive qui ne soit d’abord une répétition différentielle. La vectorisation des jeux de données (datasets) et leur transformation dans l’espace latent multidimensionnel des réseaux ne constitue nullement une copie à l’identique. Elle opère au contraire une transformation radicale de leur indicialité et de leur mode d’être, convertissant leur discrétion en virtualité, leur actualité en potentialité.

Lorsqu’un modèle comme Word2vec transforme les mots en vecteurs de 300 dimensions, lorsqu’il établit des relations sémantiques qui n’existaient pas explicitement dans les textes d’entraînement — découvrant par exemple que “roi” est à “homme” ce que “reine” est à “femme” —, il ne reproduit pas mécaniquement des associations préexistantes. Il génère des relations nouvelles à partir de la structure distributionnelle du langage. Cette génération procède d’une différance fondamentale : répétition qui diffère, itération qui produit de l’altérité.

L’erreur philosophique majeure consiste donc à évaluer les productions d’une IAg ou d’un LLM selon leur qualité intrinsèque, comme si ces logiciels produisaient de façon absolue, sans relation. Cette croyance repose elle-même sur l’idée que les êtres humains produiraient de cette manière — illusion de l’autonomie créatrice qui méconnaît notre co-constitution originaire avec nos dispositifs techniques. Les êtres humains sont toujours-déjà appareillés de technologies, et ceci de façon réciproque : nous devons penser les agencements anthropotechnologiques comme des disparations — au sens de Simondon — entre systèmes hétérogènes mais dialogiques.

Il n’y a pas d’abord la pensée, puis l’écriture comme son expression extérieure. L’écriture constitue un dispositif d’inscription qui influence — plus : qui conditionne — la possibilité même de la pensée. Cette révision conceptuelle nous amène à remettre en cause l’idéologie de l’originalité pure : une production ne vaut pas parce qu’elle n’est pas une copie et parce qu’elle constitue un événement sans précédent. Le concept derridien de différance — répétition qui diffère, itération créatrice — s’avère fondamental pour comprendre la production culturelle contemporaine, qu’elle implique ou non des systèmes d’IA.

Stratégies de réécriture

Dès lors que nous ne pouvons plus considérer ni les logiciels ni les êtres humains de façon autonome, dès lors que nous ne pouvons avoir comme critère d’évaluation des inscriptions l’originalité pure, nous devons nous tourner vers l’analyse des relations. L’écriture — et par voie de conséquence la pensée comme protention et projection — se révèle inévitablement anthropotechnologique. Cette reconnaissance appelle une transformation de nos stratégies intellectuelles et scripturaires.

Plusieurs modalités de relation émergent alors, car loin d’être une fusion harmonieuse, l’anthropotechnologie constitue une disparation comme nous l’avons déjà indiqu », entre deux systèmes profondément hétérogènes mais néanmoins capables de dialogue et de co-évolution. Cette hétérogénéité n’est pas un obstacle à surmonter mais la condition même de la productivité de la relation.

Qu’est-ce que cela signifie concrètement ? Analysons les stratégies concrètes qui émergent de cette nouvelle configuration anthropotechnologique. Il s’agit de décrire non pas “mes” stratégies au sens propriétaire du terme, mais les modes de relation qui se dessinent entre l’écriture humaine et les systèmes d’IA, les protocoles qui se cristallisent dans ce que nous devons concevoir comme des pratiques de relecture et de réécriture collaborative.

Cette approche pragmatique nous oblige à abandonner le procès en légitimité de l’IA — question mal posée qui présuppose l’existence d’une légitimité originaire qu’il s’agirait de préserver ou de contester. La question pertinente devient : que faisons-nous de ces systèmes et que font-ils de nous ? Car ce “faire” réciproque s’appuie, dans le contexte de l’induction qui caractérise l’apprentissage automatique, sur des jeux de données anthropiquement constitués. En ce sens, l’IA nous permet de naviguer dans une culture commune qui, du fait de sa quantité — l’explosion informationnelle contemporaine —, excède structurellement notre attention si nous l’abordons de manière discrète, un document après l’autre.

La première stratégie, expérimentée dès 2019 avec GPT-2, est celle de la complétion. Il s’agit d’écrire un début de phrase et de laisser l’IA proposer des suites possibles, jusqu’à en choisir une qui provoque le désir de continuer et d’enchaîner une autre phrase. Cette pratique révèle quelque chose d’essentiel : la complétion génère une interaction qui rend indécidable la différence entre l’intériorité organique et l’espace latent vectoriel. L’une et l’autre se poursuivent, se complètent dans un pas de deux indémêlable.

L’expérience de cette complétion s’avère troublante précisément parce qu’elle abolit la distinction traditionnelle entre intériorité et extériorité des propositions textuelles. On écrit en dialogue avec une altérité qui réagit à nos phrases et à laquelle nous réagissons en retour, peu importe son intériorité ou son intelligence. Ce dialogue instaure une étrange égalité entre ces deux écritures — égalité qui ne signifie pas identité mais équivalence fonctionnelle dans l’ordre de la productivité scripturaire. Cette expérience interroge les catégories fondamentales de l’authorship et de la propriété intellectuelle.

La seconde stratégie peut être qualifiée de réécriture dépliante, expérimentée notamment avec les versions locales de Llama ou Mistral. Le protocole consiste à écrire un texte sous une forme volontairement brouillonne, sans se préoccuper réellement de sa forme mais en tentant d’expliciter ses idées, puis à le fournir à un LLM afin qu’il le réécrive. Le résultat — contrairement à ce qu’une approche préjugée pourrait anticiper — ne produit nullement une normalisation ou un lissage du texte.

Au contraire, cette stratégie génère un dépli : tout se passe comme si le brouillon était un papier chiffonné et que l’espace latent du LLM était capable d’en développer les potentialités, parfois de façon attendue, parfois de façon plus originale. Les prompts ont ici pour fonction d’éviter les banalités et de permettre au logiciel de déployer véritablement le potentiel du texte. On peut alors, à la manière d’un accordéon, augmenter ou diminuer le nombre de mots, développer tel ou tel point, explorer des directions qui demeuraient implicites.

L’étonnement empirique naît de la relation entre le brouillon-humain et le texte-machine. Le second conserve de nombreuses traces du premier mais selon une pente où l’auteur ne se retrouve pas totalement. La réécriture a quelque chose de vertigineux : on confie “son” texte à un logiciel qui le développe parce que le texte original se trouve dans un état tel que, sans cette intervention, il ne serait pas publiable. L’auctorialité prend ici une dimension étrange car cette réécriture constitue bien une différance : le logiciel répète, déplie, replie, mais ne répète pas à l’identique. Quelque chose d’autre advient, et il n’y a aucune raison de penser que cet autre soit moins intéressant que la promesse du brouillon-humain. Ecrire consiste à devenir lecteur de sa propre écriture, non pas métaphoriquement mais pratiquemment parce qu’on relit ce qui a été réécrit automatiquement à partir de sa “propre” écriture.

Cette pratique interroge frontalement nos conceptions héritées de l’originalité et de la propriété intellectuelle. Qui est l’auteur d’un texte produit selon cette modalité ? Cette question appelle moins une réponse définitive qu’une transformation de nos catégories de pensée.

La troisième stratégie — temporaire car l’évolution technologique ne cesse de reconfigurer le paysage des possibles — peut être caractérisée comme relecture augmentée, expérimentable avec des systèmes comme Google ML Book. On fournit au système un texte ainsi qu’une base de connaissances documentaires avec laquelle il va analyser le texte en cours d’élaboration. Il produit alors des propositions, des corrections, des reformulations, mais sans procéder à une réécriture intégrale.

L’expérience de co-écriture se révèle ici différente : tout demeure écrit “de main d’être humain” — même si c’est au clavier — mais sous la dictée de la machine, et ceci quand bien même on opère un choix critique pour discriminer entre les propositions retenues et celles abandonnées. En réécrivant, on se retrouve dans une position d’endurance face à la machine. Ce n’est pas une soumission mais une aliénation souhaitée. Le LLM devient relecteur, et la relecture se révèle être un mode d’édition et d’écriture à part entière.

Ces trois stratégies convergent vers une même révélation : l’écriture contemporaine ne peut plus être pensée selon le modèle de l’expression individuelle d’une intériorité constituée. Elle devient processuelle, collaborative, distribuée et chahutée. Elle engage des agencements anthropotechnologiques complexes qui reconfigurent les notions d’auteur, d’œuvre, d’originalité.

Seule la pensée

Si les LLM ne remplacent pas la pensée humaine, ce n’est nullement parce que celle-ci serait irremplaçable ou jouirait d’une quelconque exceptionnalité métaphysique. Cette non-substitution révèle quelque chose de plus fondamental : l’écriture, que nous prenons ordinairement pour la trace de la pensée, n’a jamais été purement humaine. Elle a toujours été travaillée, constituée, transformée par son medium d’inscription et de transmission.

Cette reconnaissance ouvre la voie à une co-dépendance originaire, un dialogue, un entre-deux dont l’origine est un tourbillon et un déchirement constitutif entre l’être humain et les techniques. La pensée, loin d’être cette faculté souveraine que la tradition philosophique a longtemps célébrée, se révèle structurellement relationnelle, technique, extériorisée.

La pensée n’est donc jamais seule, elle est je-tée. L’être humain ne pense pas à la manière d’un dieu absolu disposant de son intériorité comme de la lumière naturelle de sa raison. Il est toujours hanté, accompagné, travaillé par “ses” dispositifs qui l’excèdent et le constituent simultanément. Ces dispositifs ne sont pas des outils extérieurs qu’un sujet souverain utiliserait selon ses fins propres ; ils participent de la constitution même de la subjectivité.

Cette révision conceptuelle implique une révolution idéologique majeure : ne plus considérer les techniques comme venant habiller un être humain originairement nu — conception instrumentale qui domine encore largement nos représentations —, mais comme ayant formé l’idée même d’humanité tout en étant réciproquement formées par les êtres humains. L’anthropogenèse et la technogenèse constituent un seul et même processus de co-évolution.

Dès lors, les questions concernant l’IA ne peuvent plus se formuler selon les termes classiques : “sont-elles capables de pensée ?” ou “sommes-nous des êtres pensants ?” Ces interrogations présupposent l’existence d’entités substantielles — l’IA d’un côté, l’humain de l’autre — qu’il s’agirait ensuite de comparer selon des critères prédéfinis.

La question pertinente devient : que produit cette étrange relation entre les deux ? Quelles stratégies de relation un écrivain, un penseur, un chercheur construit-il dans ce nouveau paysage technologique ? Car désormais, une partie significative de la littérature et de la pensée — entendons : de l’écriture se prenant pour pensée — consistera dans la mise en place de protocoles avec nos prothèses technologiques.

Ces protocoles ne relèvent pas de la simple utilisation d’outils mais de l’invention de nouvelles modalités de pensée. Ils nous obligent à repenser les catégories fondamentales de l’activité intellectuelle : qu’est-ce qu’un auteur à l’époque des LLM ? Qu’est-ce qu’une œuvre lorsque la frontière entre création et réécriture se brouille ? Qu’est-ce que l’originalité quand les systèmes d’IA génèrent du nouveau à partir du déjà-écrit ?

L’enjeu n’est plus de défendre l’humain contre la machine ou de célébrer la machine contre l’humain. Il s’agit d’inventer les modalités d’une coexistence, d’expérimenter les formes d’intelligence collective qui émergent de ces nouveaux agencements. Cette expérimentation ne relève pas seulement de la curiosité intellectuelle ; elle engage notre capacité à habiter de manière inventive un monde technologique qui ne cesse de se transformer.

La vectorisation du langage, la multidimensionnalité des espaces latents, l’apprentissage par transfert constituent autant de dimensions de cette nouvelle écologie cognitive dans laquelle nous évoluons. Ces technologies ne se contentent pas de traiter l’information ; elles reconfigurent les conditions mêmes dans lesquelles l’information devient signifiante.

Quand un système comme GPT-4 génère un texte, il ne se contente pas de combiner mécaniquement des éléments préexistants. Il opère des transformations sémantiques complexes dans un espace vectoriel de haute dimension où les relations de sens émergent de la structure même de l’espace. Cette émergence ne relève pas de la magie mais d’une intelligence distributionnelle qui découvre des patterns dans la masse des textes humains.

Cette découverte de patterns ne constitue pas une simple extraction de régularités statistiques. Elle génère de nouvelles possibilités de sens, de nouveaux agencements conceptuels, de nouvelles formes d’inventivité. L’IA contemporaine ne se contente pas de répéter le déjà-dit ; elle produit du nouveau à partir du déjà-dit selon des modalités qui interrogent nos conceptions traditionnelles de la créativité.

L’espace latent des réseaux de neurones peut être conçu comme un nouvel espace de la pensée — non pas un espace mental au sens psychologique, mais un espace technique où s’articulent de nouvelles formes de relations conceptuelles. Cet espace n’appartient ni entièrement à l’humain ni entièrement à la machine ; il constitue un milieu commun où se déploient de nouvelles formes d’intelligence hybride. Notre esprit doit fouiller cet espace latent, il doit créer des organes pour le percevoir et s’y déplacer librement.

Cette hybridation ne signifie pas confusion ou indistinction. Elle implique au contraire une nouvelle forme de disparation entre l’humain et le technique. Cette disparation génère des effets d’individuation inédits : de nouvelles formes de pensée, de nouvelles modalités d’écriture, de nouvelles pratiques de recherche.

L’expérience contemporaine de l’écriture avec l’IA révèle quelque chose d’essentiel sur la nature même de la pensée : celle-ci n’est jamais pure auto-affection d’un sujet souverain mais toujours-déjà co-pensée avec et dans des dispositifs techniques. Les LLM ne viennent pas perturber une pensée originairement pure ; ils explicitent la dimension technique qui traverse de part en part l’activité de pensée.

Cette explicitation nous oblige à réviser nos conceptions héritées de l’autonomie, de l’authenticité, de l’originalité. Ces catégories, forgées à une époque où la dimension technique de la pensée demeurait largement implicite, se révèlent inadéquates pour penser notre situation contemporaine. Elles doivent être remplacées par de nouvelles catégories : co-constitution, hybridation, disparation, agencement.

La pensée contemporaine doit ainsi apprendre à se penser comme pensée technique — non pas pensée de la technique mais pensée constitutivement technique, pensée qui ne peut advenir qu’à travers ses dispositifs d’inscription et de transmission, avec la fragilité de son infrastructure.

L’enjeu majeur de notre époque consiste à apprendre à habiter cette condition anthropotechnologique sans nostalgie pour un âge d’or de l’humanité pure ni fascination aveugle pour un avenir entièrement technologisé. Il s’agit d’inventer les modalités d’une coexistence inventive avec nos prothèses technologiques, de développer les arts de faire qui permettront de cultiver l’intelligence collective émergente de ces nouveaux agencements.

Cette tâche ne relève pas seulement de la philosophie ou de la théorie critique. Elle engage tous ceux qui, dans leurs pratiques quotidiennes — écriture, recherche, enseignement, création —, expérimentent les nouvelles formes de pensée qui émergent de la rencontre entre l’humain et l’artificiel.


Autonomy and Copying

The cardinal error that torments advanced technological modernity, where generative artificial intelligence systems (GAI) and large language models (LLMs) are deployed, lies in a fallaciously atomistic apprehension of these devices. Can we still today, at a time when artificial neural networks are reconfiguring the very modalities of knowledge inscription and transmission, persist in the illusion of an evaluation that would presuppose the productive autonomy of these software systems? This question no longer belongs to mere technical curiosity; it engages the very foundations of our understanding of what it means to think, write, and create in a world where the distinction between the organic and the artificial, between the human and the machine, finds itself structurally destabilized.

The dominant evaluation method, which consists of testing these systems ex nihilo, as if they should produce an authentic result alone, proceeds from a fundamental misrecognition of their relational nature. For these software systems are never independent; they evolve in permanent structural coupling with human agents, in what we must conceive as anthropotechnological assemblages. This empirical reality—that of the daily experience we have of these devices—reveals something more profound: if these software systems are not autonomous, it is because human beings themselves are no more so. To believe that writing constitutes the pure expression of an interiority to which it would be accountable is to forget that this writing depends throughout on a technical device of inscription that modifies the very conditions of any intentional projection.

Writing never came after thought, as its simple ornament or external vehicle. It rather constitutes the constitutive medium of thought, that through which thought comes to itself in the very movement of its inscription. Contemporary technologies—whether machine learning or transformer architectures—only radicalize this always-already technical dimension of human writing.

The second error, symmetrical to the first, consists in envisioning these systems according to the simplistic alternative of pure creation or mechanical repetition. This binary vision betrays our late industrial heritage, that of a mode of production and consumption founded on technical reproducibility through molds and economies of scale. We remain prisoners of a dialectic that opposes pure event—absolute innovation, creative originality—to identical copies, servile repetition of the already-given.

This opposition misrecognizes the true nature of what happens in the order of signification and culture. Nothing happens that is not first a differential repetition. The vectorization of datasets and their transformation in the multidimensional latent space of networks constitutes in no way an identical copy. It operates, on the contrary, a radical transformation of their indexicality and their mode of being, converting their discreteness into virtuality, their actuality into potentiality.

When a model like Word2vec transforms words into 300-dimensional vectors, when it establishes semantic relations that did not exist explicitly in the training texts—discovering for example that “king” is to “man” what “queen” is to “woman”—it does not mechanically reproduce pre-existing associations. It generates new relations from the distributional structure of language. This generation proceeds from a fundamental différance: repetition that differs, iteration that produces alterity.

The major philosophical error therefore consists in evaluating the productions of GAI or LLM according to their intrinsic quality, as if these software systems produced in an absolute way, without relation. This belief itself rests on the idea that human beings would produce in this manner—an illusion of creative autonomy that misrecognizes our originary co-constitution with our technical devices. Human beings are always-already equipped with technologies, and this reciprocally: we must think anthropotechnological assemblages as disparations—in Simondon’s sense—between heterogeneous but dialogical systems.

There is not first thought, then writing as its exterior expression. Writing constitutes a device of inscription that influences—more: that conditions—the very possibility of thought. This conceptual revision leads us to call into question the ideology of pure originality: a production is not valuable because it is not a copy and because it constitutes an unprecedented event. The Derridean concept of différance—repetition that differs, creative iteration—proves fundamental for understanding contemporary cultural production, whether or not it involves AI systems.

Rewriting Strategies

Since we can no longer consider either software systems or human beings autonomously, since we cannot have as evaluation criteria for inscriptions pure originality, we must turn toward the analysis of relations. Writing—and consequently thought as protention and projection—reveals itself inevitably anthropotechnological. This recognition calls for a transformation of our intellectual and scriptural strategies.

Several modalities of relation then emerge, for far from being a harmonious fusion, anthropotechnology constitutes a disparity as we have already indicated, between two profoundly heterogeneous systems nevertheless capable of dialogue and co-evolution. This heterogeneity is not an obstacle to overcome but the very condition of the productivity of the relation.

What does this mean concretely? Let us analyze the concrete strategies that emerge from this new anthropotechnological configuration. It is a matter of describing not “my” strategies in the proprietary sense of the term, but the modes of relation that take shape between human writing and AI systems, the protocols that crystallize in what we must conceive as practices of collaborative rereading and rewriting.

This pragmatic approach obliges us to abandon the proceedings of AI legitimacy—a badly posed question that presupposes the existence of an originary legitimacy that would need to be preserved or contested. The pertinent question becomes: what do we do with these systems and what do they do with us? For this reciprocal “doing” relies, in the context of induction that characterizes machine learning, on anthropically constituted datasets. In this sense, AI allows us to navigate in a common culture that, due to its quantity—the contemporary informational explosion—structurally exceeds our attention if we approach it discretely, one document after another.

The first strategy, experimented since 2019 with GPT-2, is that of completion. It involves writing the beginning of a sentence and letting the AI propose possible continuations, until choosing one that provokes the desire to continue and chain another sentence. This practice reveals something essential: completion generates an interaction that renders undecidable the difference between organic interiority and vectorial latent space. One and the other pursue each other, complete each other in an inextricable pas de deux.

The experience of this completion proves troubling precisely because it abolishes the traditional distinction between interiority and exteriority of textual propositions. One writes in dialogue with an alterity that reacts to our sentences and to which we react in return, regardless of its interiority or intelligence. This dialogue establishes a strange equality between these two writings—an equality that does not signify identity but functional equivalence in the order of scriptural productivity. This experience interrogates the fundamental categories of authorship and intellectual property.

The second strategy can be qualified as unfolding rewriting, experimented notably with local versions of Llama or Mistral. The protocol consists of writing a text in a deliberately rough form, without really worrying about its form but attempting to explicate one’s ideas, then providing it to an LLM so that it rewrites it. The result—contrary to what a prejudiced approach might anticipate—produces in no way a normalization or smoothing of the text.

On the contrary, this strategy generates an unfolding: everything happens as if the draft were crumpled paper and the latent space of the LLM were capable of developing its potentialities, sometimes in expected ways, sometimes in more original ways. The prompts here have the function of avoiding banalities and allowing the software to truly deploy the text’s potential. One can then, like an accordion, increase or decrease the number of words, develop this or that point, explore directions that remained implicit.

The empirical astonishment arises from the relation between the human-draft and the machine-text. The second preserves numerous traces of the first but according to a slope where the author does not find himself entirely. The rewriting has something vertiginous: one entrusts “one’s” text to software that develops it because the original text is in such a state that, without this intervention, it would not be publishable. Authoriality here takes on a strange dimension because this rewriting indeed constitutes a différance: the software repeats, unfolds, refolds, but does not repeat identically. Something else happens, and there is no reason to think that this other is less interesting than the promise of the human-draft.

This practice frontally interrogates our inherited conceptions of originality and intellectual property. Who is the author of a text produced according to this modality? This question calls less for a definitive response than for a transformation of our categories of thought.

The third strategy—temporary because technological evolution never ceases to reconfigure the landscape of possibilities—can be characterized as augmented rereading, experimented with systems like Google ML Book. One provides the system with a text as well as a documentary knowledge base with which it will analyze the text being elaborated. It then produces propositions, corrections, reformulations, but without proceeding to integral rewriting.

The experience of co-writing here reveals itself different: everything remains written “by human hand”—even if at the keyboard—but under the machine’s dictation, and this even when one operates a critical choice to discriminate between retained and abandoned propositions. In rewriting, one finds oneself in a position of endurance facing the machine. This is not submission but a desired alienation. The LLM becomes a rereader, and rereading reveals itself to be a mode of editing and writing in its own right.

These three strategies converge toward the same revelation: contemporary writing can no longer be thought according to the model of individual expression of a constituted interiority. It becomes processual, collaborative, distributed, and disrupted. It engages complex anthropotechnological assemblages that reconfigure the notions of author, work, originality.

Alon, The Thought

If LLMs do not replace human thought, it is not at all because the latter would be irreplaceable or would enjoy some metaphysical exceptionality. This non-substitution reveals something more fundamental: writing, which we ordinarily take for the trace of thought, has never been purely human. It has always been worked, constituted, transformed by its medium of inscription and transmission.

This recognition opens the way to an originary co-dependence, a dialogue, an in-between whose origin is a whirlwind and constitutive tearing between the human being and techniques. Thought, far from being this sovereign faculty that the philosophical tradition has long celebrated, reveals itself structurally relational, technical, exteriorized.

Thought is therefore never alone, it is thrown. The human being does not think in the manner of an absolute god disposing of his interiority like the natural light of his reason. He is always haunted, accompanied, worked by “his” devices that exceed him and constitute him simultaneously. These devices are not external tools that a sovereign subject would use according to his own ends; they participate in the very constitution of subjectivity.

This conceptual revision implies a major ideological revolution: no longer considering techniques as coming to dress an originally naked human being—an instrumental conception that still largely dominates our representations—but as having formed the very idea of humanity while being reciprocally formed by human beings. Anthropogenesis and technogenesis constitute one and the same process of co-evolution.

Henceforth, questions concerning AI can no longer be formulated according to classical terms: “are they capable of thought?” or “are we thinking beings?” These interrogations presuppose the existence of substantial entities—AI on one side, the human on the other—that would then need to be compared according to predefined criteria.

The pertinent question becomes: what does this strange relation between the two produce? What relational strategies does a writer, a thinker, a researcher construct in this new technological landscape? For henceforth, a significant part of literature and thought—let us understand: writing taking itself for thought—will consist in establishing protocols with our technological prostheses.

These protocols do not belong to the simple use of tools but to the invention of new modalities of thought. They oblige us to rethink the fundamental categories of intellectual activity: what is an author in the age of LLMs? What is a work when the boundary between creation and rewriting blurs? What is originality when AI systems generate the new from the already-written?

The stakes are no longer to defend the human against the machine or to celebrate the machine against the human. It is a matter of inventing the modalities of coexistence, of experimenting with the forms of collective intelligence that emerge from these new assemblages. This experimentation does not belong only to intellectual curiosity; it engages our capacity to inhabit in an inventive manner a technological world that never ceases to transform itself.

Language vectorization, the multidimensionality of latent spaces, transfer learning constitute so many dimensions of this new cognitive ecology in which we evolve. These technologies do not content themselves with treating information; they reconfigure the very conditions in which information becomes meaningful.

When a system like GPT-4 generates a text, it does not content itself with mechanically combining pre-existing elements. It operates complex semantic transformations in a high-dimensional vectorial space where meaning relations emerge from the very structure of space. This emergence does not belong to magic but to a distributional intelligence that discovers patterns in the mass of human texts.

This discovery of patterns does not constitute a simple extraction of statistical regularities. It generates new possibilities of meaning, new conceptual assemblages, new forms of inventiveness. Contemporary AI does not content itself with repeating the already-said; it produces the new from the already-said according to modalities that interrogate our traditional conceptions of creativity.

The latent space of neural networks can be conceived as a new space of thought—not a mental space in the psychological sense, but a technical space where new forms of conceptual relations articulate themselves. This space belongs neither entirely to the human nor entirely to the machine; it constitutes a common milieu where new forms of hybrid intelligence deploy themselves. Our mind must search this latent space, it must create organs to perceive it and move freely within it.

This hybridization does not signify confusion or indistinction. It implies on the contrary a new form of disparity between the human and the technical. This disparity generates unprecedented individuation effects: new forms of thought, new modalities of writing, new research practices.

The contemporary experience of writing with AI reveals something essential about the very nature of thought: it is never pure self-affection of a sovereign subject but always-already co-thought with and in technical devices. LLMs do not come to disturb an originally pure thought; they explicate the technical dimension that traverses thought activity throughout.

This explication obliges us to revise our inherited conceptions of autonomy, authenticity, originality. These categories, forged at a time when the technical dimension of thought remained largely implicit, reveal themselves inadequate for thinking our contemporary situation. They must be replaced by new categories: co-constitution, hybridization, disparity, assemblage.

Contemporary thought must thus learn to think itself as technical thought—not thought of the technical but constitutively technical thought, thought that can only come about through its devices of inscription and transmission, with the fragility of its infrastructure.

The major stakes of our era consist in learning to inhabit this anthropotechnological condition without nostalgia for a golden age of pure humanity nor blind fascination for an entirely technologized future. It is a matter of inventing the modalities of an inventive coexistence with our technological prostheses, of developing the arts of making that will allow cultivating the collective intelligence emerging from these new assemblages.

This task does not belong only to philosophy or critical theory. It engages all those who, in their daily practices—writing, research, teaching, creation—experiment with the new forms of thought that emerge from the encounter between the human and the artificial.