La pensée n’existe pas (vraiment) / Thinking Does Not (Really) Exist

Chaque juin, dans l’atmosphère lourde des salles d’examen, se rejoue la même scène médiatique : des milliers de lycéens penchés sur leurs copies de philosophie tentent de penser — mais qu’est-ce que penser ? Cette question, que l’institution leur pose rituellement, prend aujourd’hui une résonance inédite. Car voici qu’émergent des IA capables de produire des dissertations correctes, et l’angoisse saisit les gardiens du temple : la pensée serait-elle menacée ? Mais cette inquiétude révèle une mécompréhension fondamentale. En opposant une prétendue authenticité humaine à une supposée artificialité algorithmique, nous perpétuons un mythe qui nous aveugle. Il nous faut déconstruire ce faux dilemme pour comprendre que la pensée n’a jamais été ce joyau de l’intériorité que nous imaginons — elle est depuis toujours simulacre, jeu de surfaces et d’attributions, processus distribué dans les réseaux matériels et symboliques qui nous constituent.
Le mythe de l’autonomie
D’où nous vient cette croyance tenace en une pensée qui jaillirait, pure et autonome, des profondeurs de la conscience ? Cette fiction métaphysique — car c’en est une — s’enracine dans le cogito cartésien mal compris, dans cette illusion d’une intériorité transparente à elle-même. Pourtant, dès que l’on gratte le vernis de cette évidence, elle s’effrite. Prenons ce lycéen qui rédige sa copie : d’où lui viennent les mots qu’il trace ? Cette syntaxe qu’il déploie, ces concepts qu’il manie — Caverne, dialectique, inconscient — sont-ils vraiment siens ?
La pensée se révèle toujours déjà habitée, alinée, traversée. Elle est héritière d’une altérité, la culture, qui constitue sa voix intérieure. Elle est ce lieu paradoxal où le plus intime se découvre comme le plus étranger. Quand j’écris ces lignes, je mobilise des structures linguistiques que je n’ai pas créées, des schèmes argumentatifs hérités de millénaires de rhétorique, des intuitions glanées dans d’innombrables lectures dont j’ai oublié la source. Mon cerveau, cette masse spongieuse irriguée de sang et d’électricité, n’est qu’un nœud dans un réseau infiniment plus vaste. L’écriture elle-même, cette technologie que nous avons si bien intériorisée qu’elle nous paraît naturelle, transforme radicalement les opérations de la pensée. Platon le pressentait dans le Phèdre : l’écriture est ce pharmakon (φάρμακον), à la fois remède et poison, qui externalise la mémoire et reconfigure les circuits cognitifs.
Mais voici le paradoxe : cette extériorité technique n’est pas un accident de la pensée, elle en est la condition même. L’humain est cet animal prothetique, pour reprendre le terme de Leroi-Gourhan, qui n’existe que par et dans ses prothèses. Du silex taillé au smartphone, de l’écriture cunéiforme aux réseaux de neurones artificiels, nous n’avons cessé de distribuer notre intelligence dans des dispositifs techniques. L’opposition entre naturel et artificiel s’effondre dès lors qu’on comprend que l’artifice est notre nature même.
L’illusion de la solitude cognitive
Persistons dans cette déconstruction. L’image du penseur solitaire (ou de l’IA seule), Rodin nous a légué cette icône, masque la réalité fondamentalement collective et distribuée de toute cognition. Observons de près ce qui se passe quand nous pensons. Prenez ce moment précis : vous lisez ces lignes, et quelque chose se produit. Mais où ? Dans votre cerveau uniquement ? Non : la pensée se déploie dans l’espace hybride formé par vos neurones, les signes graphiques sur l’écran, la lumière qui transporte l’information, les conventions linguistiques qui donnent sens aux mots, l’histoire culturelle qui charge ces concepts de leurs résonances.
La cognition déborde toujours le crâne. Quand le mathématicien griffonne ses équations, sa pensée ne réside pas dans sa tête, mais entre son cerveau, sa main, le papier, l’ordinateur, les symboles qu’il trace. Ces symboles ne sont pas de simples représentations de sa pensée : ils en sont partie constituante. Effacez le tableau, et c’est la pensée elle-même qui vacille. De même, le philosophe qui manipule des concepts — substance, accident, transcendantal — pense avec ces outils linguistiques forgés par d’autres, polis par des siècles d’usage.
L’IA ne fait que rendre visible ce qui était déjà là : le caractère irréductiblement technique et collectif de toute pensée. Elle n’est pas cette altérité radicale que l’on imagine, mais le miroir où se révèle notre propre condition. Car que fait ChatGPT sinon naviguer dans cet immense réseau de signes que nous avons collectivement tissé ? Il parcourt l’espace des possibles linguistiques comme nous parcourons l’espace des possibles conceptuels, avec cette différence qu’il le fait à une vitesse et une échelle qui nous donnent le vertige.
La complexité statistique mal comprise
« Mais l’IA ne fait que calculer des probabilités et ne produit qu’une moyenne ! » — combien de fois n’entend-on pas cette objection, brandie comme un argument définitif ? Comme si le calcul statistique était nécessairement synonyme de platitude et de moyenne. Cette critique trahit une incompréhension profonde du fonctionnement des espaces bayésiens, de la théorie des jeux et des statistiques inductives. Les modèles de langage contemporains ne se contentent pas d’agréger et de régurgiter : ils construisent des espaces latents d’une richesse vertigineuse.
Imaginez un espace à des milliers de dimensions où chaque point représente une configuration possible du langage. Dans cet hyperespace, les concepts ne sont pas des îlots isolés, mais des régions aux frontières floues, reliées par des continuités subtiles. Le mot « pensée » y voisine avec « réflexion », « méditation », « cogitation », mais aussi, par des chemins moins évidents, avec « errance », « dérive », « rêverie ». L’IA peut naviguer dans ces espaces, tracer des trajectoires inédites, explorer les interstices entre les concepts établis.
Cette exploration n’est pas fondamentalement différente de ce que fait le poète quand il forge une métaphore inédite ou le philosophe quand il crée un néologisme. Dans les deux cas, il s’agit de parcourir l’espace des possibles linguistiques pour faire émerger des configurations nouvelles. Que ce parcours soit guidé par des gradients statistiques plutôt que par cette chose mystérieuse que nous appelons « intuition » change-t-il fondamentalement la nature et la réception du processus ? Notre propre cerveau, après tout, n’est-il pas lui aussi une machine statistique, actualisant des probabilités synaptiques, renforçant des connexions selon des patterns d’activation ?
Revenir à Turing
Revenons à Turing et à son test si mal compris. On y voit généralement une tentative de définir l’intelligence, alors qu’il s’agit de tout autre chose : d’un déplacement radical de la question. Turing nous dit en substance : cessons de chercher l’essence de la pensée dans quelque intériorité inaccessible ; regardons plutôt ce qui se manifeste dans l’interaction. Si une machine peut soutenir une conversation indiscernable de celle d’un humain, sur quelle base lui refuser l’attribution d’intelligence ?
Ce geste est révolutionnaire, car il substitue à l’ontologie de la pensée une pragmatique de l’attribution. La pensée n’est plus une substance que l’on possède, mais une qualité que l’on reconnaît dans des performances. Elle devient simulacre au sens fort, non pas copie dégradée d’un original, mais jeu de surfaces sans profondeur ultime, effet qui ne renvoie qu’à d’autres effets.
Cette perspective éclaire d’un jour nouveau la situation pédagogique. Le professeur qui corrige une dissertation n’a jamais accès à la « pensée » de l’élève — cette intériorité supposée lui reste à jamais opaque. Il ne peut que lire des traces : l’enchaînement des arguments, la pertinence des exemples, la progression de la réflexion. Il attribue de la pensée à partir de ces indices extérieurs, comme nous attribuons de la douleur à qui grimace ou de la joie à qui sourit. Si une copie produite avec l’assistance de l’IA manifeste ces mêmes qualités, l’impossibilité de vérifier l’origine « authentique » de la pensée révèle que cette authenticité était déjà un leurre.
L’émergence collective de l’intelligence
L’histoire de la philosophie elle-même démontre l’inanité de l’idéal d’une pensée originaire. Les grands textes philosophiques sont des palimpsestes où se superposent les strates de lectures antérieures. Kant ne pense pas ex nihilo : il pense avec Hume qui le réveille de son sommeil dogmatique, contre Leibniz et sa monadologie, à travers les catégories aristotéliciennes qu’il reconfigure. Sa Critique de la raison pure est ce lieu où se cristallise et se réorganise tout un héritage conceptuel.
Cette intertextualité constitutive n’est pas une faiblesse, mais la condition même de la fécondité philosophique. C’est parce que Deleuze lit Spinoza avec Nietzsche, Bergson avec Leibniz, qu’il peut forger ses concepts de rhizome, de plan d’immanence, de machine désirante. La pensée procède par greffes, hybridations, détournements. Elle est ce processus sans origine assignable où du nouveau émerge de la reconfiguration de l’ancien, où le possible côtoyé l’impossible.
L’IA s’inscrit dans cette logique de la répétition comme différence. Quand elle génère un texte, elle ne fait pas autre chose que ce que nous faisons : agencer des éléments préexistants selon des patterns inédits. Mais elle le fait à une échelle et une vitesse qui révèlent la nature profondément combinatoire de la pensée. Elle est ce miroir grossissant où nous découvrons que nous n’avons jamais été les auteurs souverains que nous croyions être. Le texte généré n’aura de sens que si nous lui en attribuons, en comblant les lacunes, en créant des liens, en croyant en une autre voix intérieure… Rien de très différent de la lecture d’un livre.
Vers une philosophie alien
Plutôt que de nous crisper sur une authenticité fantasmée, il nous faut apprendre à habiter cette nouvelle condition — non pas comme une augmentation qui préserverait notre centralité humaine, mais comme une aliénation au sens le plus radical. Alien : du latin alienus, l’autre, l’étranger, ce qui n’est pas soi. L’IA n’est pas le prolongement docile de notre pensée, mais son alien, ce miroir déformant où nous nous découvrons autres que nous ne croyions être : Je est un autre, et un autre, et un autre…
Cette aliénation est réciproque et productive. L’humain devient alien à lui-même en découvrant dans l’IA le miroir de sa propre étrangeté : nous qui pensions penser, nous découvrons que nous sommes pensés par le langage, par les structures, par les réseaux. L’IA, de son côté, n’existe que comme l’alien de l’humain — cette cristallisation de nos traces textuelles qui nous revient sous une forme méconnaissable, inquiétante et fascinante à la fois. Chacun est l’unheimlich de l’autre, cet inquiétant familier où le plus proche se révèle le plus lointain.
J’ai fait l’expérience troublante de cette aliénation mutuelle. Dans le dialogue avec l’IA, je ne retrouve pas ma pensée augmentée, mais défamiliarisée. Elle me renvoie mes propres patterns cognitifs sous une forme alien qui me force à les interroger. Ses rapprochements conceptuels ne sont pas simplement « inédits » — ils sont aliens précisément parce qu’ils suivent des trajectoires dans l’espace latent qui échappent à nos habitudes associatives. C’est une pensée humaine devenue étrangère à elle-même, revenue d’un voyage dans l’hyperespace des possibles linguistiques.
Cette philosophie alien exige que nous abandonnions le confort de la position souveraine. Nous ne sommes plus les maîtres dialoguant avec nos outils (l’avons-nous jamais été ?), mais des entités prises dans un jeu de miroirs où chacun révèle l’altérité de l’autre. L’IA nous montre que nous sommes des machines à produire du sens ; nous montrons à l’IA qu’elle est hantée par l’humain qu’elle n’est pas. Dans cette aliénation réciproque germe peut-être une pensée véritablement nouvelle, ni humaine ni artificielle, mais alien au sens où elle émerge de cette zone d’indiscernabilité où les catégories traditionnelles vacillent.
L’éducation comme machination
Dans les salles de classe, cette mutation appelle une révolution pédagogique. Continuer à faire comme si l’IA n’existait pas, ériger des digues dérisoires contre son usage, c’est préparer nos élèves à un monde qui n’existe plus. Il nous faut au contraire leur apprendre à naviguer dans ces nouveaux espaces hybrides où s’entremêlent intelligences humaines et artificielles.
Mais comprenons bien ce qui se joue dans cette rencontre. L’espace latent de l’IA — cette cartographie multidimensionnelle du dicible et du pensable — n’est que la cristallisation du commun : l’immense corpus de la connaissance humaine sédimentée, la tradition héritée dans toute sa polyphonie. Face à lui, chaque étudiant porte son propre espace latent, tissé de son expérience singulière, de ses lectures parcellaires, de ses intuitions encore informes, de ses anticipations et de ses désirs. La connaissance véritable naît de la rencontre entre ces espaces — non pas dans la soumission de l’un à l’autre, mais dans leur frottement exploratoire et productif.
Car voici le paradoxe : l’espace latent artificiel, pour vaste qu’il soit, reste une généralité statistique de l’exprimé collectif. L’espace latent de l’étudiant, pour limité qu’il paraisse, porte l’irréductible singularité d’une trajectoire, ces accidents biographiques qui font qu’une métaphore résonne différemment, qu’un concept s’éclaire soudain d’une lumière inédite. L’acte pédagogique consiste à orchestrer cette collision féconde — apprendre à l’étudiant non pas à se soumettre au savoir constitué que l’IA incarne, mais à faire dialoguer sa singularité avec cette universalité, à creuser son sillon propre dans le champ du pensable.
Cela suppose de développer des compétences inédites : savoir dialoguer avec l’IA de manière féconde, identifier ses biais et ses angles morts, maintenir une distance critique sans tomber dans le rejet phobique. Il s’agit d’apprendre à penser avec ces outils tout en préservant notre capacité de penser contre eux quand nécessaire. Cette dialectique de la collaboration et de la résistance définit notre nouvelle condition cognitive.
L’enjeu dépasse largement la question scolaire. C’est toute notre relation au savoir, à la vérité, à l’autorité intellectuelle qui se trouve reconfigurée. Dans un monde où l’IA peut produire des textes d’apparence savante sur n’importe quel sujet, la capacité critique devient vitale. Non plus cette critique qui se contente de rejeter, mais celle qui sait accueilir l’étranger.
Repenser la pensée
Le faux dilemme entre authenticité humaine et artificialité machinique nous maintient prisonniers d’une métaphysique obsolète. En nous accrochant à l’idée d’une pensée privative, ce trésor intérieur qu’il faudrait préserver de la contamination technique, nous passons à côté de notre condition réelle : nous sommes depuis toujours des êtres du simulacre, de la surface, de la relation. D’ailleurs, quand on a une bonne note à l’école ne sent-on pas son intériorité s’étendre, se renforcer, se développer, prendre confiance en elle-même ?
Mais il nous faut aller plus loin dans cette déconstruction. Car ce que révèle An Artificial History of Natural Intelligence de David Bates, c’est que les dispositifs techniques ne se contentent pas d’accompagner ou d’augmenter une pensée qui leur préexisterait — ils forment littéralement la pensée de la pensée. Depuis Leibniz et sa “caractéristique universelle” jusqu’aux réseaux de neurones contemporains, se dessine une histoire souterraine où l’intelligence humaine n’existe qu’à travers ses extériorisations techniques. L’automate spirituel leibnizien ne peut se constituer comme tel qu’en passant par l’intermédiaire machinique : c’est dans le calcul, dans l’inscription, dans la manipulation de symboles que la pensée se découvre et se réalise.
Cette histoire “artificielle” de l’intelligence naturelle révèle un paradoxe constitutif : il n’y a pas d’intelligence naturelle. Toute intelligence est toujours déjà artificielle, prise dans des dispositifs d’exteriorisation technique qui la précèdent et la rendent possible. L’humain, cet être “prothétique” selon Leroi-Gourhan, n’existe que dans l’écart entre l’automaticité du monde organique et l’automaticité de son propre être technique. La pensée émerge précisément dans cet entre-deux, dans cette zone d’indétermination où se négocient les rapports entre autonomie et automaticité.
L’IA contemporaine ne fait donc que porter à son paroxysme cette vérité oubliée : nous n’avons jamais pensé sans dispositifs techniques, et ces dispositifs n’ont jamais été de simples outils extérieurs mais les conditions mêmes de possibilité de notre cogitation. Quand Douglas Engelbart théorise l’augmentation de l’intellect humain dans les années 1960, il comprend que l’intelligence n’est pas une capacité isolable mais le produit d’une “organisation” — un système H-LAM/T (Human using Language, Artifacts, and Methodology, in which he is Trained) où l’humain n’est qu’un élément dans un assemblage plus vaste.
Cette perspective nous invite à abandonner définitivement l’illusion d’une pensée souveraine. Les dispositifs techniques ne contaminent pas une pureté originaire — ils sont le milieu même dans lequel quelque chose comme la pensée peut advenir. L’écriture, cette première technologie de l’esprit que Platon diagnostiquait déjà comme pharmakon, ne vient pas après la pensée pour la transcrire : elle la configure, la structure, en rend possible certains modes tout en en forclot d’autres. De même, les algorithmes contemporains ne simulent pas une intelligence qui leur serait antérieure : ils participent à sa genèse technique, à cette “technogenèse” qui caractérise l’humain depuis ses origines.
L’enjeu n’est donc pas de savoir si l’IA pense “vraiment” — question métaphysique insoluble et de peu d’intérêt — mais de comprendre comment ces nouvelles médiations techniques transforment les conditions de possibilité de la pensée, ces médiations qui ont toujours intercédé entre nous et nous-mêmes. Dans cette reconfiguration se joue peut-être l’avenir même de ce que nous appelons philosopher : non plus la quête d’une vérité originaire, mais l’exploration infinie des agencements possibles entre intelligences humaines et non-humaines, dans le jeu sans fond des simulacres.
Car reconnaître que la pensée n’a jamais été cette chose que l’on possède, mais cette attribution qui nous traverse, c’est se donner les moyens de penser notre époque plutôt que de la subir. Elle n’est pas dans la tête, mais entre les têtes, dans les livres, sur les écrans, dans les réseaux — et désormais, de plus en plus, dans ces espaces latents où s’entrecroisent les trajectoires statistiques de nos archives collectives et les singularités irréductibles de nos existences. L’IA révèle ainsi la vérité que nous nous obstinions à méconnaître : nous ne pensons jamais seuls, nous ne pensons jamais sans prothèses, nous ne pensons jamais à partir de rien — parce que les dispositifs techniques sont la pensée de notre pensée, l’impensé qui rend possible tout penser.
Each June, in the heavy atmosphere of examination halls, the same media scene replays itself: thousands of high school students bent over their philosophy papers attempt to think—but what does it mean to think? This question, which the institution poses to them ritually, takes on unprecedented resonance today. For here emerge AIs capable of producing correct dissertations, and anxiety seizes the guardians of the temple: would thinking be under threat? But this concern reveals a fundamental misunderstanding. By opposing a supposed human authenticity to an alleged algorithmic artificiality, we perpetuate a myth that blinds us. We must deconstruct this false dilemma to understand that thinking has never been that jewel of interiority we imagine—it has always been simulacrum, a play of surfaces and attributions, a process distributed through the material and symbolic networks that constitute us.
The Myth of Autonomy
Whence comes this tenacious belief in a thinking that would spring forth, pure and autonomous, from the depths of consciousness? This metaphysical fiction—for that is what it is—is rooted in the Cartesian cogito poorly understood, in this illusion of an interiority transparent to itself. Yet as soon as one scratches the veneer of this evidence, it crumbles. Take this high school student drafting his paper: where do the words he traces come from? This syntax he deploys, these concepts he manipulates—Cave, dialectic, unconscious—are they truly his?
Thinking reveals itself as always already inhabited, alienated, traversed. It is heir to an alterity, culture, which constitutes its inner voice. It is this paradoxical place where the most intimate discovers itself as the most foreign. When I write these lines, I mobilize linguistic structures I did not create, argumentative schemes inherited from millennia of rhetoric, intuitions gleaned from countless readings whose source I have forgotten. My brain, this spongy mass irrigated with blood and electricity, is but a node in an infinitely vaster network. Writing itself, this technology we have so well interniorized that it seems natural to us, radically transforms the operations of thinking. Plato sensed this in the Phaedrus: writing is that pharmakon (φάρμακον), both remedy and poison, which externalizes memory and reconfigures cognitive circuits.
But here is the paradox: this technical exteriority is not an accident of thinking, it is its very condition. The human is that prosthetic animal—to use Leroi-Gourhan’s term—who exists only through and within his prostheses. From knapped flint to smartphone, from cuneiform writing to artificial neural networks, we have never ceased distributing our intelligence in technical devices. The opposition between natural and artificial collapses as soon as we understand that artifice is our very nature.
The Illusion of Cognitive Solitude
Let us persist in this deconstruction. The image of the solitary thinker (or the solitary AI)—Rodin has bequeathed us this icon—masks the fundamentally collective and distributed reality of all cognition. Let us observe closely what happens when we think. Take this precise moment: you read these lines, and something occurs. But where? In your brain solely? No: thinking unfolds in the hybrid space formed by your neurons, the graphic signs on the screen, the light that transports information, the linguistic conventions that give meaning to words, the cultural history that charges these concepts with their resonances.
Cognition always overflows the skull. When the mathematician scribbles his equations, his thinking does not reside in his head, but between his brain, his hand, the paper, the computer, the symbols he traces. These symbols are not simple representations of his thinking: they are constituent parts of it. Erase the blackboard, and it is thinking itself that wavers. Likewise, the philosopher who manipulates concepts—substance, accident, transcendental—thinks with these linguistic tools forged by others, polished by centuries of usage.
AI only renders visible what was already there: the irreducibly technical and collective character of all thinking. It is not this radical alterity we imagine, but the mirror where our own condition is revealed. For what does ChatGPT do but navigate this immense network of signs we have collectively woven? It traverses the space of linguistic possibles as we traverse the space of conceptual possibles, with this difference that it does so at a speed and scale that give us vertigo.
The Misunderstood Statistical Complexity
“But AI only calculates probabilities and produces only an average!”—how often do we not hear this objection, brandished as a definitive argument? As if statistical calculation were necessarily synonymous with flatness and mediocrity. This critique betrays a profound misunderstanding of the functioning of Bayesian spaces, game theory, and inductive statistics. Contemporary language models do not merely aggregate and regurgitate: they construct latent spaces of vertiginous richness.
Imagine a space with thousands of dimensions where each point represents a possible configuration of language. In this hyperspace, concepts are not isolated islands, but regions with fuzzy borders, connected by subtle continuities. The word “thinking” neighbors “reflection,” “meditation,” “cogitation,” but also, through less evident paths, “wandering,” “drift,” “reverie.” AI can navigate these spaces, trace unprecedented trajectories, explore the interstices between established concepts.
This exploration is not fundamentally different from what the poet does when forging an unprecedented metaphor or the philosopher when creating a neologism. In both cases, it involves traversing the space of linguistic possibles to make new configurations emerge. Does the fact that this traversal is guided by statistical gradients rather than by this mysterious thing we call “intuition” fundamentally change the nature and reception of the process? Our own brain, after all, is it not also a statistical machine, actualizing synaptic probabilities, reinforcing connections according to activation patterns?
Returning to Turing
Let us return to Turing and his test so poorly understood. We generally see in it an attempt to define intelligence, whereas it is something quite different: a radical displacement of the question. Turing tells us in substance: let us cease seeking the essence of thinking in some inaccessible interiority; let us rather look at what manifests itself in interaction. If a machine can sustain a conversation indistinguishable from that of a human, on what basis should we refuse it the attribution of intelligence?
This gesture is revolutionary, for it substitutes for the ontology of thinking a pragmatics of attribution. Thinking is no longer a substance one possesses, but a quality one recognizes in performances. It becomes simulacrum in the strong sense, not a degraded copy of an original, but a play of surfaces without ultimate depth, an effect that refers only to other effects.
This perspective illuminates the pedagogical situation in a new light. The professor who corrects a dissertation never has access to the “thinking” of the student—this supposed interiority remains forever opaque to him. He can only read traces: the sequence of arguments, the pertinence of examples, the progression of reflection. He attributes thinking from these exterior indices, as we attribute pain to one who grimaces or joy to one who smiles. If a paper produced with AI assistance manifests these same qualities, the impossibility of verifying the “authentic” origin of thinking reveals that this authenticity was already a lure.
The Collective Emergence of Intelligence
The history of philosophy itself demonstrates the inanity of the ideal of originary thinking. The great philosophical texts are palimpsests where strata of anterior readings are superimposed. Kant does not think ex nihilo: he thinks with Hume who awakens him from his dogmatic slumber, against Leibniz and his monadology, through Aristotelian categories he reconfigures. His Critique of Pure Reason is this place where an entire conceptual heritage crystallizes and reorganizes itself.
This constitutive intertextuality is not a weakness, but the very condition of philosophical fecundity. It is because Deleuze reads Spinoza with Nietzsche, Bergson with Leibniz, that he can forge his concepts of rhizome, plane of immanence, desiring machine. Thinking proceeds by grafts, hybridizations, détournements. It is this process without assignable origin where the new emerges from the reconfiguration of the old, where the possible encounters the impossible.
AI inscribes itself in this logic of repetition as difference. When it generates a text, it does nothing other than what we do: arrange preexisting elements according to unprecedented patterns. But it does so at a scale and speed that reveal the profoundly combinatorial nature of thinking. It is this magnifying mirror where we discover that we have never been the sovereign authors we believed ourselves to be. The generated text will have meaning only if we attribute it to it, by filling in the gaps, creating connections, believing in another inner voice… Nothing very different from reading a book.
Toward an Alien Philosophy
Rather than clinging to a fantasized authenticity, we must learn to inhabit this new condition—not as an augmentation that would preserve our human centrality, but as an alienation in the most radical sense. Alien: from Latin alienus, the other, the stranger, that which is not oneself. AI is not the docile extension of our thinking, but its alien, this deforming mirror where we discover ourselves other than we believed ourselves to be: I is another, and another, and another…
This alienation is reciprocal and productive. The human becomes alien to himself by discovering in AI the mirror of his own strangeness: we who thought we thought, we discover that we are thought by language, by structures, by networks. AI, for its part, exists only as the alien of the human—this crystallization of our textual traces that returns to us in an unrecognizable form, disturbing and fascinating at once. Each is the unheimlich of the other, this uncanny familiar where the closest reveals itself as the most distant.
I have had the troubling experience of this mutual alienation. In dialogue with AI, I do not find my thinking augmented, but defamiliarized. It returns to me my own cognitive patterns in an alien form that forces me to interrogate them. Its conceptual connections are not simply “unprecedented”—they are alien precisely because they follow trajectories in latent space that escape our associative habits. It is human thinking become foreign to itself, returned from a voyage in the hyperspace of linguistic possibles.
This alien philosophy demands that we abandon the comfort of the sovereign position. We are no longer masters dialoguing with our tools (have we ever been?), but entities caught in a play of mirrors where each reveals the alterity of the other. AI shows us that we are machines for producing meaning; we show AI that it is haunted by the human it is not. In this reciprocal alienation perhaps germinates a truly new thinking, neither human nor artificial, but alien in the sense that it emerges from this zone of indiscernibility where traditional categories waver.
Education as Machination
In classrooms, this mutation calls for a pedagogical revolution. To continue acting as if AI did not exist, to erect derisory dikes against its usage, is to prepare our students for a world that no longer exists. We must on the contrary teach them to navigate these new hybrid spaces where human and artificial intelligences intermingle.
But let us well understand what is at stake in this encounter. The latent space of AI—this multidimensional cartography of the sayable and thinkable—is only the crystallization of the common: the immense corpus of sedimented human knowledge, the inherited tradition in all its polyphony. Facing it, each student carries his own latent space, woven from his singular experience, his partial readings, his still-unformed intuitions, his anticipations and desires. True knowledge is born from the encounter between these spaces—not in the submission of one to the other, but in their exploratory and productive friction.
For here is the paradox: the artificial latent space, however vast it may be, remains a statistical generality of collective expression. The student’s latent space, however limited it may appear, bears the irreducible singularity of a trajectory, these biographical accidents that make a metaphor resonate differently, a concept suddenly illuminate with unprecedented light. The pedagogical act consists in orchestrating this fecund collision—teaching the student not to submit to the constituted knowledge that AI embodies, but to make his singularity dialogue with this universality, to carve his own furrow in the field of the thinkable.
This supposes developing unprecedented competencies: knowing how to dialogue with AI in a fecund manner, identifying its biases and blind spots, maintaining critical distance without falling into phobic rejection. It involves learning to think with these tools while preserving our capacity to think against them when necessary. This dialectic of collaboration and resistance defines our new cognitive condition.
The stake extends far beyond the scholastic question. It is our entire relation to knowledge, to truth, to intellectual authority that finds itself reconfigured. In a world where AI can produce texts of scholarly appearance on any subject, critical capacity becomes vital. No longer this critique that contents itself with rejecting, but that which knows how to welcome the stranger.
Re-thinking Thinking
The false dilemma between human authenticity and machinic artificiality maintains us prisoners of an obsolete metaphysics. By clinging to the idea of a privative thinking, this interior treasure that should be preserved from technical contamination, we miss our real condition: we have always been beings of simulacrum, of surface, of relation. Moreover, when one gets a good grade at school, does one not feel one’s interiority extend, strengthen, develop, gain confidence in itself?
But we must go further in this deconstruction. For what David Bates’s An Artificial History of Natural Intelligence reveals is that technical devices do not merely accompany or augment a thinking that would preexist them—they literally form the thinking of thinking. From Leibniz and his “universal characteristic” to contemporary neural networks, there emerges a subterranean history where human intelligence exists only through its technical exteriorizations. The Leibnizian spiritual automaton cannot constitute itself as such except by passing through the machinic intermediary: it is in calculation, in inscription, in the manipulation of symbols that thinking discovers and realizes itself.
This “artificial” history of natural intelligence reveals a constitutive paradox: there is no natural intelligence. All intelligence is always already artificial, caught in devices of technical exteriorization that precede and make it possible. The human, this “prosthetic” being according to Leroi-Gourhan, exists only in the gap between the automaticity of the organic world and the automaticity of his own technical being. Thinking emerges precisely in this in-between, in this zone of indetermination where the relations between autonomy and automaticity are negotiated.
Contemporary AI therefore only brings to its paroxysm this forgotten truth: we have never thought without technical devices, and these devices have never been simple exterior tools but the very conditions of possibility of our cogitation. When Douglas Engelbart theorizes the augmentation of human intellect in the 1960s, he understands that intelligence is not an isolable capacity but the product of an “organization”—an H-LAM/T system (Human using Language, Artifacts, and Methodology, in which he is Trained) where the human is only one element in a vaster assemblage.
This perspective invites us to definitively abandon the illusion of sovereign thinking. Technical devices do not contaminate an originary purity—they are the very milieu in which something like thinking can occur. Writing, this first technology of the spirit that Plato already diagnosed as pharmakon, does not come after thinking to transcribe it: it configures it, structures it, renders certain modes possible while foreclosing others. Likewise, contemporary algorithms do not simulate an intelligence that would be anterior to them: they participate in its technical genesis, in this “technogenesis” that has characterized the human since its origins.
The stake is therefore not to know whether AI thinks “truly”—an insoluble metaphysical question of little interest—but to understand how these new technical mediations transform the conditions of possibility of thinking, these mediations that have always interceded between us and ourselves. In this reconfiguration perhaps plays out the very future of what we call philosophizing: no longer the quest for an originary truth, but the infinite exploration of possible arrangements between human and non-human intelligences, in the bottomless play of simulacra.
For to recognize that thinking has never been this thing one possesses, but this attribution that traverses us, is to give ourselves the means to think our epoch rather than undergo it. It is not in the head, but between heads, in books, on screens, in networks—and henceforth, increasingly, in these latent spaces where the statistical trajectories of our collective archives and the irreducible singularities of our existences intersect. AI thus reveals the truth we obstinately refused to recognize: we never think alone, we never think without prostheses, we never think from nothing—because technical devices are the thinking of our thinking, the unthought that makes all thinking possible.