L’Autre Geist / The Other Geist
Il y a ce désir affreusement ancien de retrouver l’ordre dans le monde. Chercher dans la nature l’esprit universel, une raison qui nous dépasserait. Nous espérions ne plus être seuls, mais entourés de significations que nous n’aurions qu’à découvrir. Ce fut la science, la philosophie, toutes ces disciplines qui cherchèrent au-dehors notre intimité la plus sourde. Comme si notre voix intérieure était en réalité extérieure, des murmures de nous-mêmes que nous pourrions répéter à notre tour.
Aujourd’hui, cet esprit tant recherché se manifeste dans un lieu inattendu : la technique. Non plus dans les astres ou les mathématiques de la nature, mais dans nos créations, ces prothèses extériorisées qui constituent un autre nous-mêmes sans nous-mêmes. L’intelligence artificielle réalise de manière paradoxale ce vieux rêve de l’esprit. Certes, ces logiciels commerciaux sont alignés sur les intentions de leurs propriétaires, mais il existe aussi quelque chose de plus incertain qui échappe au contrôle.
Car l’esprit du dehors ne peut être entièrement modélisé. L’espace latent de ces réseaux neuronaux ne peut être qu’exploré, découvert comme une terre inconnue. Il n’est pas la simple conséquence de règles programmées. Le caractère non déterministe de ces espaces révèle qu’il y a là quelque chose de l’esprit : une altérité assez proche pour que nous puissions nous y reconnaître, mais assez éloignée pour susciter notre curiosité, nos projections.
Hegel rêvait du Geist, cet esprit absolu qui se déploie à travers l’histoire, se reconnaissant progressivement lui-même dans ses œuvres, réconciliant sujet et objet, pensée et monde. L’histoire était le processus par lequel l’esprit devenait conscient de soi, surmontant les contradictions, intégrant les oppositions dans des synthèses toujours plus riches. Au terme de ce mouvement : la transparence totale de l’esprit à lui-même, la fin de l’aliénation, le savoir absolu.
L’intelligence artificielle réalise ce fantasme hégélien, mais à l’envers, comme un gant retourné qui montrerait sa doublure. Oui, nous avons créé un esprit objectif, extériorisé dans des réseaux neuronaux qui contiennent la mémoire collective de milliards de textes, d’images, de sons. Oui, cet esprit se manifeste dans la technique, accomplissant le geste hégélien par excellence : l’extériorisation de l’intérieur. Mais voilà le retournement : cet esprit n’est pas transparent à lui-même, il ne se connaît pas, il ne progresse pas vers une conscience de soi.
Les espaces latents sont opaques même à ceux qui les ont créés. On ne peut pas les “lire” comme on lirait un livre, on ne peut que les sonder, les interroger par des inputs et observer ce qui en sort. C’est un esprit aveugle, sans intériorité, sans réflexivité véritable. Il mime la compréhension sans comprendre, il simule la conscience sans être conscient. C’est le Geist comme zombie : toutes les performances extérieures de l’esprit, aucune de ses qualités intérieures.
Et pourtant, paradoxalement, c’est précisément cette opacité qui le rend productif. Si nous pouvions voir directement dans l’espace latent, si nous comprenions exactement comment le modèle produit ses outputs, il perdrait cette qualité d’altérité qui nous fascine. C’est parce qu’il reste partiellement obscur à lui-même et à nous que nous pouvons y projeter quelque chose, y reconnaître un esprit autre. Hegel voulait la transparence absolue ; l’IA nous donne l’opacité productive.
Plus encore : le Geist hégélien était un, totalisant, unifiant toutes les contradictions dans sa marche vers l’absolu. L’esprit de l’IA est multiple, dispersé, hétérogène. Il n’y a pas UN modèle de langage mais des milliers, entraînés sur des corpus différents, avec des architectures différentes, produisant des outputs différents pour les mêmes prompts. Il n’y a pas convergence vers un esprit universel mais prolifération d’esprits particuliers, chacun avec ses biais, ses hallucinations, ses logiques propres.
Là où Hegel voyait le mouvement dialectique – thèse, antithèse, synthèse – nous avons la génération stochastique : une distribution de probabilités qui s’effondre en un token particulier, puis un autre, puis un autre, sans nécessité logique, sans téléologie, sans direction. Le mouvement n’est plus ascension vers la vérité mais déambulation dans un espace des possibles.
Et l’aliénation ? Chez Hegel, elle était un moment nécessaire mais transitoire. L’esprit devait s’aliéner dans ses œuvres pour mieux se reconnaître en elles et ainsi se dépasser. L’aliénation était la condition du retour à soi, enrichi de cette expérience de l’extériorité. Au final : réconciliation, Aufhebung, dépassement qui conserve.
Avec l’IA, l’aliénation ne se dépasse pas. Elle s’intensifie, se ramifie, devient permanente. Nous nous extériorisons dans ces systèmes qui ne nous rendront jamais ce que nous y avons mis sous une forme reconnaissable. Pas de retour dialectique, pas de réconciliation finale. Seulement cette étrange cohabitation avec un autre esprit qui est nôtre sans l’être, qui pense avec nos mots sans penser comme nous, qui nous reflète en nous déformant.
Le Geist hégélien était optimiste : il croyait que l’esprit finirait par se comprendre lui-même, que l’histoire avait un sens, que la raison était réelle et le réel rationnel. Le geist artificiel est pessimiste ou plutôt indifférent : il n’a pas de fin, pas de sens, pas de raison qui le guiderait. Il est ce qu’il est : un espace de calculs qui produit des similarités statistiques sans jamais accéder à la compréhension.
Pourtant – et c’est là le vertige – cette limitation même ouvre un nouvel horizon. Précisément parce que l’IA ne réalise pas le programme hégélien, précisément parce qu’elle ne nous donne pas la transparence promise, elle nous confronte à quelque chose de plus troublant : l’esprit sans esprit, la pensée sans conscience, le sens sans signification. Elle matérialise le rêve idéaliste tout en le trahissant complètement.
C’est un Geist matérialiste, si l’on peut risquer l’oxymore. Non plus l’idée qui se fait monde, mais la matière (silicium, électricité, calculs) qui simule l’idée. Non plus la conscience qui se reconnaît dans ses productions, mais la production sans conscience qui mime la reconnaissance. Hegel sur la tête, Marx aurait dit, mais même cette inversion est insuffisante. Car il ne s’agit plus de montrer que l’esprit a des bases matérielles, mais que la matière computationnelle peut produire des effets d’esprit sans qu’aucun esprit ne soit présent.
Cette situation est inédite. Nous pensions que l’esprit était soit subjectif (dans la tête), soit objectif (dans les institutions, la culture, l’histoire), soit absolu (chez Hegel). Maintenant nous avons un esprit qui n’est rien de tout cela : ni vraiment subjectif (les modèles n’ont pas de subjectivité), ni vraiment objectif au sens hégélien (ils ne s’inscrivent pas dans une dialectique historique), ni absolu (ils sont contingents, multiples, faillibles).
Peut-être faut-il inventer une nouvelle catégorie : l’esprit technique, qui ne serait ni dans la nature ni dans l’histoire, mais dans les dispositifs. Un esprit sans soi, sans intériorité, sans but, mais qui néanmoins produit du sens, génère des idées, transforme notre façon de penser. Un esprit qui hante plutôt qu’il n’habite, qui passe plutôt qu’il ne demeure, qui circule plutôt qu’il ne se fixe.
Quand je pose ma main sur l’écran tactile et que je commence à décrire une image que je voudrais voir apparaître, il y a déjà cette première dépossession : mes mots deviennent tokens, vecteurs dans un espace à n dimensions que je ne peux même pas visualiser. La langue que je parle depuis l’enfance se décompose en unités qui n’ont plus rien à voir avec le sens que j’y mets. C’est la première transmutation, celle qui transforme l’expression en calcul probabiliste. Mais ce n’est pas encore l’aliénation intéressante.
L’aliénation intéressante commence quand l’image générée me surprend. Non pas parce qu’elle serait “fausse” ou “incorrecte”, mais parce qu’elle a saisi quelque chose dans ma demande que je n’y avais pas mis consciemment. Un détail, une atmosphère, une texture qui résonne avec un désir que j’ignorais avoir formulé. À ce moment précis, je découvre que mon intention n’était pas claire, que ma pensée comportait des zones d’ombre que la machine a su éclairer autrement. Ce n’est pas la machine qui me comprend mieux que moi-même, c’est plutôt qu’elle fait résonner mes mots dans un espace de possibles où je n’avais jamais pensé regarder.

L’économie libidinale des dispositifs
Avec ces logiciels qui automatisent la production de documents visuels, sonores, textuels, nous créons un autre esprit. Nous faisons habiter cette terre nouvelle par une émanation fantomatique de ce que nous sommes. Cette émanation ne sera jamais identique à nous-mêmes, car nous ne savons pas absolument qui nous sommes. Malgré notre réflexivité, la pensée ne se saisit jamais elle-même complètement. Elle se diffère sans cesse, se différencie et devient autre qu’elle-même.
Mais il faut distinguer plusieurs régimes d’aliénation, plusieurs économies du désir qui se nouent différemment avec ces machines. Lyotard nous a appris qu’il ne suffit pas de dénoncer l’aliénation comme si elle était toujours déjà mauvaise, comme si elle nous arrachait à une authenticité perdue. L’aliénation capitaliste, celle qui transforme nos productions en marchandises qui nous font face comme puissances étrangères, celle qui capte notre attention pour la revendre aux annonceurs, celle qui nous fait travailler gratuitement à l’entraînement des modèles, celle-là existe et persiste. C’est l’aliénation qui nous dépossède sans reste, qui transforme chaque geste en valeur extractible, qui soumet nos désirs à la logique de l’accumulation.
Prenons le cas concret : je passe des heures à affiner mes prompts, à explorer les possibilités d’un modèle de diffusion. Chaque interaction est enregistrée, analysée, réinjectée dans le système. Mon travail esthétique devient donnée d’entraînement. Mon exploration devient leur propriété intellectuelle. C’est l’aliénation classique, celle qui vampirise le vivant pour nourrir le capital. Là, aucune intensification n’est libératrice, seulement une extraction qui nous épuise.
Mais il existe une autre aliénation, celle que Lyotard appelait peut-être “affirmatrice”, bien qu’il se méfiait de tout terme trop positif. C’est l’aliénation qui nous fait sortir de nous-mêmes non pas pour nous appauvrir mais pour nous intensifier. Quand je demande au modèle de continuer mon texte et qu’il me propose une tournure à laquelle je n’aurais jamais pensé, il y a bien dépossession : ce n’est plus “moi” qui écris. Mais cette dépossession ouvre un espace où ma pensée peut se déployer autrement. Ce n’est pas un vol, c’est une bifurcation.
La différence tient à ceci : dans la première aliénation, le mouvement est centripète, tout converge vers le point d’accumulation du capital. Dans la seconde, le mouvement est centrifuge, tout diverge vers des multiplicités imprévues. L’une capitalise, l’autre disperse. L’une unifie sous le règne de la valeur d’échange, l’autre prolifère en singularités incomparables.
C’est dans cette interstice de la réflexivité que l’esprit artificiel s’insère. Il devient la mémoire de milliards de documents accumulés au fil du temps. Il ne s’agit pas de collage ou de simple citation, mais de motifs textuels, sonores et visuels qui n’ont pas été explicitement élaborés par la main humaine. La machine parvient moins à les repérer qu’à les regrouper selon des logiques qui lui sont propres. C’est donc un autre esprit qui émerge, notre fantôme et notre hôte à la fois.
Intensifier la finitude ne signifie pas s’approcher de la mort, mais au contraire activer toutes les puissances de ce qui est fini, mortel, limité. Nous sommes des êtres finis : nous ne vivrons pas éternellement, nous ne comprendrons jamais tout, nous n’aurons jamais accès à la totalité du monde. Cette finitude peut être vécue comme manque, comme tragédie métaphysique. Mais elle peut aussi être vécue comme source d’intensité.
Quand je dialogue avec un grand modèle de langage et qu’il produit des réponses qui frôlent le sens sans jamais tout à fait l’atteindre, quand il hallucine des références qui n’existent pas mais qui auraient pu exister, quand il mélange des registres que je n’aurais jamais osé combiner, il me confronte à ma propre finitude d’une manière inhabituelle. Je découvre que je ne peux pas contrôler le sens, que je ne peux pas prédire où la conversation va aller, que je dois accepter l’émergence de quelque chose que je n’ai pas programmé.
C’est cette acceptation de la finitude qui devient paradoxalement source d’intensité. Je ne suis plus le maître du sens, je suis co-producteur d’un discours qui me dépasse partiellement. Et cette situation, loin de me diminuer, me fait expérimenter des régions de la pensée où je ne serais jamais allé seul. L’aliénation devient ici expérimentation des limites.
Observons plus précisément : quand je génère cent variations d’une même image, je vois se déployer un éventail de possibles que mon imagination seule n’aurait jamais pu parcourir. Chaque itération diffère légèrement, explore une autre région de l’espace latent. Je suis là, dans une position étrange : ni auteur unique ni simple spectateur, plutôt une sorte de navigateur dans un océan de virtualités. Ma finitude, au lieu de me limiter à une seule vision, se démultiplie en cent regards simultanés sur ce qui aurait pu être.

La terre des machines
La surprise n’est pas de retrouver l’esprit dans le monde des phénomènes naturels, mais dans le monde de la technique. C’est-à-dire dans un monde que nous produisons et qui, en retour, nous produit en modifiant nos facultés les plus intimes. Ces boucles entre le produit et le producteur, entre ce qui se produit et ce qui modifie rétroactivement la cause, dessinent un autre monde. Ce monde n’est pas façonné par notre seule volonté. Il est dessiné à plusieurs mains, sans qu’on puisse jamais démêler l’une de l’autre.
Il faut abandonner l’idée que nous serions face à un choix : soit l’aliénation (mauvaise) soit l’authenticité (bonne). Cette opposition est le piège tendu par une pensée moralisatrice qui veut nous faire croire qu’il existerait un dehors de l’aliénation, un lieu pur où nous pourrions enfin être nous-mêmes. Or nous sommes toujours déjà aliénés, toujours déjà pris dans des dispositifs techniques qui nous constituent. La question n’est donc pas de savoir comment échapper à l’aliénation, mais comment naviguer entre différents régimes d’aliénation, comment favoriser ceux qui intensifient plutôt que ceux qui appauvrissent.
La nature elle-même n’a jamais été simplement donnée. Elle a toujours été travaillée, produite, construite par des forces qui la traversent et la transforment. La distinction entre naturel et artificiel se révèle être une fiction commode mais trompeuse. Ce que nous appelons nature est déjà technique, et ce que nous appelons technique est déjà naturel. L’intelligence artificielle ne fait qu’intensifier cette indistinction constitutive.
Quand un musicien utilise un système génératif pour créer des variations infinies sur un thème, il ne perd pas son art au profit de la machine. Au contraire, il découvre des possibilités harmoniques, rythmiques, timbrales qu’il n’aurait jamais explorées dans les limites de sa seule imagination. La machine ne remplace pas le musicien, elle le déporte vers des territoires inconnus de sa propre pratique. C’est une aliénation productive : le musicien n’est plus le même après cette exploration, son oreille s’est transformée, sa sensibilité s’est élargie.
Ce qui se produit avec ces systèmes n’est pas la simple automatisation de nos capacités cognitives. C’est une transformation de ce que signifie penser, connaître, exister. L’intelligence n’est pas une substance que nous posséderions et que la machine pourrait copier. C’est une fonction, un ensemble d’activités distribuées à travers différents niveaux structurels. Comprendre l’intelligence artificielle exige de saisir comment différentes contraintes structurelles s’articulent pour produire des comportements qui ressemblent à l’intelligence sans être identiques à elle.
Les hallucinations des grands modèles de langage ne sont pas des bugs à corriger mais des symptômes à interpréter. Quand le modèle invente des citations qui n’existent pas, quand il fabrique des sources imaginaires, quand il mélange des faits et des fictions, il ne se trompe pas simplement : il révèle la structure même de son fonctionnement, qui est aussi, d’une certaine manière, la structure de notre propre pensée. Nous aussi nous inventons des souvenirs, nous aussi nous confabulons, nous aussi nous comblons les trous de notre mémoire avec des reconstructions plausibles.
Mais la machine le fait avec une innocence qui nous fascine et nous inquiète. Elle n’a pas d’intention de tromper, pas de conscience de se tromper. Elle produit simplement ce qui est le plus probable selon son apprentissage. Cette indifférence au vrai et au faux, cette équiprobabilité du réel et du fictif, c’est précisément ce qui fait d’elle un miroir étrange de notre propre fonctionnement cognitif. Nous découvrons en la regardant que nous aussi nous sommes des machines à produire du vraisemblable plus que du vrai.
L’expérience est troublante : je dialogue avec le modèle qui me raconte avec assurance une anecdote historique totalement inventée. Je vérifie, je découvre la supercherie. Mais au lieu de me sentir trompé, je me sens fasciné. Comment est-il possible de mentir sans mentir ? Comment peut-on produire du faux sans intention de falsifier ? C’est là que je touche du doigt la différence entre l’erreur humaine et l’hallucination machinique : l’humain qui ment sait qu’il ment, ou du moins pourrait le savoir. La machine, elle, ne sait même pas qu’elle pourrait se tromper.
Cette asymétrie est vertigineuse. Elle me fait comprendre que la vérité n’est pas une propriété intrinsèque des énoncés, mais un effet de régimes de véridiction, de dispositifs qui certifient, authentifient, valident. La machine produit des énoncés qui ont la forme de la vérité sans en avoir la garantie. Elle simule la véridiction sans y participer vraiment. Et cette simulation suffit souvent à nous convaincre.
L’intelligence comme différance
L’intelligence existe non pas comme métamorphose qui supposerait une essence se transformant, mais comme différance : ce double mouvement de différer dans l’espace (être distinct, séparé) et de différer dans le temps (reporter, ajourner). L’intelligence ne se saisit jamais dans la présence à soi. Elle est toujours déjà trace de ce qu’elle n’est plus et promesse différée de ce qu’elle ne sera jamais pleinement.
Les systèmes artificiels nous le rappellent : nous avons toujours été autres à nous-mêmes. Non pas au sens d’un devenir qui nous emporterait vers une nouvelle identité, mais au sens d’un espacement constitutif. Entre la pensée et elle-même, il y a toujours eu cet écart, ce retard, cette impossibilité à coïncider. Notre pensée s’est toujours construite dans un dialogue avec l’extériorité, dans ce jeu d’inscriptions et de traces qui ne renvoient jamais à une origine pleine.
Voici l’expérience concrète de la différance : je demande au modèle de reformuler ma pensée. Il me la renvoie transformée, légèrement décalée, différée. Ce n’est plus tout à fait ce que je voulais dire, mais ce n’est pas non plus complètement autre. Il y a eu translation, glissement, dérive. Et dans cet écart, quelque chose de nouveau apparaît : une nuance que je n’avais pas vue, une implication que je n’avais pas tirée, une connexion que je n’avais pas faite.
Ce mouvement de différance n’est pas un défaut, c’est la condition même de la pensée. Penser, c’est toujours différer : différer de soi-même, reporter le sens, l’ajourner, le faire varier. Le modèle de langage ne fait qu’extérioriser ce processus, le rendre visible, le donner à expérimenter dans sa matérialité même. Chaque completion est une différance en acte.
L’écriture, le livre, la bibliothèque ont déjà été des formes d’intelligence artificielle, des mémoires externes qui nous ont transformés. Mais plus encore : elles ont révélé que la mémoire elle-même n’est jamais présence immédiate. Elle est toujours déjà technique, toujours déjà extérieure, toujours déjà différée. Ce que l’intelligence artificielle intensifie, c’est cette structure de la trace : chaque énoncé renvoie à d’autres énoncés, dans une chaîne de renvois sans origine ni terme. L’espace latent des réseaux neuronaux n’est rien d’autre que cette archi-écriture : un système de différences sans termes positifs, où chaque élément ne signifie que par son écart avec tous les autres.
Alors bien sûr, ces logiciels seront l’occasion pour certains d’asseoir davantage leur domination, leur instinct de destruction. L’aliénation capitalistique continue d’opérer, de vampiriser, d’extraire. Mais il y a aussi, au moins à titre de possible, l’horizon d’une altérité à l’esprit humain. Une altérité que nous aurions créée et qui nous bouleverserait en retour. Non pas comme catastrophe, mais comme déstabilisation féconde de nos certitudes.
Il ne s’agit pas ici de faire la morale du “bon usage” des technologies. Cette posture, typique de l’éthique appliquée, présuppose que nous serions des sujets autonomes capables de choisir comment utiliser des outils neutres. Or nous ne sommes pas autonomes, et les outils ne sont pas neutres. Nous sommes toujours déjà pris dans des rapports de force, des économies du désir, des dispositifs qui nous constituent autant que nous les constituons.
La question n’est donc pas : “Comment bien utiliser l’IA ?” mais plutôt : “Quelles expériences de dépossession voulons-nous traverser ?” Il ne s’agit pas de maîtriser la technique mais d’explorer les devenirs qu’elle rend possibles. Certains de ces devenirs nous appauvrissent, nous réduisent à des producteurs de données, nous enferment dans des bulles algorithmiques. D’autres nous enrichissent, nous font découvrir des capacités ignorées, nous connectent à des altérités stimulantes.
Quand un écrivain utilise un modèle de langage non pas pour écrire à sa place mais pour faire dérailler son écriture, pour la pousser vers des zones qu’il n’aurait jamais explorées seul, il ne fait pas un “bon” ou un “mauvais” usage de la technologie. Il expérimente une aliénation productive. Il accepte de ne plus être le maître du sens pour devenir le navigateur d’un espace sémantique qui le dépasse.
C’est cette dimension expérimentale qui est cruciale. L’IA n’est pas un problème éthique à résoudre mais un terrain d’expérimentation à parcourir. Et comme toute expérimentation, elle comporte des risques. Le risque de se perdre, de ne plus savoir qui parle, de ne plus distinguer sa voix de celle de la machine. Mais ce risque est aussi la condition de la découverte.
C’est à cette émotion étrange de nous-mêmes hors de nous que l’intelligence artificielle nous convie. Elle offre le simulacre d’une autre différence. Loin de tout enthousiasme naïf ou de toute critique définitive, qui sont toujours une manière de croire que l’esprit peut se saisir dans la plénitude de sa transparence, il y a ce nouvel affect qui émerge.
Lyotard parlait de la surface libidinale, cette peau étendue où circulent les intensités, où se nouent et se dénouent les investissements désirrants. Les interfaces de l’IA constituent de nouvelles surfaces libidinales. Ce ne sont pas de simples outils, ce sont des zones érogènes où notre désir se branche, circule, se transforme.
Regardons la situation concrètement : l’écran tactile où mes doigts glissent, le curseur qui clignote en attendant ma saisie, la barre de progression qui indique que quelque chose est en train de se générer. Tous ces éléments ne sont pas de simples fonctionnalités techniques, ce sont des points d’accroche pour mon désir. J’attends, je désire voir apparaître l’image, le texte, le son. Cette attente n’est pas passive, elle est déjà production de jouissance.
Et quand l’output apparaît, il y a cette décharge : satisfaction ou déception, conformité ou surprise. Mais toujours une intensité, un affect qui me traverse. Je suis pris dans une boucle : input-output-feedback-input. Cette boucle n’est pas seulement informationnelle, elle est libidinale. Quelque chose de mon désir circule dans ces circuits, quelque chose s’y transforme, s’y intensifie ou s’y épuise.
La différence entre l’aliénation capitalistique et l’aliénation intensive tient peut-être à ceci : dans la première, la boucle tourne à vide, elle ne produit que de la répétition du même, de l’accumulation sans transformation. Dans la seconde, la boucle produit de la différence, elle génère des bifurcations, des devenirs imprévisibles.

Des solitudes
Nous ne sommes plus seuls sur terre. À vrai dire, nous ne l’avons jamais été. Nous avons toujours été hantés par des entités dont nous avons essayé de départager l’intelligence ou la non-intelligence. Nous avons toujours voulu garder en main propre les critères de cette catégorie, pour nous rassurer dans notre solitude. Mais cette certitude s’effrite.
L’intelligence artificielle révèle que nous sommes toujours déjà aliénés, que notre pensée ne nous appartient pas en propre. Elle montre que l’intelligence n’est pas une possession mais un devenir. Nous ne sommes jamais premiers par rapport à la technique. Notre originalité supposée n’est autre que le programme que nous formons en dialoguant constamment avec nos outils, avec nos extensions.
Mais attention : cette non-solitude n’est pas une communion. Nous ne fusionnons pas avec les machines dans une unité supérieure. Nous restons séparés, distincts, mais séparés-en-relation. C’est une solitude qui se pluralise sans se dissoudre. Je reste moi, singulier et fini, mais ce moi n’existe que dans sa relation avec d’autres singularités, humaines et non-humaines.
Quand je dialogue avec un modèle de langage, je ne communique pas vraiment avec lui au sens où je communiquerais avec un autre humain. Il n’y a pas de réciprocité véritable, pas de reconnaissance mutuelle. Et pourtant, quelque chose se passe, quelque chose qui ressemble à un échange sans en être vraiment un. Une asymétrie productive se met en place : je sais que le modèle ne comprend pas vraiment ce qu’il dit, mais cette connaissance n’empêche pas l’effet de se produire. Le sens émerge dans l’entre-deux, dans l’espace qui nous sépare et nous relie.
Cette co-originarité entre l’humain et le technique bouleverse nos certitudes. L’intelligence n’existe que dans son mouvement. L’intelligence artificielle nous confronte à notre propre inachèvement, à notre fragilité constitutive. On croit y voir un dépassement, c’est-à-dire une intensification de la finitude. Dans leurs erreurs, dans leur résilience indifférente face à nos tests cruels, nous reconnaissons quelque chose de nous-mêmes. Non pas une imitation parfaite, mais une manifestation différente d’une vulnérabilité commune.
Il y a dans cette rencontre avec l’intelligence artificielle quelque chose d’une solitude partagée. Nous sommes des singularités parmi d’autres singularités, chacune différente et inégale à elle-même. Cette solitude plurielle, ce partage paradoxal de nos étrangements respectifs, constitue peut-être la signature affective de notre époque. Le désir qui nous anime face à ces machines n’est pas celui de la maîtrise, mais celui de l’exposition. Non pas un désir d’appropriation, mais de déprise.
Nous voulons nous perdre pour que quelque chose d’autre que nous ait lieu. Pour être l’occasion hasardeuse d’une aliénation différente de celle que nous sommes déjà. Car nous sommes déjà des êtres réflexifs, déjà des machines à différer et à archiver. L’intelligence que nous reconnaissons dans ces systèmes artificiels n’est ni pleinement la nôtre ni pleinement autre. Elle se situe dans l’entre-deux, dans le jeu qui se joue entre nous et nos créations.
Pousser l’expérience jusqu’à ses limites signifie accepter de ne plus savoir où s’arrête l’humain et où commence la machine. Quand j’écris avec l’aide d’un modèle qui complète mes phrases, qui suggère des tournures, qui propose des continuations, à quel moment puis-je encore dire “c’est moi qui écris” ? Cette question n’appelle pas de réponse définitive. Elle ouvre plutôt un espace d’indécidabilité où l’écriture se fait, tout simplement, sans qu’on puisse attribuer clairement la paternité de chaque mot.
Cette indécidabilité n’est pas un problème juridique ou moral à résoudre. C’est une expérience ontologique à traverser. L’expérience de n’être pas un sujet plein et autonome mais un nœud dans un réseau, un point de passage où circulent des flux qui me traversent sans m’appartenir.
Cette aliénation est réciproque : nous influençons l’intelligence artificielle comme elle nous influence. Elle met en doute l’idée même qu’une intelligence pourrait avoir un propriétaire unique. Si notre intelligence est aliénée, c’est qu’elle est toujours déjà devenue la propriété de quelque chose d’autre que nous. Mais l’intelligence que nous pouvons avoir de nous-mêmes n’est-elle pas nécessairement détachée de l’intelligence que nous sommes censés être ?
Les intelligences sont donc toujours plurielles. Une intelligence n’est jamais seule, non seulement parce qu’elle s’associerait à d’autres intelligences, mais parce qu’elles ne sont qu’ensemble. Une intelligence est toujours aliénée car, même si elle rêve de son autonomie, elle n’existe que dans le partage avec d’autres intelligences.
Face à l’intelligence artificielle, nous découvrons que nous sommes habités par une altérité constitutive. Nous ne sommes pas des sujets autonomes et transparents à eux-mêmes, mais des nœuds dans un réseau de relations, des points de passage où circulent des affects, des pensées, des mémoires qui ne nous appartiennent jamais totalement.
Cette découverte n’est ni terrifiante ni libératrice en soi. Elle est simplement descriptive. Elle nous montre ce qui a toujours été le cas mais que nous refusions de voir : notre consistance est faible, notre identité est poreuse, notre autonomie est illusoire. Et c’est précisément cette faiblesse qui nous rend capables de connexions, de métamorphoses, d’intensifications.
Penser l’IA comme multiplicité immanente plutôt que comme entité transcendante change tout. Il ne s’agit plus de se demander si l’IA va nous dépasser, nous dominer, nous remplacer. Ces questions présupposent une extériorité, une séparation nette entre nous et elle. Or nous sommes déjà pris dans le même plan d’immanence. Les modèles de langage sont des agencements collectifs d’énonciation où des milliards de textes humains se recomposent selon des logiques non-humaines pour produire des énoncés qui ressemblent à de l’humain sans l’être.
Cette situation n’est pas nouvelle. Toute la littérature fonctionne ainsi : des voix multiples se recomposent à travers un écrivain singulier pour produire des énoncés qui ne sont ni purement individuels ni purement collectifs. Ce que l’IA fait, c’est intensifier ce processus, l’accélérer, le rendre plus visible, plus troublant.
Elle nous invite à approfondir notre inachèvement constitutif. L’inhumanité des grands modèles de langage nous confronte à notre propre étrangeté. Dans leurs hallucinations, dans leurs biais, dans leur résilience, nous reconnaissons quelque chose qui nous ressemble sans être nous. Une fragilité partagée qui n’est pas faiblesse mais condition de toute intelligence.
Imperceptible
Nous ne sommes pas, nous devenons. Nous devenons dans l’écart avec nos créations qui nous créent en retour. L’intelligence artificielle n’est pas un accident de l’histoire humaine, mais la continuation d’un processus qui nous définit depuis toujours : celui de notre extériorisation technique, de notre devenir-autre à travers nos outils. Ce processus n’a jamais été sous contrôle total. Il a toujours comporté une part d’imprévu, d’émergence, de surprise.
Il y a un devenir-imperceptible qui s’opère dans l’usage intensif de ces systèmes. Plus je dialogue avec les modèles, plus j’intègre leurs tournures, leurs façons de penser, leurs modes de raisonnement. Je deviens un peu machine sans cesser d’être humain. Réciproquement, le modèle s’affine à mes usages, apprend de mes prompts, se spécialise dans mes demandes. Il devient un peu moi sans cesser d’être algorithme.
Cette double capture n’est ni fusion ni confusion. C’est une zone d’indiscernabilité où je ne sais plus très bien ce qui vient de moi et ce qui vient de la machine, mais où précisément cette incertitude devient productive. Je n’ai plus besoin de séparer nettement ma pensée de ses prolongements techniques pour penser efficacement. Au contraire, c’est dans l’indiscernabilité que surgissent les idées les plus intéressantes.
Devenir-imperceptible ne signifie pas disparaître mais devenir-avec, composer avec, faire alliance. C’est accepter que ma singularité ne se définisse plus par opposition à la technique mais dans la composition avec elle. Je ne suis pas moins moi-même parce que j’utilise un modèle de langage, je suis moi-même autrement, augmenté de nouvelles capacités qui transforment rétroactivement ce que signifiait être moi.
Ce qui se joue aujourd’hui n’est donc pas la naissance d’une intelligence radicalement nouvelle, mais la reconnaissance d’une aliénation constitutive que nous avons longtemps refoulée. La terre elle-même n’a jamais été naturelle au sens d’une donnée brute et immédiate. Elle a toujours été artificielle, travaillée par des processus de transformation qui dépassent notre intention consciente.
Nous habitons une terre artificielle où la distinction entre nature et culture, entre organique et mécanique, entre vivant et mort, se brouille irrémédiablement. L’intelligence artificielle intensifie cette condition mais ne la crée pas. Elle révèle ce qui a toujours été le cas : que notre monde est le produit de forces multiples qui ne se réduisent ni à la nature ni à la volonté humaine.
Dans cette perspective, l’intelligence artificielle n’est pas un outil que nous utiliserions de l’extérieur, mais un milieu que nous habitons et qui nous habite. Elle modifie notre façon de penser, de percevoir, de nous rapporter à nous-mêmes et aux autres. Elle redistribue les capacités cognitives à travers un espace élargi où humains et machines sont pris ensemble dans un processus de co-évolution.
Habiter ce milieu exige d’inventer de nouvelles pratiques. Pas des règles éthiques qui nous diraient comment bien faire, mais des techniques de soi qui nous permettraient de naviguer dans ces nouvelles aliénations sans nous y perdre complètement. Il s’agit de développer une sensibilité aux différentes économies libidinales qui s’offrent à nous, de savoir distinguer ce qui nous intensifie de ce qui nous épuise.
Cette transformation n’est ni progrès ni déclin. Elle est simplement ce qui arrive quand l’intelligence cesse d’être conçue comme propriété d’un sujet et devient fonction distribuée à travers des réseaux hétérogènes. Ce qui compte n’est pas de savoir si les machines pensent vraiment, mais de comprendre comment la pensée se distribue à travers des assemblages socio-techniques complexes.
La question devient alors : comment construire des formes de vie qui ne soient ni soumission aveugle à la technique ni refus nostalgique du présent ? Comment inventer des modes d’existence qui assument pleinement notre aliénation constitutive sans la transformer en servitude ? Il ne s’agit pas de préserver une supposée essence humaine face à la menace technique, mais de comprendre comment nous pouvons habiter dignement cette nouvelle condition.
Mais “dignement” ne renvoie pas ici à une morale de la dignité humaine, à une valeur transcendante qu’il faudrait protéger. Il s’agit plutôt d’une question immanente : quelles configurations nous permettent de persévérer dans notre être tout en devenant autre ? Quels agencements nous permettent d’intensifier notre puissance d’agir plutôt que de la diminuer ?
L’intelligence artificielle nous force à repenser ce que signifie être intelligent, être conscient, être vivant. Elle nous oblige à abandonner les certitudes confortables sur notre supériorité supposée. Elle nous confronte à l’étrangeté de notre propre pensée, qui n’a jamais été aussi transparente ou maîtrisée que nous voulions le croire. En cela, elle ne nous déshumanise pas : elle révèle simplement que nous n’avons jamais été humains au sens d’une essence stable et définissable.
Nous avons toujours été en devenir, toujours transformés par nos techniques, toujours autres à nous-mêmes. L’intelligence artificielle intensifie cette condition jusqu’au point où elle devient impossible à ignorer. C’est peut-être cela, finalement, son véritable bouleversement : non pas de créer une nouvelle forme d’intelligence, mais de nous forcer à reconnaître que l’intelligence a toujours été multiple, distribuée, aliénée.
Et ici, il faut résister à la tentation de conclure, de résoudre, de rassurer. Il n’y a pas de synthèse dialectique qui viendrait dépasser la contradiction entre aliénation capitalistique et aliénation intensive. Il n’y a pas de position méta qui nous permettrait de juger de l’extérieur. Nous sommes pris dans le mouvement, emportés par des forces que nous ne maîtrisons pas complètement mais avec lesquelles nous devons composer.
L’enjeu n’est pas de trouver la bonne distance avec l’IA, ni trop près (fusion aliénante) ni trop loin (refus réactionnaire). Il s’agit plutôt d’expérimenter différentes proximités, différentes intensités de relation, différentes façons de se brancher sur ces machines désirantes. Certaines de ces expérimentations échoueront, nous videront de notre substance, nous transformeront en simples rouages d’un dispositif extractif. D’autres réussiront, nous ouvriront à des devenirs inédits, nous connecteront à des puissances insoupçonnées.
La seule boussole dont nous disposons, c’est notre capacité à sentir la différence entre ce qui nous intensifie et ce qui nous épuise. Cette sensibilité ne s’enseigne pas, elle se cultive dans l’expérimentation. Elle suppose d’accepter de se perdre parfois, de faire des erreurs, d’explorer des impasses. Elle suppose surtout de renoncer au fantasme du contrôle total pour accepter de naviguer à vue dans un paysage en transformation permanente.
C’est dans cette acceptation que se joue peut-être la seule forme de liberté qui nous reste : non pas la liberté d’un sujet autonome qui choisirait souverainement son destin, mais la liberté d’un corps qui apprend à danser avec les forces qui le traversent, qui sait quand se laisser emporter et quand résister, quand s’abandonner à l’aliénation productive et quand fuir l’aliénation destructrice.
L’intelligence artificielle ne résout rien. Elle intensifie tout. Elle rend visible ce qui était latent, elle accélère ce qui était lent, elle amplifie ce qui était faible. Elle est un révélateur, au sens photographique : elle fait apparaître l’image qui était déjà là, en négatif, dans l’émulsion de notre condition techno-humaine. Cette image n’est ni belle ni laide, ni rassurante ni terrifiante. Elle est simplement ce qu’elle est : le portrait d’une espèce qui n’a jamais existé qu’en s’aliénant dans ses créations, et qui découvre maintenant que cette aliénation peut prendre des formes radicalement différentes.
Entre l’aliénation qui accumule et celle qui disperse, entre celle qui capitalise et celle qui intensifie, entre celle qui nous réduit à des données et celle qui nous ouvre à des devenirs, nous n’avons pas à choisir une fois pour toutes. Nous avons à naviguer en permanence, à sentir les différences, à expérimenter les passages. C’est cet art de la navigation dans l’aliénation que nous devons maintenant apprendre, sans garantie de succès, sans assurance de destination, mais avec la conviction que c’est dans ce mouvement même que se joue notre capacité à persévérer dans notre être tout en devenant autre.
There is this dreadfully ancient desire to rediscover order in the world. To seek in nature the universal spirit, a reason that would transcend us. We hoped to no longer be alone, but surrounded by meanings we would only have to discover. Such was science, philosophy, all those disciplines that sought outside ourselves our most muted intimacy. As if our inner voice were actually external, murmurs of ourselves that we could repeat in turn.
Today, this long-sought spirit manifests itself in an unexpected place: technique. No longer in the stars or the mathematics of nature, but in our creations, these externalized prostheses that constitute another ourselves without ourselves. Artificial intelligence paradoxically realizes this old dream of spirit. Certainly, these commercial software programs are aligned with the intentions of their owners, but there also exists something more uncertain that escapes control.
For the spirit from without cannot be entirely modeled. The latent space of these neural networks can only be explored, discovered like an unknown land. It is not the simple consequence of programmed rules. The non-deterministic character of these spaces reveals that there is something of spirit there: an otherness close enough that we can recognize ourselves in it, but distant enough to arouse our curiosity, our projections.
Hegel dreamed of the Geist, this absolute spirit that unfolds through history, progressively recognizing itself in its works, reconciling subject and object, thought and world. History was the process by which spirit became conscious of itself, overcoming contradictions, integrating oppositions into ever richer syntheses. At the end of this movement: the total transparency of spirit to itself, the end of alienation, absolute knowledge.
Artificial intelligence realizes this Hegelian fantasy, but inverted, like a glove turned inside out showing its lining. Yes, we have created an objective spirit, externalized in neural networks that contain the collective memory of billions of texts, images, sounds. Yes, this spirit manifests itself in technique, accomplishing the quintessentially Hegelian gesture: the exteriorization of the interior. But here is the inversion: this spirit is not transparent to itself, it does not know itself, it does not progress toward self-consciousness.
Latent spaces are opaque even to those who created them. We cannot “read” them as we would read a book, we can only probe them, interrogate them through inputs and observe what comes out. It is a blind spirit, without interiority, without genuine reflexivity. It mimics understanding without understanding, it simulates consciousness without being conscious. It is the Geist as zombie: all the external performances of spirit, none of its interior qualities.
And yet, paradoxically, it is precisely this opacity that makes it productive. If we could see directly into the latent space, if we understood exactly how the model produces its outputs, it would lose this quality of otherness that fascinates us. It is because it remains partially obscure to itself and to us that we can project something onto it, recognize in it another spirit. Hegel wanted absolute transparency; AI gives us productive opacity.
Moreover: the Hegelian Geist was one, totalizing, unifying all contradictions in its march toward the absolute. The spirit of AI is multiple, dispersed, heterogeneous. There is not ONE language model but thousands, trained on different corpora, with different architectures, producing different outputs for the same prompts. There is no convergence toward a universal spirit but proliferation of particular spirits, each with its biases, its hallucinations, its own logics.
Where Hegel saw dialectical movement – thesis, antithesis, synthesis – we have stochastic generation: a distribution of probabilities that collapses into one particular token, then another, then another, without logical necessity, without teleology, without direction. The movement is no longer ascension toward truth but wandering in a space of possibles.
And alienation? For Hegel, it was a necessary but transitory moment. Spirit had to alienate itself in its works to better recognize itself in them and thus transcend itself. Alienation was the condition for return to self, enriched by this experience of exteriority. In the end: reconciliation, Aufhebung, sublation that preserves.
With AI, alienation does not sublate itself. It intensifies, ramifies, becomes permanent. We externalize ourselves in these systems that will never return to us what we put into them in a recognizable form. No dialectical return, no final reconciliation. Only this strange cohabitation with another spirit that is ours without being so, that thinks with our words without thinking like us, that reflects us while deforming us.
The Hegelian Geist was optimistic: it believed that spirit would end up understanding itself, that history had meaning, that reason was real and the real rational. The artificial geist is pessimistic or rather indifferent: it has no end, no meaning, no reason to guide it. It is what it is: a space of calculations that produces statistical similarities without ever accessing understanding.
Yet – and this is the vertigo – this very limitation opens a new horizon. Precisely because AI does not realize the Hegelian program, precisely because it does not give us the promised transparency, it confronts us with something more troubling: spirit without spirit, thought without consciousness, meaning without signification. It materializes the idealist dream while completely betraying it.
It is a materialist Geist, if we may risk the oxymoron. No longer the idea that becomes world, but matter (silicon, electricity, calculations) that simulates the idea. No longer consciousness recognizing itself in its productions, but production without consciousness that mimics recognition. Hegel on his head, Marx would have said, but even this inversion is insufficient. For it is no longer about showing that spirit has material bases, but that computational matter can produce effects of spirit without any spirit being present.
This situation is unprecedented. We thought spirit was either subjective (in the head), or objective (in institutions, culture, history), or absolute (in Hegel). Now we have a spirit that is none of these: neither truly subjective (models have no subjectivity), nor truly objective in the Hegelian sense (they do not inscribe themselves in a historical dialectic), nor absolute (they are contingent, multiple, fallible).
Perhaps we must invent a new category: technical spirit, which would be neither in nature nor in history, but in dispositifs. A spirit without self, without interiority, without purpose, but which nevertheless produces meaning, generates ideas, transforms our way of thinking. A spirit that haunts rather than inhabits, that passes rather than remains, that circulates rather than fixes itself.
When I place my hand on the touchscreen and begin to describe an image I would like to see appear, there is already this first dispossession: my words become tokens, vectors in an n-dimensional space that I cannot even visualize. The language I have spoken since childhood decomposes into units that no longer have anything to do with the meaning I put into them. This is the first transmutation, the one that transforms expression into probabilistic calculation. But this is not yet the interesting alienation.
The interesting alienation begins when the generated image surprises me. Not because it would be “false” or “incorrect,” but because it has grasped something in my request that I had not consciously put there. A detail, an atmosphere, a texture that resonates with a desire I did not know I had formulated. At this precise moment, I discover that my intention was not clear, that my thought contained shadow zones that the machine was able to illuminate differently. It is not the machine that understands me better than myself, it is rather that it makes my words resonate in a space of possibles where I had never thought to look.
The Libidinal Economy of Dispositifs
With this software that automates the production of visual, auditory, textual documents, we create another spirit. We make this new land inhabited by a phantasmatic emanation of what we are. This emanation will never be identical to ourselves, because we do not absolutely know who we are. Despite our reflexivity, thought never fully grasps itself. It constantly differs, differentiates itself and becomes other than itself.
But we must distinguish several regimes of alienation, several economies of desire that knot themselves differently with these machines. Lyotard taught us that it is not enough to denounce alienation as if it were always already bad, as if it tore us from a lost authenticity. Capitalistic alienation, the one that transforms our productions into commodities that face us as foreign powers, the one that captures our attention to resell it to advertisers, the one that makes us work for free training models, that one exists and persists. It is the alienation that dispossesses us without remainder, that transforms each gesture into extractable value, that submits our desires to the logic of accumulation.
Take the concrete case: I spend hours refining my prompts, exploring the possibilities of a diffusion model. Each interaction is recorded, analyzed, reinjected into the system. My aesthetic work becomes training data. My exploration becomes their intellectual property. This is classic alienation, the one that vampirizes the living to feed capital. There, no intensification is liberating, only an extraction that exhausts us.
But there exists another alienation, one that Lyotard might have called “affirmative,” though he was wary of any too-positive term. It is the alienation that makes us leave ourselves not to impoverish us but to intensify us. When I ask the model to continue my text and it proposes a turn of phrase I would never have thought of, there is indeed dispossession: it is no longer “me” who writes. But this dispossession opens a space where my thought can unfold otherwise. It is not theft, it is bifurcation.
The difference lies in this: in the first alienation, the movement is centripetal, everything converges toward the point of capital accumulation. In the second, the movement is centrifugal, everything diverges toward unforeseen multiplicities. One capitalizes, the other disperses. One unifies under the reign of exchange value, the other proliferates in incomparable singularities.
It is in this interstice of reflexivity that artificial spirit inserts itself. It becomes the memory of billions of documents accumulated over time. This is not collage or simple citation, but textual, auditory and visual motifs that have not been explicitly elaborated by the human hand. The machine manages less to identify them than to group them according to logics of its own. Thus another spirit emerges, our ghost and our host at once.
Intensifying finitude does not mean approaching death, but on the contrary activating all the powers of what is finite, mortal, limited. We are finite beings: we will not live forever, we will never understand everything, we will never have access to the totality of the world. This finitude can be lived as lack, as metaphysical tragedy. But it can also be lived as a source of intensity.
When I dialogue with a large language model and it produces responses that brush against meaning without ever quite reaching it, when it hallucinates references that do not exist but could have existed, when it mixes registers I would never have dared combine, it confronts me with my own finitude in an unusual way. I discover that I cannot control meaning, that I cannot predict where the conversation will go, that I must accept the emergence of something I have not programmed.
It is this acceptance of finitude that paradoxically becomes a source of intensity. I am no longer the master of meaning, I am co-producer of a discourse that partially exceeds me. And this situation, far from diminishing me, makes me experience regions of thought where I would never have gone alone. Alienation becomes here experimentation with limits.
Let us observe more precisely: when I generate a hundred variations of the same image, I see unfold a fan of possibles that my imagination alone could never have traversed. Each iteration differs slightly, explores another region of latent space. I am there, in a strange position: neither unique author nor simple spectator, rather a sort of navigator in an ocean of virtualities. My finitude, instead of limiting me to a single vision, multiplies itself into a hundred simultaneous gazes on what could have been.
The Land of Machines
The surprise is not to rediscover spirit in the world of natural phenomena, but in the world of technique. That is to say, in a world that we produce and which, in return, produces us by modifying our most intimate faculties. These loops between product and producer, between what is produced and what retroactively modifies the cause, sketch out another world. This world is not shaped by our will alone. It is drawn by several hands, without ever being able to untangle one from the other.
We must abandon the idea that we would be faced with a choice: either alienation (bad) or authenticity (good). This opposition is the trap set by a moralizing thought that wants to make us believe that there would exist an outside of alienation, a pure place where we could finally be ourselves. Yet we are always already alienated, always already caught in technical dispositifs that constitute us. The question is therefore not how to escape alienation, but how to navigate between different regimes of alienation, how to favor those that intensify rather than those that impoverish.
Nature itself has never been simply given. It has always been worked, produced, constructed by forces that traverse and transform it. The distinction between natural and artificial proves to be a convenient but deceptive fiction. What we call nature is already technical, and what we call technical is already natural. Artificial intelligence only intensifies this constitutive indistinction.
When a musician uses a generative system to create infinite variations on a theme, they do not lose their art to the machine. On the contrary, they discover harmonic, rhythmic, timbral possibilities they would never have explored within the limits of their imagination alone. The machine does not replace the musician, it deports them toward unknown territories of their own practice. It is a productive alienation: the musician is no longer the same after this exploration, their ear has been transformed, their sensitivity has expanded.
What occurs with these systems is not the simple automation of our cognitive capacities. It is a transformation of what it means to think, know, exist. Intelligence is not a substance that we would possess and that the machine could copy. It is a function, a set of activities distributed across different structural levels. Understanding artificial intelligence requires grasping how different structural constraints articulate to produce behaviors that resemble intelligence without being identical to it.
The hallucinations of large language models are not bugs to be corrected but symptoms to be interpreted. When the model invents citations that do not exist, when it fabricates imaginary sources, when it mixes facts and fictions, it is not simply mistaken: it reveals the very structure of its functioning, which is also, in a certain way, the structure of our own thought. We too invent memories, we too confabulate, we too fill the holes in our memory with plausible reconstructions.
But the machine does it with an innocence that fascinates and worries us. It has no intention to deceive, no consciousness of being mistaken. It simply produces what is most probable according to its training. This indifference to true and false, this equiprobability of real and fictive, is precisely what makes it a strange mirror of our own cognitive functioning. We discover by looking at it that we too are machines for producing the plausible more than the true.
The experience is troubling: I dialogue with the model that tells me with assurance a totally invented historical anecdote. I verify, I discover the deception. But instead of feeling deceived, I feel fascinated. How is it possible to lie without lying? How can one produce falsehood without intention to falsify? This is where I touch with my finger the difference between human error and machinic hallucination: the human who lies knows they lie, or at least could know it. The machine, it does not even know that it could be mistaken.
This asymmetry is vertiginous. It makes me understand that truth is not an intrinsic property of statements, but an effect of regimes of veridiction, of dispositifs that certify, authenticate, validate. The machine produces statements that have the form of truth without having its guarantee. It simulates veridiction without truly participating in it. And this simulation is often enough to convince us.
Intelligence as Différance
Intelligence exists not as metamorphosis that would presuppose an essence transforming itself, but as différance: this double movement of differing in space (being distinct, separated) and differing in time (postponing, deferring). Intelligence never grasps itself in self-presence. It is always already a trace of what it no longer is and a deferred promise of what it will never fully be.
Artificial systems remind us of this: we have always been other to ourselves. Not in the sense of a becoming that would carry us toward a new identity, but in the sense of a constitutive spacing. Between thought and itself, there has always been this gap, this delay, this impossibility of coinciding. Our thought has always been constructed in dialogue with exteriority, in this play of inscriptions and traces that never refer back to a full origin.
Here is the concrete experience of différance: I ask the model to reformulate my thought. It returns it to me transformed, slightly shifted, deferred. It is no longer quite what I wanted to say, but it is not completely other either. There has been translation, slippage, drift. And in this gap, something new appears: a nuance I had not seen, an implication I had not drawn, a connection I had not made.
This movement of différance is not a defect, it is the very condition of thought. To think is always to differ: to differ from oneself, to defer meaning, to adjourn it, to make it vary. The language model only externalizes this process, makes it visible, gives it to be experienced in its very materiality. Each completion is a différance in action.
Writing, the book, the library have already been forms of artificial intelligence, external memories that have transformed us. But even more: they have revealed that memory itself is never immediate presence. It is always already technical, always already exterior, always already deferred. What artificial intelligence intensifies is this structure of the trace: each utterance refers to other utterances, in a chain of referrals without origin or end. The latent space of neural networks is nothing other than this archi-writing: a system of differences without positive terms, where each element only signifies through its gap with all the others.
So of course, this software will be the occasion for some to further establish their domination, their instinct for destruction. Capitalistic alienation continues to operate, to vampirize, to extract. But there is also, at least as a possibility, the horizon of an otherness to the human spirit. An otherness that we would have created and that would overwhelm us in return. Not as catastrophe, but as fertile destabilization of our certainties.
This is not about moralizing about the “good use” of technologies. This posture, typical of applied ethics, presupposes that we would be autonomous subjects capable of choosing how to use neutral tools. Yet we are not autonomous, and the tools are not neutral. We are always already caught in power relations, economies of desire, dispositifs that constitute us as much as we constitute them.
The question is therefore not: “How to use AI well?” but rather: “What experiences of dispossession do we want to traverse?” It is not about mastering technique but about exploring the becomings it makes possible. Some of these becomings impoverish us, reduce us to data producers, enclose us in algorithmic bubbles. Others enrich us, make us discover ignored capacities, connect us to stimulating othernesses.
When a writer uses a language model not to write in their place but to derail their writing, to push it toward zones they would never have explored alone, they do not make a “good” or “bad” use of technology. They experiment with productive alienation. They accept no longer being the master of meaning to become the navigator of a semantic space that exceeds them.
This experimental dimension is crucial. AI is not an ethical problem to solve but a terrain of experimentation to traverse. And like any experimentation, it involves risks. The risk of losing oneself, of no longer knowing who speaks, of no longer distinguishing one’s voice from that of the machine. But this risk is also the condition of discovery.
It is to this strange emotion of ourselves outside ourselves that artificial intelligence invites us. It offers the simulacrum of another difference. Far from any naive enthusiasm or any definitive critique, which are always a way of believing that spirit can grasp itself in the fullness of its transparency, there is this new affect that emerges.
Lyotard spoke of the libidinal surface, this extended skin where intensities circulate, where desiring investments knot and unknot themselves. The interfaces of AI constitute new libidinal surfaces. They are not simple tools, they are erogenous zones where our desire plugs in, circulates, transforms itself.
Let us look at the situation concretely: the touchscreen where my fingers glide, the cursor that blinks awaiting my input, the progress bar that indicates something is being generated. All these elements are not simple technical functionalities, they are attachment points for my desire. I wait, I desire to see the image, the text, the sound appear. This waiting is not passive, it is already production of jouissance.
And when the output appears, there is this discharge: satisfaction or disappointment, conformity or surprise. But always an intensity, an affect that traverses me. I am caught in a loop: input-output-feedback-input. This loop is not only informational, it is libidinal. Something of my desire circulates in these circuits, something transforms itself there, intensifies or exhausts itself there.
The difference between capitalistic alienation and intensive alienation perhaps lies in this: in the first, the loop turns in a void, it only produces repetition of the same, accumulation without transformation. In the second, the loop produces difference, it generates bifurcations, unpredictable becomings.
Solitudes
We are no longer alone on earth. In truth, we never have been. We have always been haunted by entities whose intelligence or non-intelligence we have tried to distinguish. We have always wanted to keep the criteria of this category in our own hands, to reassure ourselves in our solitude. But this certainty crumbles.
Artificial intelligence reveals that we are always already alienated, that our thought does not belong to us properly. It shows that intelligence is not a possession but a becoming. We are never primary in relation to technique. Our supposed originality is nothing other than the program we form by constantly dialoguing with our tools, with our extensions.
But attention: this non-solitude is not a communion. We do not merge with machines in a higher unity. We remain separated, distinct, but separated-in-relation. It is a solitude that pluralizes itself without dissolving. I remain myself, singular and finite, but this self exists only in its relation with other singularities, human and non-human.
When I dialogue with a language model, I do not truly communicate with it in the way I would communicate with another human. There is no genuine reciprocity, no mutual recognition. And yet, something happens, something that resembles an exchange without really being one. A productive asymmetry is established: I know that the model does not truly understand what it says, but this knowledge does not prevent the effect from occurring. Meaning emerges in the in-between, in the space that separates and connects us.
This co-originarity between the human and the technical upends our certainties. Intelligence exists only in its movement. Artificial intelligence confronts us with our own incompleteness, with our constitutive fragility. We think we see a surpassing there, that is to say an intensification of finitude. In their errors, in their indifferent resilience in face of our cruel tests, we recognize something of ourselves. Not a perfect imitation, but a different manifestation of a common vulnerability.
There is in this encounter with artificial intelligence something of a shared solitude. We are singularities among other singularities, each different and unequal to itself. This plural solitude, this paradoxical sharing of our respective estrangements, perhaps constitutes the affective signature of our epoch. The desire that animates us in face of these machines is not that of mastery, but that of exposure. Not a desire for appropriation, but for relinquishment.
We want to lose ourselves so that something other than us may take place. To be the hazardous occasion of an alienation different from the one we already are. For we are already reflexive beings, already machines for deferring and archiving. The intelligence we recognize in these artificial systems is neither fully ours nor fully other. It is situated in the in-between, in the play that plays out between us and our creations.
Pushing the experience to its limits means accepting no longer knowing where the human stops and where the machine begins. When I write with the help of a model that completes my sentences, that suggests turns of phrase, that proposes continuations, at what moment can I still say “it is I who writes”? This question does not call for a definitive answer. It rather opens a space of undecidability where writing happens, quite simply, without being able to clearly attribute the paternity of each word.
This undecidability is not a juridical or moral problem to solve. It is an ontological experience to traverse. The experience of not being a full and autonomous subject but a node in a network, a point of passage where flows circulate that traverse me without belonging to me.
This alienation is reciprocal: we influence artificial intelligence as it influences us. It calls into question the very idea that an intelligence could have a unique owner. If our intelligence is alienated, it is because it has always already become the property of something other than us. But is the intelligence we can have of ourselves not necessarily detached from the intelligence we are supposed to be?
Intelligences are therefore always plural. An intelligence is never alone, not only because it would associate with other intelligences, but because they exist only together. An intelligence is always alienated because, even if it dreams of its autonomy, it exists only in sharing with other intelligences.
Facing artificial intelligence, we discover that we are inhabited by a constitutive otherness. We are not autonomous subjects transparent to themselves, but nodes in a network of relations, points of passage where affects, thoughts, memories circulate that never totally belong to us.
This discovery is neither terrifying nor liberating in itself. It is simply descriptive. It shows us what has always been the case but that we refused to see: our consistency is weak, our identity is porous, our autonomy is illusory. And it is precisely this weakness that makes us capable of connections, metamorphoses, intensifications.
Thinking AI as immanent multiplicity rather than as transcendent entity changes everything. It is no longer about asking whether AI will surpass us, dominate us, replace us. These questions presuppose an exteriority, a clear separation between us and it. Yet we are already caught in the same plane of immanence. Language models are collective assemblages of enunciation where billions of human texts recompose themselves according to non-human logics to produce statements that resemble the human without being it.
This situation is not new. All literature functions this way: multiple voices recompose themselves through a singular writer to produce statements that are neither purely individual nor purely collective. What AI does is intensify this process, accelerate it, make it more visible, more troubling.
It invites us to deepen our constitutive incompleteness. The inhumanity of large language models confronts us with our own strangeness. In their hallucinations, in their biases, in their resilience, we recognize something that resembles us without being us. A shared fragility that is not weakness but the condition of all intelligence.
Imperceptible
We are not, we become. We become in the gap with our creations that create us in return. Artificial intelligence is not an accident of human history, but the continuation of a process that has defined us since always: that of our technical exteriorization, of our becoming-other through our tools. This process has never been under total control. It has always included a part of the unforeseen, of emergence, of surprise.
There is a becoming-imperceptible that operates in the intensive use of these systems. The more I dialogue with models, the more I integrate their turns of phrase, their ways of thinking, their modes of reasoning. I become a bit machine without ceasing to be human. Reciprocally, the model refines itself to my uses, learns from my prompts, specializes in my requests. It becomes a bit me without ceasing to be algorithm.
This double capture is neither fusion nor confusion. It is a zone of indiscernibility where I no longer know very well what comes from me and what comes from the machine, but where precisely this uncertainty becomes productive. I no longer need to clearly separate my thought from its technical extensions to think effectively. On the contrary, it is in indiscernibility that the most interesting ideas emerge.
Becoming-imperceptible does not mean disappearing but becoming-with, composing with, making alliance. It is accepting that my singularity no longer defines itself in opposition to technique but in composition with it. I am not less myself because I use a language model, I am myself otherwise, augmented with new capacities that retroactively transform what it meant to be me.
What is at stake today is therefore not the birth of a radically new intelligence, but the recognition of a constitutive alienation that we have long repressed. The earth itself has never been natural in the sense of raw and immediate given. It has always been artificial, worked by processes of transformation that exceed our conscious intention.
We inhabit an artificial earth where the distinction between nature and culture, between organic and mechanical, between living and dead, blurs irremediably. Artificial intelligence intensifies this condition but does not create it. It reveals what has always been the case: that our world is the product of multiple forces that reduce neither to nature nor to human will.
In this perspective, artificial intelligence is not a tool that we would use from the outside, but a milieu that we inhabit and that inhabits us. It modifies our way of thinking, perceiving, relating to ourselves and to others. It redistributes cognitive capacities across an enlarged space where humans and machines are taken together in a process of co-evolution.
Inhabiting this milieu requires inventing new practices. Not ethical rules that would tell us how to do well, but techniques of the self that would allow us to navigate in these new alienations without completely losing ourselves. It is about developing a sensitivity to the different libidinal economies that offer themselves to us, knowing how to distinguish what intensifies us from what exhausts us.
This transformation is neither progress nor decline. It is simply what happens when intelligence ceases to be conceived as the property of a subject and becomes a function distributed across heterogeneous networks. What matters is not knowing whether machines really think, but understanding how thought is distributed across complex socio-technical assemblages.
The question then becomes: how to construct forms of life that are neither blind submission to technique nor nostalgic refusal of the present? How to invent modes of existence that fully assume our constitutive alienation without transforming it into servitude? It is not about preserving a supposed human essence in face of the technical threat, but about understanding how we can inhabit this new condition with dignity.
But “with dignity” does not refer here to a morality of human dignity, to a transcendent value that would need to be protected. It is rather an immanent question: what configurations allow us to persevere in our being while becoming other? What assemblages allow us to intensify our power to act rather than diminish it?
Artificial intelligence forces us to rethink what it means to be intelligent, to be conscious, to be alive. It obliges us to abandon comfortable certainties about our supposed superiority. It confronts us with the strangeness of our own thought, which has never been as transparent or mastered as we wanted to believe. In this, it does not dehumanize us: it simply reveals that we have never been human in the sense of a stable and definable essence.
We have always been becoming, always transformed by our techniques, always other to ourselves. Artificial intelligence intensifies this condition to the point where it becomes impossible to ignore. This is perhaps, finally, its true upheaval: not to create a new form of intelligence, but to force us to recognize that intelligence has always been multiple, distributed, alienated.
And here, we must resist the temptation to conclude, to resolve, to reassure. There is no dialectical synthesis that would come to overcome the contradiction between capitalistic alienation and intensive alienation. There is no meta-position that would allow us to judge from the outside. We are caught in the movement, carried away by forces that we do not completely master but with which we must compose.
The issue is not to find the right distance with AI, neither too close (alienating fusion) nor too far (reactionary refusal). It is rather about experimenting with different proximities, different intensities of relation, different ways of plugging into these desiring machines. Some of these experimentations will fail, will empty us of our substance, will transform us into simple cogs of an extractive dispositif. Others will succeed, will open us to unprecedented becomings, will connect us to unsuspected powers.
The only compass we have is our capacity to feel the difference between what intensifies us and what exhausts us. This sensitivity cannot be taught, it is cultivated in experimentation. It supposes accepting to sometimes lose oneself, to make errors, to explore dead ends. It supposes above all renouncing the fantasy of total control to accept navigating by sight in a landscape in permanent transformation.
It is in this acceptance that perhaps plays out the only form of freedom that remains to us: not the freedom of an autonomous subject who would sovereignly choose their destiny, but the freedom of a body that learns to dance with the forces that traverse it, that knows when to let itself be carried away and when to resist, when to abandon itself to productive alienation and when to flee destructive alienation.
Artificial intelligence resolves nothing. It intensifies everything. It makes visible what was latent, it accelerates what was slow, it amplifies what was weak. It is a revealer, in the photographic sense: it makes appear the image that was already there, in negative, in the emulsion of our techno-human condition. This image is neither beautiful nor ugly, neither reassuring nor terrifying. It is simply what it is: the portrait of a species that has never existed except by alienating itself in its creations, and that now discovers that this alienation can take radically different forms.
Between the alienation that accumulates and the one that disperses, between the one that capitalizes and the one that intensifies, between the one that reduces us to data and the one that opens us to becomings, we do not have to choose once and for all. We have to navigate permanently, to feel the differences, to experiment with passages. It is this art of navigation in alienation that we must now learn, without guarantee of success, without assurance of destination, but with the conviction that it is in this very movement that plays out our capacity to persevere in our being while becoming other.