Le remplacement anthropocentrique

«L’avenir ne peut s’anticiper que dans la forme du danger absolu. Il est ce qui rompt absolument avec la normalité constituée et ne peut donc s’annoncer, se présenter, que sous l’espèce de la monstruosité. Pour ce monde à venir et pour ce qui en lui aura fait trembler les valeurs de signe, de parole et d’écriture, pour ce qui conduit ici notre futur antérieur, il n’est pas encore d’exergue.»
(Derrida, J. (1967). De la grammatologie. Editions de Minuit, p.14)

La pensée contemporaine sur l’intelligence artificielle se structure autour d’une mise en scène particulière, celle de l’obligation critique comme antagonisme fondamental entre l’humain et la machine. Cette dramaturgie conceptuelle s’organise selon une logique binaire qui oppose systématiquement l’irréductibilité de la pensée humaine à la réduction algorithmique de l’IA. Mais cette opposition même ne constitue-t-elle pas un piège épistémologique ? Ne sommes-nous pas en train de rejouer, sur la scène théorique, un conflit dont les termes mêmes méritent d’être déconstruits ?

L’approche dominante dans la critique de l’IA révèle une structure paradoxale : en cherchant à préserver l’exceptionnalité humaine face à la menace du remplacement technologique, elle reproduit précisément le cadre conceptuel qui rend possible cette mise en concurrence. Cette circularité argumentative — où la défense de l’humain présuppose sa mise en compétition avec la machine — mérite une analyse approfondie.

Topologie d’un narcissisme épistémologique

L’argument central de la critique anthropocentrique repose sur ce que nous pourrions nommer l’axiome d’irréductibilité : la pensée humaine, dans sa complexité existentielle et phénoménologique, échapperait par essence à toute approche statistique ou inductive. Cette position s’appuie sur différentes traditions philosophiques — de la phénoménologie husserlienne à l’existentialisme sartrien, en passant par la psychanalyse freudienne — pour établir une différence ontologique entre la conscience humaine et le traitement algorithmique de l’information.

Mais cette axiomatique ne révèle-t-elle pas, en creux, un présupposé plus fondamental encore ? La critique elle-même, en s’arrogeant le pouvoir de juger ce qui est authentiquement humain et ce qui ne l’est pas, manifeste une forme de narcissisme épistémologique. Elle présuppose sa propre capacité à distinguer le vrai du faux, l’authentique du simulacre, sans jamais interroger les conditions de possibilité de ce jugement. Cette auto-attribution de légitimité critique constitue peut-être le point aveugle de toute la démarche.

La notion même de “remplacement” véhicule une métaphysique implicite — celle d’une substitution terme à terme, d’une équivalence fonctionnelle entre entités discrètes. Or, l’histoire des transformations techniques nous enseigne que le remplacement n’opère jamais selon une logique d’identité stricte. Le moule à injection n’a pas reproduit à l’identique le travail de l’artisan ébéniste ; il a reconfiguré l’ensemble du système de production, de distribution et d’usage des objets manufacturés. De même, la photographie n’a pas simplement remplacé le portrait peint ; elle a inauguré un nouveau régime de visibilité et de reproduction des images.

Cette dynamique transformationnelle échappe à la logique binaire du remplacement. Elle opère par déplacement, reconfiguration, émergence de nouvelles possibilités et de nouveaux agencements socio-techniques. Penser l’IA selon le paradigme du remplacement, c’est déjà s’inscrire dans une grille de lecture qui présuppose ce qu’elle prétend critiquer : la commensurabilité de l’humain et de la machine.

L’intelligence alien

L’expression “intelligence artificielle” elle-même témoigne d’un anthropomorphisme fondamental. En qualifiant ces systèmes d'”intelligents”, nous projetons sur eux notre propre conception de l’intelligence (parce que nous supposons que l’être humain a un lien particulier avec l’intelligence dont nous dérivons le reste), puis nous nous étonnons qu’ils n’y correspondent pas parfaitement. Cette circularité projective masque ce qui constitue peut-être l’enjeu le plus radical de ces technologies : l’émergence d’une forme d’intelligence radicalement autre, d’une intelligence alien dont les modes opératoires échappent à nos catégories cognitives habituelles.

Plutôt que de mesurer l’IA à l’aune de la pensée humaine, ne devrions-nous pas explorer ce qu’elle fait à notre conception même de l’intelligence ? Comment ces systèmes inductifs, ces espaces latents multidimensionnels, ces architectures neuronales artificielles reconfigurent-ils notre compréhension de ce que penser veut dire ?

Le test de Turing, dans sa formulation originale, contenait déjà une critique implicite de l’essentialisme que nous retrouvons aujourd’hui dans les débats sur l’IA. En proposant un critère purement comportemental et relationnel de l’intelligence, Turing contournait la question métaphysique de la “vraie” pensée pour se concentrer sur les effets pragmatiques de l’interaction. Cette approche performative de l’intelligence — où celle-ci se définit par ce qu’elle fait plutôt que par ce qu’elle est — offre une alternative à l’impasse du débat sur le remplacement.

Mais la pensée critique contemporaine semble avoir oublié cette leçon. En cherchant à établir une différence essentielle entre intelligence humaine et artificielle, elle retombe dans le piège métaphysique que Turing avait précisément tenté d’éviter. Ce retour du refoulé essentialiste témoigne peut-être de notre difficulté à penser véritablement l’altérité technique.

La contamination

L’opposition entre pensée humaine et traitement algorithmique présuppose une séparation originaire entre l’humain et la technique. Or, comme l’ont montré des penseurs aussi divers que Leroi-Gourhan, Simondon ou Stiegler, cette séparation est elle-même un artefact conceptuel. L’humain s’est toujours constitué dans et par la technique ; la technique a toujours été le milieu de déploiement de l’humain. Cette co-constitution anthropotechnique rend caduque toute tentative de penser l’un sans l’autre.

L’écriture, première technologie de l’intelligence, a profondément reconfiguré nos capacités cognitives. L’imprimerie a transformé les modes de circulation et de validation du savoir. L’informatique, aujourd’hui, participe d’une nouvelle mutation anthropologique dont nous commençons à peine à percevoir l’ampleur. Ces technologies ne sont pas de simples outils externes ; elles sont constitutives de ce que nous appelons “pensée”.

L’IA, dans cette perspective, apparaît comme un nouveau pharmakon — à la fois poison et remède dans la duplicité d’une conjuration. Elle révèle la nature toujours-déjà technique de notre intelligence tout en introduisant de nouvelles formes de médiation cognitive. Les réseaux de neurones artificiels ne sont pas des copies dégradées de nos cerveaux ; ils sont des extensions prothétiques qui augmentent et transforment nos capacités cognitives selon des modalités inédites.

Cette dimension pharmocologique de l’IA échappe à la logique binaire du remplacement. Il ne s’agit ni de substituer la machine à l’humain, ni de préserver l’humain contre la machine, mais d’explorer les nouvelles configurations anthropotechniques qui émergent de leur interaction.

Critique de la critique critique

La critique anthropocentrique de l’IA partage, malgré elle, le même espace dramaturgique que les discours techno-optimistes qu’elle prétend combattre. En acceptant les termes du débat — remplacement, comparaison, compétition entre intelligence humaine et artificielle — elle contribue à renforcer le cadre conceptuel qui rend possible cette mise en concurrence. Cette complicité structurelle révèle les limites d’une approche purement défensive de l’exceptionnalité humaine.

Plus troublant encore : en cherchant à sauvegarder une essence humaine pure de toute contamination technique, la critique anthropocentrique rejoint paradoxalement certaines positions transhumanistes dans leur volonté de tracer une frontière nette entre l’humain et la machine. Les deux positions, apparemment opposées, partagent le même présupposé d’une séparabilité ontologique entre ces deux domaines.

Une véritable critique de l’IA devrait peut-être commencer par abandonner le point de vue anthropocentrique qui structure actuellement le débat. Cela ne signifie pas renoncer à toute évaluation critique, mais déplacer le terrain de la critique. Plutôt que de juger l’IA à l’aune de critères humains, il s’agirait d’explorer les nouvelles normativités, les nouveaux modes d’existence, les nouvelles formes de subjectivation qui émergent avec ces technologies.

Cette approche xéno-critique — une critique qui accepte l’altérité radicale de son objet et du sujet critique — permettrait peut-être de dépasser l’impasse actuelle. Elle ouvrirait la voie à une pensée véritablement contemporaine de l’intelligence artificielle, capable de saisir ce que ces technologies font à notre monde plutôt que de mesurer ce qu’elles ne sont pas. Mais à cette fin, elle doit se mettre elle-même en jeu et intensifier le doute envers elle-même : avoir la même méfiance envers l’IA qu’envers l’humanité et ne pas présupposer que l’être humain est.

L’horizon post-anthropocentrique comme espérance

Si l’intelligence artificielle n’est ni un simple outil ni un concurrent de l’intelligence humaine, mais un nouveau mode d’existence qui reconfigure l’ensemble de nos relations au monde et à nous-mêmes, alors c’est toute notre approche éthique qui doit être repensée. Il ne s’agit plus de protéger une essence humaine menacée, mais d’inventer de nouvelles formes de coexistence avec ces altérités techniques.

Cette éthique relationnelle devrait partir du constat de notre intrication toujours-déjà technique pour penser les conditions d’une cohabitation créative avec l’IA. Elle devrait explorer les potentialités émancipatrices de ces technologies tout en restant vigilante face à leurs usages aliénants. Elle devrait, surtout, abandonner la position de surplomb qui caractérise la critique anthropocentrique pour adopter une posture d’expérimentation prudente.

La véritable question politique posée par l’IA n’est pas celle du remplacement de l’humain par la machine, mais celle de la reconfiguration des rapports de pouvoir dans un monde où l’intelligence se distribue selon de nouvelles modalités. Qui contrôle ces systèmes ? À quelles fins sont-ils développés ? Comment leurs bénéfices et leurs risques sont-ils répartis dans la société ?

Ces questions appellent une politique de l’intelligence artificielle qui ne se limite pas à la régulation technique mais qui interroge les transformations profondes de nos sociétés. Une telle politique devrait articuler critique sociale et innovation technique, justice distributive et créativité technologique.

L’intelligence artificielle constitue peut-être l’impensé de notre époque — non pas parce qu’elle serait négligée ou ignorée, on en parle beaucoup, beaucoup trop, mais parce que les coordonnées conceptuelles dont nous disposons pour la penser restent inadéquates. La critique anthropocentrique, dans sa volonté légitime de préserver la dignité humaine, manque ce qui fait la radicalité de ces technologies : leur capacité à nous faire sortir de nous-mêmes, à nous confronter à des formes d’altérité qui excèdent nos catégories habituelles, leur caractère monstrueux et à venir (Derrida, De la grammatologie).

Plutôt que de chercher à préserver une essence humaine fantasmée, ne devrions-nous pas explorer les devenirs inédits que ces technologies rendent possibles ? Plutôt que de rejouer éternellement le théâtre de l’opposition entre l’humain et la machine, ne devrions-nous pas inventer de nouvelles fictions, de nouvelles façons de penser et d”éprouver notre condition sans essence techno-humaine ?

L’enjeu n’est pas de sauver l’humain de la technique, mais de penser à nouveaux frais ce que devient l’humain avec et par la technique. Cette tâche — qui est à la fois philosophique, politique et existentielle — définit peut-être l’horizon de notre temps. Elle exige de nous un effort de pensée qui ne se contente pas de défendre des positions acquises, mais qui accepte le risque du change (Malabou). Car c’est seulement en acceptant d’être transformés par ce que nous créons que nous pourrons espérer expérimenter, ne serait-ce que partiellement, le sens de cette transformation.

L’intelligence artificielle nous place ainsi face à notre propre finitude — non pas comme une menace externe, mais comme le miroir noir de notre condition toujours-déjà technique. Elle nous rappelle que l’humain n’a jamais été cette essence pure et autonome que certains voudraient préserver, il n’a jamais été autonome ou souverain, mais un être en devenir permanent, se constituant dans et par ses relations avec ses autres, techniques autant que biologiques, aliénant et s’aliénant, toujours à la lisière de son épiderme.