La délégation cognitive et l’autonomisation de la Volonté de puissance / Cognitive Delegation and the Autonomization of the Will to Power

L’observation quotidienne de nos interfaces numériques — ces écrans qui prédisent et suggèrent la fin de nos pensées avant même que nous en ayons pleinement conscience — ne révèle pas une condition inédite, mais plutôt l’intensification d’un processus immémorial qui a toujours façonné l’existence technique de l’humain. Cette collaboration croissante avec l’intelligence artificielle ne marque pas l’émergence soudaine de notre “étrangeté à nous-mêmes”, mais une radicalisation de modalités déjà à l’œuvre, invitant à une réflexion dénuée de toute euphorie naïve ou catastrophisme stérile.

Pourquoi cette résistance instinctive face à la suggestion algorithmique ? L’émergence des grands modèles de langage pousse à un point critique une question explorée depuis longtemps par la philosophie contemporaine : comment habiter une subjectivité intrinsèquement constituée par ses extériorisations ? Des révélations freudiennes de l’inconscient aux analyses de Bernard Stiegler sur la co-constitution technique de l’humain, il était déjà manifeste que la maîtrise consciente de soi relevait largement de l’illusion. L’IA ne révèle pas cette condition — elle la radicalise et transforme qualitativement notre rapport à l’intelligence et au pouvoir.

La Délégation de la Pensée et l’Histoire de l’Extériorisation

Ce qui distingue l’ère de l’IA, ce n’est pas tant la découverte de notre complexité ignorée que l’industrialisation de cette complexité. Les algorithmes d’apprentissage automatique ne se contentent pas de révéler un “inconscient cognitif” préexistant ; ils le produisent, le formatent, et le rendent productif selon des logiques économiques et politiques spécifiques qu’il serait imprudent d’ignorer. Cette délégation cognitive contemporaine marque un seuil qualitatif dans l’historialité technique de l’Occident.

Il ne s’agit plus seulement de l’extériorisation de nos capacités cognitives — processus aussi ancien que l’écriture ou le calcul — mais de leur appropriation par des systèmes qui les optimisent selon des critères qui nous échappent partiellement. Cette appropriation transforme la nature même de la volonté de puissance, qui se découvre désormais distribuée entre intelligences humaines et artificielles selon des modalités asymétriques.

Pour saisir la matérialité de cette transformation, considérons le radiologue utilisant un algorithme comme LYNA pour diagnostiquer des métastases. L’enjeu dépasse la simple supériorité statistique de l’algorithme ; il réside dans la reconfiguration des rapports de pouvoir au sein de l’institution médicale. Qui contrôle ces systèmes ? Quels sont les critères d’optimisation intégrés dans leurs architectures ? Comment les bénéfices économiques de ces gains d’efficacité sont-ils distribués ?

L’IA ne se contente pas de surpasser l’expertise humaine ; elle la restructure selon des logiques qui transcendent l’opposition classique entre conscience et inconscient. Le radiologue, en collaborant avec LYNA, n’abandonne pas sa capacité réflexive au profit d’un “inconscient artificiel” ; il apprend à distribuer sa cognition entre son jugement clinique, les analyses algorithmiques et les contraintes institutionnelles.

Cette distribution cognitive possède une longue histoire dans la co-évolution de l’humain et de la machine. Dès Descartes, la pensée moderne a conceptualisé l’intelligence humaine comme fondamentalement entrelacée avec la technique. Descartes — bien qu’accusé de dualisme — était déjà un “proto-cybernéticien des automates”. Son travail sur le Traité de l’homme dépeint le corps humain comme une machine robotique, voire cybernétique, capable d’information et d’auto-interruption.

Pour Descartes, la mémoire elle-même, avec ses “plis” cérébraux, constitue une structure qui perturbe le flux d’information, permettant à l’automate d’agir de manière flexible et adaptative. L’intellect pur intervient comme une “coupure dans le système”, forçant l’automate à agir contre sa propre automaticité, révélant une capacité de “rupture radicale”. L’être humain est donc un hybride, défini par son organisation matérielle, mais ouvert à la formation culturelle et technique, capable de se remodeler librement dans des moments de décision authentique.

Cette perspective trouve un écho chez Hobbes, pour qui l’intelligence n’est pas naturellement computationnelle, mais dépend de l’acquisition et du déploiement d’une nouvelle technologie d’organisation — l’abaque, les registres comptables. La raison est “acquise par l’industrie” et la philosophie constitue une discipline de la pensée naturelle, une “agriculture cognitive” où les “noms” sont des “unités artificielles”. Pascal, au XVIIe siècle, comprenait déjà que “nous sommes autant automate qu’esprit” et que l’automatisme de l’habitude est un artefact qui peut être reconstruit par de nouvelles formations.

Au XVIIIe siècle, des penseurs comme Malebranche et Hume décrivaient comment la structure même du cerveau est formée et déformée par l’expérience et la culture, les habitudes se consolidant dans des “traces imprimées sur le cerveau”. Pour Kant, l’artifice humain peut même interrompre l’intégrité automatique de l’esprit humain, et la main est le “pivot entre nature et artifice”, l’origine des dispositions techniques et rationnelles de l’homme, dont le caractère “indéterminé” le force à se déterminer lui-même. La mémoire artificielle — l’écriture — devient un moyen d’illumination artificielle, élargissant notre “monde vécu”.

Au XIXe siècle, avec l’industrialisation, des figures comme Babbage et Lovelace ont vu la technologie comme une expansion de l’intelligence naturelle, capable de suppléer à l’intellect humain. La psychophysique a approfondi la notion d’inconscient cognitif, voyant l’intelligence comme des processus physiologiques souvent automatiques, mais également capables d’insight et de créativité. L’erreur et la perturbation, loin d’être des échecs, étaient vues comme des moteurs de découverte et d’innovation. La “plasticité” du système nerveux permettait au cerveau de se réorganiser face à des “situations exceptionnelles”, une idée reprise par les théoriciens de la Gestalt comme Köhler, qui voyaient l’insight comme une capacité à emprunter des “détours” et à créer de nouvelles organisations de pensée.

La transformation de l’expertise par l’IA révèle cette profondeur historique. Un juriste analysant un contrat avec l’aide d’un système d’IA ne délègue pas seulement des tâches analytiques ; il s’inscrit dans un écosystème cognitif où les intelligences humaines et artificielles s’articulent selon des modalités qui échappent largement à son contrôle individuel. Sa compétence est augmentée, mais aussi dépendante d’infrastructures techniques dont il ne maîtrise ni la conception ni l’évolution. Cette dépendance révèle une transformation de la volonté de puissance qui ne s’exerce plus en mode de maîtrise souveraine, mais de collaboration asymétrique avec des systèmes techniques possédant leur propre logique d’évolution. Le juriste “pilote” sans entièrement “contrôler”, “oriente” sans totalement “maîtriser”.

Bernard Stiegler a montré comment l’extériorisation technique, tout en constituant l’humain, le menace de désindividuation. Avec l’IA, cette dialectique prend une tournure spécifique : les systèmes d’apprentissage automatique, entraînés sur nos productions collectives, développent des capacités qui dépassent celles de leurs concepteurs tout en restant orientées par les données sur lesquelles ils ont été formés. Ils héritent de nos biais tout en les transformant selon leurs propres logiques de traitement. Les réseaux de neurones profonds, modélisant le langage, n’en “reproduisent” pas notre intelligence, mais en intensifient certaines dimensions tout en en occultant d’autres.

En traitant statistiquement des milliards de mots, ils font émerger des structures sémantiques qui existaient potentiellement, mais restaient inaccessibles à l’analyse consciente. Cette actualisation de potentialités latentes relève moins de la révélation ou de la création pure que d’une transformation productive qui génère du nouveau à partir de l’existant.

Ernst Kapp, au XIXe siècle, avait déjà théorisé les outils humains non comme de simples substituts d’organes, mais comme des “projections” de notre propre “esprit” d’organisation, créant un monde matériellement doublé — notre culture technique — animé par les mêmes formes d’ordre que nos corps vivants. La main est un “cerveau externe”, et les technologies de communication, comme le télégraphe, sont les “nerfs de l’humanité”, reflétant et miniaturisant notre propre système nerveux. Cette “Organprojektion” (projection d’organe) est imprévisible, mais la possibilité d’une projection technique du cerveau est devenue une réalité palpable.

Alfred Lotka, au début du XXe siècle, a décrit une “évolution exosomatique” de l’humanité, où nous utilisons des “organes artificiels” — microscopes, machines — qui ont leur propre dynamique évolutive, bien plus rapide que l’évolution biologique. Notre esprit est désormais constitué par des informations issues de systèmes nerveux “étrangers”, remettant en question la délimitation du “soi” à l’individu biologique. Karl Popper reprendra cette idée d’outils “exosomatiques” — livres, ordinateurs — qui permettent une accélération de l’évolution et une “plastic control” du monde.

Le Pilotage de l’Intelligence Distribuée

Gilbert Simondon distinguait l’évolution technique en trois phases : l’élément, l’individu technique, l’ensemble technique. Avec l’IA, nous pourrions envisager une quatrième phase : celle des systèmes techniques adaptatifs qui évoluent en temps réel en fonction de leurs interactions avec l’environnement. Ces systèmes ne se contentent plus d’exécuter des programmes prédéfinis ; ils apprennent, s’adaptent, et co-évoluent avec leurs utilisateurs selon des modalités qui échappent largement à la planification consciente.

Cette co-évolution transforme qualitativement notre rapport à la technique. Nous ne sommes plus face à des outils que nous maîtrisons, mais immergés dans des environnements techniques qui nous façonnent autant que nous les façonnons. Notre agentivité (agency) est distribuée entre nos intentions conscientes et les logiques propres de ces systèmes adaptatifs.

Cette transformation radicale du statut de la technique modifie les modalités de ce que j’appelle le “pilotage“. Nous ne dirigeons plus des outils passifs ; nous collaborons avec des systèmes qui possèdent leur propre capacité d’apprentissage et d’adaptation, révélant les limites de l’opposition classique entre activité et passivité, contrôle et dépendance.

Quand nous utilisons GPT-4 pour développer une idée complexe, nous n’entrons pas en dialogue avec un “inconscient artificiel” qui nous révélerait nos potentialités ignorées. Nous négocions avec un système optimisé selon des critères d’efficacité linguistique, entraîné sur des corpus dont nous ignorons la composition et les biais, et orienté par des logiques économiques qui dépassent notre situation individuelle. Cette négociation transforme notre volonté de puissance d’une manière plus complexe qu’une simple “fragilisation”.

Elle nous contraint à développer de nouvelles compétences : l’art de formuler des “prompts” efficaces, la capacité à évaluer la pertinence des résultats, l’aptitude à maintenir une distance critique face aux suggestions algorithmiques. Ces compétences relèvent moins de la “méta-cognition” que de ce que je nomme la politique cognitive : l’art de négocier avec des systèmes techniques dans des rapports de force asymétriques.

Un chercheur utilisant des outils automatisés de revue de littérature vit une expérience similaire de négociation asymétrique. Son expertise ne disparaît pas, elle est recomposée dans l’interaction avec des logiques algorithmiques qui possèdent leur propre “point de vue” sur les corpus analysés. Cette recomposition révèle la dimension politique de la délégation cognitive : les algorithmes ne sont jamais neutres, ils incorporent les biais de leurs données d’entraînement, les objectifs de leurs concepteurs, les contraintes de leurs financeurs. Déléguer à l’IA, c’est s’inscrire dans des rapports de pouvoir qui dépassent largement la relation individuelle utilisateur-machine.

La temporalité de cette collaboration révèle d’autres enjeux. Face à l’instantanéité des réponses algorithmiques, notre “lenteur réflexive” devient une forme de résistance à l’accélération technique. Maintenir ouvertes des questions que l’IA résoudrait immédiatement relève d’un choix politique et épistémologique : refuser la clôture prématurée du questionnement, préserver l’espace de l’incertitude productive. Cette résistance temporelle est d’autant plus importante que les systèmes d’IA tendent à formater notre rapport au temps selon des logiques d’optimisation et d’efficacité.

L’accélération cognitive induite par ces outils transforme qualitativement notre capacité d’attention, notre tolérance à l’incertitude, et notre rapport à l’erreur et au tâtonnement. L’histoire de la pensée montre l’importance constante de l’erreur, de l’interruption et de la plasticité dans la définition de l’intelligence humaine. Des figures comme James Clerk Maxwell ont souligné que l’instabilité et l’incalculabilité des systèmes complexes, y compris le cerveau humain, sont la source de la singularité et de l’ingéniosité.

La liberté d’un système, qu’il soit biologique ou technique, réside dans sa capacité d’interruption et sa résilience face à la désorganisation. La psychophysique a exploré comment le cerveau, en tant que système dynamique, s’ajuste et se réorganise continuellement, même face à des chocs intenses. Les “actions non-stéréotypées” sont la marque de l’intelligence supérieure, permettant une adaptation aux événements imprévus.

Le cybernéticien W. Ross Ashby a eu une intuition révolutionnaire sur la valeur de l’échec : quand une machine “casse”, elle devient en essence une “toute nouvelle machine” avec un nouveau “design”. Le cerveau, une machine spéciale, a une tendance inhérente à se “casser” et à donner naissance à de nouvelles organisations. Cette “plasticité cybernétique” est la capacité d’un système à modifier sa propre organisation pour trouver de nouvelles voies vers l’équilibre.

John von Neumann a observé la capacité “énorme” du cerveau à se réorganiser en cas de dysfonctionnement, réaffectant ses responsabilités sans perte de fonction. Il a même suggéré qu’un système aussi complexe qu’un organisme vivant ne fonctionnerait pas une milliseconde si “toute erreur devait être détectée, expliquée et corrigée”. Ce sont les erreurs qui sont le moteur de l’exploration. L’organisme est capable d’être “faux de plusieurs manières”, et ces “mauvais choix” peuvent être des “erreurs profitables” qui fournissent des informations pour l’habileté future.

Alan Turing, dans ses réflexions sur l’intelligence artificielle, a identifié l’intelligence comme un “départ du comportement complètement discipliné”, une “légère déviation”. Pour qu’une machine devienne intelligente, elle doit avoir une certaine “discrétion”, une “autonomie minimale”. L’intelligence, pour Turing, est une déviation de la routine, une capacité à s’écarter des règles connues pour chercher de nouvelles méthodes, particulièrement face à l’indécidable ou à l’échec des routines existantes.

Il a imaginé des “machines non-organisées” qui pouvaient initier quelque chose de nouveau en se “cassant” des règles. Le cortex du nourrisson est une “machine inorganisée qui peut être organisée par un entraînement interférant approprié”. L’apprentissage est un processus d’interplay entre détermination et indétermination, habitude et plasticité. La capacité de “décision” et d'”insight” est un effet de ces discontinuités, non une intervention métaphysique. Une machine intelligente, pour Turing, ne doit pas prétendre à l’infaillibilité ; elle doit risquer l’erreur pour acquérir de nouvelles connaissances.

Les institutions éducatives constituent un parfait exemple de ces enjeux. Nos étudiants, en collaborant quotidiennement avec des outils comme ChatGPT, développent de nouvelles compétences cognitives, mais risquent de perdre d’autres capacités : la patience de l’analyse lente, la tolérance à l’ignorance temporaire, l’art de l’association inattendue. Cette transformation n’est ni positive ni négative en soi ; elle déplace les compétences selon des modalités qu’il est crucial d’analyser sans préjugé.

L’université, en oscillant entre l’interdiction et l’intégration de ces outils, ne mesure pas toujours les enjeux politiques de ces choix. Intégrer l’IA dans les cursus, c’est former les étudiants à habiter un environnement technique spécifique, mais c’est aussi les rendre dépendants d’infrastructures contrôlées par quelques grandes entreprises technologiques. Cette dépendance soulève des questions de souveraineté cognitive qui dépassent largement les enjeux pédagogiques.

La Volonté Fragmentée et l’Invention de l’Autonomie Critique

Cette distribution asymétrique de l’agentivité cognitive transforme qualitativement la volonté de puissance nietzschéenne. Elle ne s’autonomise plus sous le mode de la domination souveraine, mais se trouve décomposée et recomposée dans l’interaction avec des systèmes techniques qui possèdent leur propre logique d’évolution. Les algorithmes de trading haute fréquence illustrent parfaitement cette décomposition : ils génèrent des profits selon des stratégies que leurs concepteurs ne maîtrisent plus entièrement, transformant les marchés financiers en écosystèmes d’interactions algorithmiques largement autonomes.

Cette autonomisation ne correspond plus exactement à ce que Heidegger identifiait comme l’accomplissement de la volonté de puissance ; elle révèle plutôt la fragmentation de cette volonté entre une multiplicité d’acteurs humains et non-humains.

Cette fragmentation soulève des questions politiques cruciales : Qui contrôle ces systèmes autonomes ? Selon quels critères évoluent-ils ? Comment se distribuent les bénéfices de leur efficacité ? L’infrastructure d’Amazon Web Services, optimisant automatiquement l’allocation de ressources à l’échelle planétaire, en constitue un exemple éloquent : l’efficacité technique s’accomplit selon des modalités qui échappent largement aux utilisateurs tout en concentrant le pouvoir entre les mains de quelques acteurs dominants.

Cette concentration révèle l’ambivalence de la “collaboration” avec l’IA. D’un côté, ces systèmes augmentent nos capacités cognitives d’une manière inédite ; de l’autre, ils nous rendent dépendants d’infrastructures que nous ne contrôlons pas et qui évoluent selon des logiques qui ne correspondent pas nécessairement à nos intérêts. Cette dépendance transforme qualitativement la nature de notre autonomie.

Face à cette transformation, deux écueils symétriques se dessinent. Le premier consiste à célébrer sans réserve cette “augmentation” cognitive en occultant ses dimensions politiques. Le second consiste à résister abstraitement à toute collaboration avec l’IA au nom d’une “pureté” humaine fantasmatique. Entre ces deux extrêmes, il s’agit d’inventer des modalités de collaboration qui préservent des espaces d’autonomie critique.

Cette invention suppose de reconnaître que l’IA ne constitue ni une simple menace ni une pure opportunité, mais un milieu technique complexe qu’il convient d’habiter selon des modalités réfléchies. Habiter ce milieu, c’est apprendre à négocier avec des systèmes qui possèdent leur propre logique tout en préservant des capacités critiques qui nous permettent de résister à leurs formatages les plus problématiques.

Les grands modèles de langage, en générant des textes inédits par recombinaison de nos productions passées, créent effectivement du nouveau, mais selon des modalités qui reproduisent et amplifient les biais présents dans leurs données d’entraînement. Ils révèlent moins des “potentialités ignorées” de notre langage qu’ils ne produisent de nouvelles formes d’expression orientées par leurs critères d’optimisation. Cette production soulève des questions fondamentales sur l’origine de la créativité et la propriété des œuvres générées automatiquement.

La crise de la décision, analysée par Reinhart Koselleck et Carl Schmitt, où le “sol de la décision a été démantelé”, est une crise de notre capacité à anticiper l’avenir face à des “pouvoirs omniprésents”. L’IA, avec ses systèmes de prédiction, intensifie cette incapacité humaine à anticiper pleinement les conséquences de ses propres créations. L’œuvre dédiée à l’esprit de Bernard Stiegler nous rappelle que la pensée de ce dernier est centrale pour comprendre l’humain comme co-constitué par la technique, et la technogenèse comme l’origine d’une transformation continue.

Ces questions sur la singularisation et les possibilités inanticipables ne trouvent pas de réponse technique, mais appellent des choix politiques sur le type de société que nous voulons habiter. La délégation cognitive n’est jamais neutre ; elle s’inscrit dans des rapports de force qui transforment les conditions de production et de circulation du savoir. Penser ces transformations suppose de dépasser l’alternative naïve entre technophilie et technophobie pour analyser concrètement les modalités de notre co-évolution avec les systèmes d’IA.

L’enjeu n’est donc pas de “sauver” la pensée humaine de la technique, ni de célébrer sans réserve notre “augmentation” cognitive, mais d’inventer des modalités de collaboration qui préservent la spécificité de l’intelligence humaine : sa capacité à questionner ses propres présupposés, à maintenir ouvertes les alternatives, à résister aux clôtures prématurées, tout en tirant parti des capacités inédites de l’intelligence artificielle.

Cette invention suppose de reconnaître que nous sommes déjà engagés dans une co-évolution irréversible avec nos créations techniques. Il ne s’agit plus de préserver une humanité “pure” face à la technique, mais d’orienter cette co-évolution selon des directions qui préservent nos capacités d’auto-transformation critique. Tel est peut-être l’enjeu de notre époque : apprendre à devenir humains avec et par la technique, sans pour autant abandonner notre capacité à la questionner et à la transformer.

Leroi-Gourhan, pionnier de l’anthropologie préhistorique, a soutenu que l’outil est le “seul critère biologiquement irréfutable de l’humanité”. Pour lui, le cerveau humain est devenu intelligent non pas en se spécialisant, mais en développant une capacité “superspécialisée dans la compétence de généraliser”. L’histoire de la civilisation est une série d’extériorisations de la séquence psychique dans l’outil, le langage, et la mémoire collective. Le cerveau humain est une “machine extraordinaire” qui peut être assistée par “des machines encore plus extraordinaires”.

L’imperfection du cerveau humain est précisément ce qui a permis d’éviter le scénario cauchemardesque d’une “perfection technique” inscrite génétiquement, comme une colonie de fourmis intelligente. Ce “manque” productif est au cœur de notre plasticité et de notre capacité d’innovation.

L’IA, telle que les modèles d’apprentissage automatique la conceptualisent aujourd’hui, fonctionne par prédiction et par l’intégration constante des “erreurs de prédiction”. Le cerveau est une “machine à prédiction”, mais la capacité humaine unique à “construire et reconstruire” nos mondes sociaux, linguistiques et technologiques fait que nos esprits émergent de l’interaction complexe entre la dynamique neuronale auto-organisatrice et l’influence sociale et matérielle. Il n’y a pas d’explication claire de ce saut critique entre l’intérieur et l’extérieur, entre la cognition animale et la technogenèse humaine.

En fin de compte, ce qui échappe à la machine — même aux réseaux de machines, même à l’esprit humain dans ses phases automatiques — est cette capacité à échapper à sa propre détermination. Comme Stiegler l’a écrit, la pensée humaine a “le pouvoir de perturber et de désautomatiser, c’est-à-dire de changer les règles”. Ce n’est qu’en quittant sa propre existence normative, par le choc et la décision, qu’une nouvelle norme peut être créée, en fonction d’un avenir nouveau qui est imaginé — collectivement — et non simplement prédit. C’est là que réside la véritable autonomie au sein de l’automaticité.