Faut-il débrancher l’IA ?

La Technique et son Ombre
À l’heure où les systèmes d’intelligence artificielle connaissent une expansion fulgurante et où certains régimes fascistes souhaitent remplacer l’État par une gestion automatisée, une critique fondamentale s’articule autour de son caractère écocide. Cette critique, loin d’être superficielle, mérite d’être approfondie pour saisir les implications ontologiques, écologiques et politiques de ces technologies. Ce caractère écocide ne se limite pas à l’empreinte environnementale directe des infrastructures numériques, mais s’étend à un système global d’exploitation qui met en péril les équilibres écologiques et sociaux déjà largement fragilisés.
Le terme « consumation » que nous proposons désigne précisément ce processus par lequel la Terre et ses habitants sont littéralement consumés, brûlé jusqu’à épuisement, dans une logique d’exploitation qui semble relever davantage d’une pulsion de mort que d’une simple volonté de maintien du système économique actuel. La formule « Drill ! Baby Drill ! » résonne comme un slogan nihiliste témoignant d’une jouissance dans la destruction, une jouissance qui s’apparente à ce que Georges Bataille nommait la « part maudite » — cette tendance à la dépense improductive qui caractérise nos sociétés modernes, mais prenant à présent une étrange tournure.
Consumation et consumérisme
Le consumérisme, cet affect devenu structure sociale dominante, trouve ses racines dans les modalités matérielles de production issues de la révolution industrielle. Le paradigme de la reproductibilité technique, analysé par Walter Benjamin, a radicalement transformé notre rapport aux objets, à l’espace et au temps. Cette reproductibilité fonctionne selon différentes méthodes (moule, matrice, négatif), produisant des objets en série dont la singularité s’efface au profit d’une standardisation généralisée.
Cette logique de reproduction induit un double mouvement paradoxal : d’une part, une apparente démocratisation de l’accès aux biens ; d’autre part, une dissimulation systématique des ressources mobilisées et des conditions d’extraction nécessaires à cette production. Ce que nous appelons l’économie d’échelle n’est en réalité qu’un transfert des coûts réels vers des zones d’invisibilité : écosystèmes dévastés, populations exploitées, futurs hypothéqués.
La particularité de notre époque est l’accélération vertigineuse des cycles de production et de consommation. Les objets techniques deviennent obsolètes avant même d’être usés physiquement, imposant un renouvellement perpétuel qui alimente ce que Bernard Stiegler nommait la « misère symbolique ». Cette accélération s’accompagne d’une mondialisation des désirs mimétiques : chaque consommateur imite l’autre dans une chaîne infinie de désirs modelés par les industries culturelles. René Girard avait identifié cette structure mimétique du désir, mais la technologie numérique l’amplifie à une échelle planétaire et à une vitesse vertigineuse.
De la Récursivité Médiatique
L’intelligence artificielle contemporaine, particulièrement dans ses incarnations génératives, représente l’aboutissement paradoxal de cette logique récursive. Ces systèmes sont entraînés sur d’immenses corpus de données culturelles, textes, images et sons produits par des êtres humains, pour générer à leur tour des contenus qui seront probablement intégrés aux futurs corpus d’entraînement. Nous assistons ainsi à une récursivité médiatique sans précédent : des machines qui produisent des contenus à partir de contenus, dans une boucle autoréférentielle toujours plus bruitée.
Cette récursivité nous confronte à une aporie fondamentale : plus nous produisons de données, moins nous sommes capables de les appréhender, et plus nous développons des technologies pour les traiter, plus nous générons de nouvelles données. Ce cercle vicieux informationnel constitue ce que Jean-François Lyotard aurait pu qualifier de « différend » — une situation où à présent le langage même pour articuler notre rapport au monde se trouve capturé par la logique computationnelle et où l’espace commun de débat fait défut. La production industrielle du différend profite au vectofascisme qui fragmente la société en des discours incompatibles.
L’IA générative soulève ainsi une question essentielle : pourquoi dépensons-nous tant d’énergie et de ressources pour élaborer des machines qui produisent des contenus le plus souvent inutiles, alors même que nous sommes déjà submergés par nos propres productions culturelles ? Cette surproduction médiatique, cette hyperfertilité symbolique, semble fonctionner comme un mécanisme de défense face à l’angoisse d’extinction qui caractérise notre époque.
Le Gestell et le Piège de la Rationalité Instrumentale
La notion heideggérienne de Gestell (arraisonnement ou dispositif) offre une clé de lecture particulièrement pertinente pour comprendre ce phénomène. Selon Heidegger, la technique moderne ne se réduit pas à un ensemble d’outils ou de machines, mais constitue un mode de dévoilement du monde qui transforme tout être en « fonds » (Bestand) exploitable et calculable. L’essence de la technique moderne réside précisément dans cette réduction de l’étant à sa disponibilité et à sa calculabilité. De la thermodynamique jusqu’à la vectorisation statistique en passant par l’échantillonage binaire, un fil conducteur se construit.
Dans cette perspective, l’IA représente l’aboutissement de ce processus d’arraisonnement : non seulement elle transforme le monde en données quantifiables, mais elle applique désormais cette logique aux productions culturelles et symboliques humaines, transformant le langage, les images et les affects en matière première exploitable algorithmiquement. Ce que Horkheimer et Adorno avaient identifié comme « industries culturelles » atteint avec l’IA son expression la plus totalisante. L’IA est l’aboutissement de la raison parce que les symboles impactent directement la surface de la Terre (extraction, énergie, exploitation).
Cette rationalité instrumentale porte en elle une pulsion de mort qui se manifeste par l’épuisement systématique des ressources naturelles et humaines. L’exploitation des « travailleurs du clic » dans les pays du Sud pour nettoyer les données d’entraînement, l’extraction massive de terres rares pour fabriquer les infrastructures numériques, la consommation énergétique croissante des centres de données et leur refroidissement qui obéit à un cercle vicieux thermodynamique — tous ces éléments constituent un système global d’exploitation qui rappelle, sous des formes nouvelles, les logiques coloniales et extractivistes.
La connexion entre cette rationalité technique et les politiques génocidaires n’est pas fortuite : c’est le même geste ontologique qui transforme le vivant en « fonds » calculable et qui rend possible son élimination systématique. La désubjectivation opérée par les technologies numériques contemporaines prolonge ce geste en réduisant l’humain à ses traces numériques, à ses comportements quantifiables, à sa « valeur prédictive ».
Couper les flux
Face à ce constat accablant, la tentation de la déconnexion apparaît comme une réponse intuitive : débrancher la machine, couper les flux, se retirer des boucles infernales de la consumation planétaire. Les études climatiques et énergétiques confirment d’ailleurs la nécessité d’une réduction drastique de notre empreinte écologique, incompatible avec la croissance exponentielle des infrastructures numériques.
Cependant, cette posture de rupture soulève de nombreuses questions pratiques et théoriques :
- La question de l’efficacité politique : S’agit-il d’opérer une rupture individuelle, en espérant un effet d’agrégation d’actions isolées ? Cette approche ne risque-t-elle pas de conduire à une forme d’impuissance politique, voire à une éthique de la vertu déconnectée des enjeux systémiques dont pourrait profiter le vectofascisme y voyant le mépris des élites culturelles ? La position de retrait n’est-elle pas une position de pureté qui nous coupe de tout pouvoir d’agir en espérant rester indemne ? Débrancher l’IA n’est-ce pas finalement SE débrancher de l’IA en laissant le champ libre à nos ennemis et en prétextant une position de retrait et de pureté?
- La question de l’exemplarité : S’agit-il de construire des « zones d’indemnes » à l’écart du système technicien, comme le suggérait Jacques Ellul ? Ces zones peuvent-elles véritablement servir de modèles alternatifs, ou risquent-elles de n’être que des enclaves privilégiées sans portée transformatrice ?
- La question de l’action directe : S’agit-il d’opérer des ruptures de flux par des formes de sabotage ou de résistance active ? Comment éviter que ces actions ne reproduisent la logique violente qu’elles prétendent combattre ?
- La question du vide politique : Si l’arrêt n’est pas immédiatement massif et planifié, ne risque-t-il pas de créer un vide dont les « vectofascistes » pourraient profiter pour poursuivre leur propagande statistique et leur monopolisation des infrastructures numériques ? Essentialiser un certain type d’impact de l’IA n’est-ce pas finalement donner encore plus de crédit aux fascistes ?
Cette pensée de la rupture, si elle témoigne d’une urgence légitime, risque de s’enfermer dans une aporie : d’un côté, l’impossibilité pratique d’un arrêt global et coordonné ; de l’autre, l’inefficacité politique des ruptures locales et partielles. Elle n’interroge pas la nature exacte des flux qu’elle perçoit comme un continuum infernal alors que ceux-ci sont plus irréguliers.
Au-delà de la Dialectique Technophilie/Technophobie
Pour dépasser cette impasse, il faut suspendre la dialectique trop familière de l’enthousiasme technophile et de la conjuration technophobe. Cette opposition binaire — être « pour » ou « contre » la technologie — fonctionne comme un piège qui empêche la pensée. Elle reproduit précisément la logique binaire qui caractérise le paradigme computationnel que nous prétendons critiquer.
Jacques Derrida nous inviterait à déconstruire cette opposition, à montrer comment chaque pôle contient déjà la trace de son contraire, comment technophilie et technophobie s’alimentent mutuellement dans une économie de l’enthousiasme conjuratoire (Spectres de Marx, 1994). Le technophile qui célèbre la « disruption » et l’accélération technologique et le technophobe qui rêve d’un retour à une nature préservée partagent souvent les mêmes présupposés métaphysiques : une conception instrumentale de la technique, une séparation nette entre nature et culture, une vision de l’humain comme sujet autonome, un privilège donné à la pensée, c’est-à-dire à la volonté de puissance instrumentale.
L’époché (suspension du jugement) que nous proposons n’est pas une neutralité relativiste, mais une mise en suspens des catégories qui structurent habituellement notre rapport à la technique parce que ces catégories sont aussi un fruit de notre relation à la technique. Cette suspension doit nous permettre de poser trois questions fondamentales :
Trois Questions
– La question anthropologique de la technique
Est-il possible de séparer l’anthropologique et le technologique ? Cette question nous invite à repenser la relation constitutive entre l’humain et la technique. Depuis les travaux d’André Leroi-Gourhan jusqu’à ceux de Bernard Stiegler, nous savons que la technique n’est pas un simple outil extérieur à l’humain, mais le processus même de son extériorisation et de son individuation. L’humain se constitue techniquement, par l’externalisation de ses fonctions et la création de prothèses qui transforment en retour ses capacités cognitives et sensibles.
Dans cette perspective, l’objectif ne saurait être d’arrêter la technique — ce qui reviendrait à arrêter l’humain — mais de juguler un certain régime de la technique, un certain agencement techno-anthropologique qui favorise la consumation planétaire. La question devient alors : quelles techniques pour quels humains ? Quels agencements techno-anthropologiques permettraient de sortir de la logique consumériste sans renoncer à la technique comme dimension constitutive de l’humanité ?
Il s’agit de refuser la conception de technique au singulier (ou d’IA au singulier) pour définir des régimes différenciés de finitude excédée.
– La question historiale : l’IA à l’ère de l’extinction
Quelle est la portée historiale de l’IA à l’ère de l’extinction ? Cette question nous invite à penser l’IA non pas simplement comme une technologie parmi d’autres, mais comme un événement dans l’histoire de l’être, pour reprendre le vocabulaire heideggérien. L’IA n’est pas seulement un outil toxique, mais l’expression d’une « conjonction destinale » qui articule notre rapport au monde, à la vérité, à la mémoire.
Pourquoi dépensons-nous tant d’énergie et de ressources pour élaborer une IA alors même que nous sommes confrontés à la possibilité de notre extinction ? Cette question nous renvoie à ce que Georges Bataille nommait la « part maudite » — cette part d’excès, de dépense improductive qui caractérise les économies humaines. L’IA représenterait alors une forme ultime de dépense, une consumation de ressources qui témoigne moins d’une rationalité instrumentale que d’une angoisse existentielle face à la finitude. Cette angoisse peut être une conjuration vectofascisme ou l’affirmation d’une finitude excédée.
La prolifération de fichiers récursifs, de contenus générés automatiquement, peut être interprétée comme une tentative désespérée de préserver une trace, de constituer une archive qui survivrait à notre disparition. L’IA deviendrait ainsi une forme de « pharmakon » (à la fois remède et poison, selon la lecture que Derrida fait de Platon) : d’un côté, elle accélère notre disparition par son empreinte écologique ; de l’autre, elle prétend préserver notre mémoire collective en la transformant en données.
– La question économique : au-delà de la reproductibilité industrielle
L’IA appartient-elle à la reproductibilité technique héritée de la révolution industrielle ou ouvre-t-elle à d’autres manières de produire et d’autres affects que le consumérisme ? Cette question nous amène à penser l’IA non pas comme une simple continuation de la logique industrielle, mais comme une potentielle rupture paradigmatique.
La reproductibilité industrielle repose sur la production en série d’objets identiques, dissimulant leurs conditions de production et favorisant des économies d’échelle qui rendent nécessaire une consommation de masse. L’IA générative, en revanche, introduit un principe de variation algorithmique : chaque contenu généré est potentiellement unique, résultat d’un calcul probabiliste plutôt que d’une reproduction mécanique.
Cette différence technique pourrait-elle ouvrir la voie à des formes économiques post-consuméristes et à de nouveaux affects ? Les structures de production distribuées, les communs numériques, les formes d’intelligence collective augmentée pourraient-ils constituer des alternatives à la logique extractiviste dominante ? Ou la variation algorithmique n’est-elle qu’une sophistication du même système, une personnalisation de masse qui renforce l’empire du même sous l’apparence de la différence ?
De la Différance Technologique
Pour dépasser l’alternative stérile entre technophilie acritique et technophobie nostalgique, nous proposons une « différance » technologique (en référence au concept derridien). Cette approche accueille l’ambivalence constitutive de la technique — à la fois pharmakon (remède et poison) et supplément (ce qui complète et ce qui remplace) — et refuse les positions essentialistes qui attribueraient à la technique une essence bonne ou mauvaise.
Cette différance implique plusieurs principes :
- Le principe de non-substitution : refuser la logique selon laquelle la technique devrait systématiquement se substituer ou mimer à l’identique des pratiques humaines antérieures, pratiques qu’on supposerait être le modèle de la technique. L’IA ne devrait pas viser à remplacer l’intelligence humaine, mais à créer des formes d’intelligence. La non-substitution va aussi dans l’autre sens : l’IA a sa différance. La relation humain-technique est une aliénation réciproque.
- Le principe de visibilité : rendre visibles les infrastructures et les ressources mobilisées par les technologies numériques, contre la logique d’occultation qui caractérise le consumérisme. Cela implique de développer des interfaces qui révèlent plutôt que dissimulent les conditions matérielles de leur fonctionnement et une transformation radicale du calcul économique qui doit rendre et intégrer les externalités négatives. Cette intégration serait à même de rendre à la réalité nos productions même si celles-ci nous excèdent.
- Le principe de la lenteur expérimentale : contre l’accélération technologique qui caractérise le régime consumériste, défendre le droit à des temporalités multiples et désynchronisées, à des usages technologiques différenciés. Car ce qui caractérise notre époque est que l’innovation dépasse les usages et l’absence d’expérimentation véritable. C’est sans doute ce rythme qui est une des sources de l’écocide. Si nous prenons le temps d’expérimenter en artiste les technologies ceci entraînerait une transformation radicale de notre relation à la technique qui ne serait plus fondée sur la volonté de puissance et l’instrumentalité mais si la coaliénation et l’exploration.
- Le principe des communs : contre la privatisation des infrastructures numériques, défendre des formes de propriété collective et de gouvernance démocratique des technologies, fondées sur le modèle des communs plutôt que sur celui de la marchandise, sur de l’open source plutôt que de l’exploitation. Ces communs posent la question de nouvelles formes de communisme.
La fêlure de nos finitudes excédées
La consumation planétaire n’est pas consubstantielle à l’IA en tant que telle, mais répond à un certain usage et à une certaine conception de cette technologie — conception ancrée dans un imaginaire extractiviste et consumériste hérité de la révolution industrielle et qui occulte, refoule la réalité de son activité.
Penser l’IA au-delà de cet imaginaire et de cette pratique, c’est ouvrir la possibilité d’autres agencements techno-anthropologiques, d’autres régimes de production et de circulation des savoirs, d’autres rapports au temps et à la mémoire. Ce n’est pas en renonçant à la technique, mais en transformant radicalement notre rapport à elle que nous pourrons échapper à la logique de la consumation.
Cette transformation exige un double mouvement : d’une part, une déconstruction des présupposés métaphysiques qui structurent notre rapport actuel à la technique (dualisme nature/culture, conception instrumentale, fantasme de maîtrise) ; d’autre part, l’expérimentation concrète de formes alternatives d’agencement techno-anthropologiques, fondées sur des principes écologiques, démocratiques et émancipateurs.
Entre l’accélérationnisme technophile qui célèbre la « disruption » et le primitivisme technophobe qui rêve d’un retour à la nature, il existe une multiplicité de voies à explorer : des technologies conviviales au sens d’Ivan Illich, des low-techs créatives, des infrastructures numériques gérées comme des communs, des intelligences artificielles conçues pour amplifier, aliéner, différer plutôt que remplacer les capacités humaines. C’est cette dernière voie qui me semble le plus radicale et prometteuse.
La question n’est pas de savoir si nous devons accepter ou refuser l’IA en bloc, comme si une technique se réduisait au logos de son concept, mais quelle IA nous voulons et pour quelle société. C’est en posant cette question politique plutôt qu’instrumentale que nous pourrons échapper à la fausse alternative entre technophilie acritique et technophobie nostalgique, et ouvrir la voie à des agencements techno-anthropologiques qui ne soient plus au service de la consumation planétaire, mais de l’émancipation collective : l’accélérationnisme n’est pas nécessairement celui de la consumation et de la domination, mais peut être celui de l’expérimentation qui est paradoxalement celui qui diffère, retient, retarde, diverge, ajourne, désynchronise. Nous pourrions perdre un temps infini avec l’IA, le temps de nos existences jusqu’au point où elles seraient différentes d’elles-mêmes.