Se déconnecter ne déconnecte pas l’IA / Disconnecting yourself doesn’t disconnect AI
L’objection de conscience proposée par l’Atécopol (https://atecopol.hypotheses.org/13082) procède d’une erreur stratégique et philosophique qu’on ne saurait attribuer à un manque de sincérité mais bien à un défaut de pensée dialectique et matérielle. Ce texte traite l’IA comme une entité monolithique alors qu’elle constitue un archipel de technologies hétérogènes dont les impacts varient de plusieurs ordres de grandeur.
Une requête Llama exécutée localement consomme vingt-neuf fois moins d’énergie qu’une requête ChatGPT sur infrastructure centralisée (Greenspector, « Quels impacts environnementaux pour les IA locales sur nos smartphones ? », septembre 2025, https://greenspector.com/intelligence-artificielle-smartphone-autonomie/). L’écart entre modèles spécialisés et plateformes commerciales peut atteindre un facteur soixante-et-un mille selon l’AI Energy Score publié par Hugging Face, Carnegie Mellon, Cohere et Salesforce en février 2025 (LeMagIT, https://www.lemagit.fr/actualites/366619735/). Agréger sous l’étiquette IAg les systèmes embarqués de transcription automatique, les modèles ouverts d’analyse de données scientifiques et les fermes d’entraînement industrielles revient à confondre délibérément infrastructure et usage, matérialité et concept.
Cette confusion n’est pas innocente. Elle naturalise précisément ce qu’elle prétend dénoncer en érigeant la capture capitaliste en essence technologique, là où les données empiriques montrent une diversité irréductible des configurations possibles. C’est exactement ce que Mark Fisher identifie comme le mécanisme central du réalisme capitaliste dans son ouvrage éponyme de 2009 : non pas l’affirmation positive d’un système mais la fermeture de l’imaginaire des alternatives. Fisher écrit que le réalisme capitaliste correspond à cette sensation diffuse que non seulement le capitalisme est le seul système viable, mais qu’il est désormais impossible d’imaginer même une alternative cohérente (“Capitalist Realism: Is There No Alternative?”, Zero Books, 2009). L’objection de conscience face à l’IAg reproduit structurellement ce geste en prenant l’appropriation capitaliste actuelle des technologies d’apprentissage automatique pour leur essence inaltérable. En refusant de distinguer les modalités techniques d’implémentation, en amalgamant systématiquement plateformes centralisées et solutions décentralisées, le manifeste performe exactement la clôture qu’il prétend combattre.
Il transforme un rapport de force politique contingent en nécessité technique, une configuration historique particulière en destin ontologique.
Or cette opération philosophique diffère de l’objection de conscience traditionnelle face à la guerre. L’objecteur de conscience refuse de participer à un acte dont la finalité est intrinsèquement négative : tuer des êtres humains. La guerre constitue un objet éthiquement négatif par essence, indépendamment de ses modalités d’exécution. Qu’elle mobilise des fusils ou des drones, des tranchées ou des bombardements stratégiques, la guerre vise la destruction de vies humaines. L’objection de conscience trouve ici sa légitimité dans le refus d’un mal substantiel.
Mais l’IA au sens large ne constitue pas un objet négatif par essence. Un algorithme de prédiction météorologique, un système d’aide au diagnostic médical, un outil d’analyse de corpus littéraires n’ont rien d’intrinsèquement mortifère. Ce qui pose problème n’est pas la technique de l’apprentissage automatique en soi mais son appropriation par des oligopoles privés, son déploiement dans des infrastructures énergétiquement désastreuses, son instrumentalisation pour la surveillance de masse et l’exploitation du travail. Traiter l’IAg comme équivalente à la guerre revient donc à naturaliser cette appropriation particulière comme essence technique, à confondre radicalement structure technologique et rapport social de production.
Cette confusion produit des effets politiques catastrophiques parce qu’elle renforce dialectiquement l’objet même de sa critique. En déclarant l’IAg intrinsèquement incompatible avec nos valeurs, le manifeste abandonne tout levier d’action sur les conditions concrètes de son développement. L’objection de conscience déconnecte ses signataires de l’IA mais ne déconnecte en rien l’IA elle-même.
Pendant que certains refuseront d’utiliser toute forme d’IA, les vectofascistes et capitalistes qu’ils dénoncent à juste titre auront le champ totalement libre pour façonner seuls les usages, orienter les développements techniques, définir les normes sociales d’acceptabilité et verrouiller les futurs possibles. Cette asymétrie n’est pas un effet secondaire regrettable de la stratégie proposée mais sa conséquence logique inévitable. En renonçant à intervenir sur le contenu même des technologies, l’objection de conscience garantit le monopole de ceux qui n’ont aucun scrupule à les développer selon leurs intérêts.
Il faut le dire clairement : les préoccupations environnementales soulevées par le manifeste sont fondées. Les chiffres sont accablants. L’entraînement de GPT-3 a généré l’équivalent de 626 000 kg de CO₂ selon les estimations initiales, chiffre que Carbone4 a réévalué entre 9000 et 19 000 tonnes de CO₂ équivalent en prenant en compte un périmètre complet (Bon Pote, « IA : le vrai coût environnemental de la course à l’IA », septembre 2025, https://bonpote.com/intelligence-artificielle-le-vrai-cout-environnemental-de-la-course-a-lia/). Meta a utilisé 39 millions d’heures de GPU pour entraîner Llama 3.1, soit l’équivalent de 4500 années de calcul continu et 11 GWh de consommation énergétique.
L’Agence Internationale de l’Énergie prévoit un doublement de la consommation des datacenters d’ici 2030, passant de 460 TWh en 2022 à 945 TWh. Le Shift Project estime que les datacenters français atteindront 33-45 TWh en 2035, soit l’équivalent de l’intégralité de la production nucléaire supplémentaire envisagée (« IA, données, calcul : quelles infrastructures dans un monde décarboné ? », octobre 2025, https://theshiftproject.org/publications/intelligence-artificielle-centres-de-donnees-rapport-final/). L’extractivisme minier nécessaire aux infrastructures numériques génère des dégâts environnementaux et humains révoltants, particulièrement en Afrique et en Amérique latine. L’exploitation du travail du clic dans des pays à bas salaires constitue une forme d’ultra-prolétarisation inacceptable.
Ces constats sont justes. Accablants même. Mais le manifeste tire de cette analyse juste une conclusion stratégiquement contestable : puisque l’IAg dans sa configuration actuelle est écologiquement insoutenable, il faut la rejeter en bloc. Cette logique occulte complètement les rapports de proportion qui existent entre différentes configurations techniques. Affirmer que l’IAg demeure nécessairement colossal même parfaitement écoconçue occulte les données empiriques disponibles. Une étude de Stanford publiée en novembre 2024 démontre qu’un routage intelligent entre systèmes locaux et centralisés réduit la consommation énergétique de quatre-vingts virgule quatre pour cent et les coûts informatiques de soixante-treize virgule huit pour cent (Xpert Digital, « Recherche de Stanford : L’IA locale est-elle soudainement économiquement supérieure ? », novembre 2024, https://xpert.digital/fr/pourquoi-l-39-ia-locale-est-elle-soudainement-economiquement-superieure-/).
L’entraînement de DeepSeek R1 a mobilisé environ deux mille GPU contre vingt-cinq mille pour GPT-4, démontrant qu’il existe des trajectoires technologiques radicalement distinctes même au sein des modèles de langage généralistes. L’AI Energy Score montre que le modèle Ministral 8B consomme 20,87 GPU-Wh pour mille requêtes contre 1719 GPU-Wh pour Llama 3-70B et 3426 GPU-Wh pour Command R Plus. La taille du modèle corrèle directement avec l’impact énergétique mais des alternatives légères existent pour de nombreux usages. Des modèles comme Llama-3-8b atteignent des performances comparables à ChatGPT 3.5 pour des tâches spécialisées avec une empreinte dix fois inférieure (Académie de Versailles, « Quel est l’impact environnemental d’une IA générative ? », mars 2025, https://drane-versailles.region-academique-idf.fr/spip.php?article1167).
Le manifeste invoque l’effet rebond pour suggérer que toute amélioration d’efficacité serait mécaniquement annulée par l’accroissement des usages. Le paradoxe de Jevons, formulé en 1865 puis actualisé par Khazzoom et Brookes dans les années 1980, décrit effectivement un phénomène réel : lorsque les gains d’efficacité réduisent le coût d’usage d’une ressource, cela peut stimuler sa demande au point que la consommation totale augmente malgré l’amélioration technique (Wikipédia, « Paradoxe de Jevons », https://fr.wikipedia.org/wiki/Paradoxe_de_Jevons). Mais ériger ce mécanisme en principe absolu relève du fatalisme politique. Cela revient à dire que puisque toute amélioration technique sera récupérée par la logique du profit et de l’expansion, il faut renoncer à toute amélioration. Cette position abandonne précisément le terrain de la régulation politique, celui des choix collectifs qui pourraient coupler gains d’efficacité et limitation des usages. Un rapport de 2023 estime qu’à chaque gain de 1 % d’efficience énergétique, on enregistre en moyenne un rebond de +0,7 % de la consommation énergétique globale (Energie Domestique, « Paradoxe de Jevons », juillet 2025, https://www.energie-domestique.com/dossiers/paradoxe-de-jevons/). Ce chiffre montre que l’effet rebond est réel mais pas total, qu’il existe une marge de manœuvre pour des politiques publiques qui combinent efficacité technique et sobriété des usages.
La vraie question devient alors : comment construire des alternatives concrètes plutôt que de céder le terrain par avance ? Les perspectives existent et sont matériellement possibles.
Premièrement, la mise en commun de la puissance de calcul et d’entraînement. Plutôt que de laisser OpenAI, Google et Meta monopoliser les infrastructures, on pourrait imaginer des centres de calcul mutualisés à l’échelle européenne, gérés démocratiquement, financés publiquement. Des institutions de recherche, des universités, des collectivités locales pourraient partager des ressources GPU pour entraîner des modèles ouverts sans dépendre des plateformes états-uniennes. Le modèle existe déjà partiellement avec les grilles de calcul scientifique comme celle du CERN. Il s’agirait de l’étendre et de le démocratiser pour l’apprentissage automatique.
Deuxièmement, le soutien massif à la recherche sur des modèles plus écologiques. Les travaux sur l’apprentissage fédéré permettent d’entraîner des modèles sans centralisation des données, réduisant drastiquement les besoins en infrastructure. Les architectures de type mixture-of-experts activent sélectivement des sous-réseaux spécialisés plutôt que de mobiliser l’intégralité du modèle, diminuant la consommation par requête de quarante à soixante pour cent. Les travaux sur la distillation de connaissances transfèrent les capacités de grands modèles vers des architectures compactes exécutables localement. L’intelligence par watt des systèmes locaux s’est améliorée de cinq virgule trois fois en deux ans selon Stanford, rendant économiquement viable le déploiement décentralisé.
Ces directions de recherche ne reçoivent qu’une fraction infime des investissements comparé aux centaines de milliards engloutis dans la course à la taille des modèles. Selon Reuters, OpenAI, Google, Microsoft et Meta ont collectivement investi plus de 200 milliards de dollars dans les infrastructures centralisées. Réorienter ne serait-ce que 10 % de ces sommes vers la recherche sur l’efficience énergétique et les architectures distribuées transformerait radicalement les trajectoires possibles.
Troisièmement, l’imposition de normes environnementales contraignantes. Obliger les acteurs industriels à publier l’empreinte carbone détaillée de leurs modèles, de l’entraînement à l’inférence. Taxer la consommation énergétique des datacenters IA selon leur intensité carbone. Interdire l’entraînement de modèles géants au-delà d’un certain seuil d’émissions sans justification d’utilité publique. Conditionner l’accès au marché européen à des critères stricts de transparence et d’impact environnemental. Aucune de ces mesures n’est techniquement impossible, elles sont politiquement difficiles parce que les rapports de force actuels favorisent les oligopoles.
Quatrièmement, le développement de modèles spécialisés plutôt que généralistes. Un modèle entraîné spécifiquement pour l’analyse de données médicales ou la traduction scientifique peut être infiniment plus léger qu’un GPT-4 tout en étant plus performant sur sa tâche précise. Cette spécialisation permet de réduire drastiquement l’empreinte tout en améliorant les performances. Mais elle va à l’encontre de la logique commerciale des plateformes qui cherchent à vendre un outil universel générant un maximum d’usages donc de profits.
Cinquièmement, la régulation démocratique des usages. Toutes les applications de l’IA ne se valent pas. Utiliser l’apprentissage automatique pour optimiser les réseaux électriques ou prédire les maladies rares n’a pas la même valeur sociale que générer des deepfakes ou personnaliser de la publicité. Une société pourrait collectivement décider d’allouer prioritairement les ressources de calcul disponibles aux usages socialement utiles. Cela exige une délibération démocratique sur les finalités, exactement ce que court-circuite l’appropriation capitaliste actuelle.
La comparaison avec l’écriture proposée dans le document d’accompagnement du manifeste révèle cette confusion entre essence technique et appropriation sociale. Le texte affirme que l’IAg diffère radicalement de l’écriture par sa dépendance infrastructurelle et son opacité, mais cette distinction ignore délibérément que toute technique d’inscription a toujours reposé sur des infrastructures sociales complexes et des rapports de pouvoir asymétriques.
L’écriture manuscrite médiévale nécessitait des scriptoriums monastiques, des corporations de copistes soumises à des règles strictes, un accès rigoureusement contrôlé au parchemin et à l’encre. Seule une infime élite cléricale et aristocratique maîtrisait cette technologie dont les masses étaient radicalement exclues. L’imprimerie a créé une dépendance massive aux presses mécaniques détenues par quelques acteurs économiques puissants, générant d’ailleurs des résistances identiques de la part des copistes qui dénonçaient la prolétarisation de leur métier et la perte de qualité.
L’argument selon lequel l’IAg provoquerait une dépossession cognitive reproduit exactement les craintes exprimées par Socrate contre l’écriture dans le Phèdre : l’écriture détruirait la mémoire, affaiblirait la capacité de pensée authentique, créerait une illusion de savoir sans compréhension véritable. Le manifeste évoque justement Socrate pour disqualifier cette critique comme conservatisme réactionnaire avant de la réactiver sous une forme à peine modifiée. Cette contradiction interne mine la cohérence du raisonnement.
Car il ne s’agit nullement de nier que l’écriture a transformé les capacités cognitives humaines, parfois en les appauvrissant dans certaines dimensions. Les aèdes homériques possédaient effectivement des capacités mémorielles prodigieuses que nous avons largement perdues. Mais cette transformation n’était pas une essence immanente de la technique d’inscription mais le résultat de son appropriation sociale particulière, des rapports de pouvoir qui structuraient son accès, des finalités pour lesquelles elle était mobilisée.
Dire aujourd’hui que l’écriture fut globalement émancipatrice ne signifie pas qu’elle l’était intrinsèquement mais que les luttes sociales ont progressivement démocratisé son accès, détourné ses usages initialement disciplinaires, construit des pratiques alternatives. L’alphabétisation universelle ne coulait pas de source de l’invention de l’imprimerie mais résultait de combats politiques séculaires. En refusant d’envisager qu’une transformation similaire soit possible pour l’IA, l’objection de conscience naturalise son état présent comme destin technique.
Les données disponibles montrent une hétérogénéité des impacts selon les configurations. L’écart énergétique entre Apple M4 Max et Nvidia B200 n’est que de un virgule cinq selon les mesures disponibles, indiquant que les processeurs grand public approchent rapidement l’efficience des accélérateurs professionnels. Les modèles quantifiés permettent d’exécuter localement des architectures complexes avec une consommation mémoire réduite de soixante-quinze pour cent tout en maintenant des performances acceptables pour des tâches spécialisées.
Un exemple concret. Le modèle LlaMa 3-70B exécuté sur plusieurs GPU H100 consomme 1719 GPU-Wh pour mille requêtes. Le modèle Ministral 8B consomme 20,87 GPU-Wh pour le même nombre de requêtes, soit un facteur quatre-vingts. Pour certaines tâches spécialisées, Ministral 8B offre des performances comparables. Le choix entre ces deux architectures n’est pas neutre : il représente potentiellement une réduction d’impact environnemental de quatre-vingt-dix-huit pour cent pour un usage équivalent.
Ces évolutions techniques ouvrent concrètement la possibilité de configurations hybrides où les traitements sensibles restent locaux tandis que seules les requêtes non-critiques transitent par des infrastructures mutualisées. Refuser d’examiner ces architectures distribuées au motif qu’elles participent du même système technologique global revient à abandonner toute capacité d’action graduée.
Les modèles de raisonnement comme o1 et o3-mini d’OpenAI consomment certes jusqu’à quatre-vingt-dix-sept fois plus d’énergie que les modèles traditionnels selon « The Energy Cost of Reasoning » (2025) parce qu’ils génèrent en moyenne quatre virgule quatre fois plus de tokens. Mais cette augmentation n’est pas une fatalité technique mais le résultat de choix architecturaux particuliers privilégiant la performance brute sur l’efficience. Comme l’alerte la chercheuse Sasha Luccioni : « Si nous adoptions largement ce paradigme, la consommation énergétique d’inférence exploserait » (citée dans Bon Pote, septembre 2025).
Justement. N’adoptons pas largement ce paradigme. Battons-nous pour que les ressources de recherche et développement s’orientent vers l’efficience plutôt que vers la course à la taille. C’est précisément ce que l’objection de conscience rend impossible en abandonnant tout levier d’action sur ces orientations.
Le risque politique majeur réside précisément dans cette asymétrie structurelle. L’objection de conscience déconnecte ses signataires de l’IA mais ne déconnecte en rien l’IA de la société. Les oligarques de la Silicon Valley, les technocrates de Pékin, les entrepreneurs fascisants qui affluent autour de Trump n’attendront pas l’autorisation des universitaires pour développer leurs technologies.
Pendant que les objecteurs constituent des îlots de résistance, euphémisme révélateur de l’impuissance assumée,, les acteurs dominants façonneront seuls l’ensemble du paysage technologique. Ils définiront quelles applications sont légitimes, quels usages sont normaux, quelles régulations sont acceptables. Ils orienteront les investissements de recherche, structureront les formations, imposeront les standards industriels. L’objection de conscience garantit que cette transformation se fera sans aucune voix dissidente capable d’infléchir concrètement les trajectoires, parce que toutes les voix critiques se seront exclues du jeu par principe moral.
Cette asymétrie n’est pas accidentelle mais structurelle. Le capitalisme n’a pas besoin que tout le monde y adhère activement, il lui suffit que ses critiques renoncent à toute action efficace. L’objection de conscience performe exactement cette auto-neutralisation de la critique. Elle transforme une analyse juste des rapports de domination en justification du renoncement, une lucidité sur les dangers en paralysie politique. Elle permet de préserver une pureté morale au prix de toute efficacité politique, de cultiver une bonne conscience au prix de l’abandon du terrain.
L’histoire des mouvements de résistance technologique montre que l’efficacité politique requiert une bataille sur le contenu même des technologies, non un retrait moral. Les luddites ne refusaient pas les machines par principe mais exigeaient leur contrôle démocratique par les travailleurs. Ils détruisaient les métiers mécaniques parce qu’ils servaient à déqualifier et exploiter, pas par technophobie abstraite. Le mouvement pour les logiciels libres n’a pas pratiqué l’objection de conscience informatique mais construit patiemment des alternatives qui s’imposent aujourd’hui dans de nombreux domaines : Linux, Firefox, LibreOffice, Python, etc.
La question de la souveraineté technologique révèle particulièrement cette capitulation stratégique. Le texte reconnaît l’importance géopolitique du contrôle algorithmique puis balaie immédiatement cette considération en invoquant les difficultés industrielles européennes. Cette capitulation par principe laisse aux oligarques de la Silicon Valley et aux technocrates de Pékin le monopole absolu de la définition des normes et usages.
Pourtant l’histoire technologique démontre que les alternatives, bien qu’imparfaites, permettent de maintenir des espaces de régulation démocratique. Le RGPD n’aurait jamais existé sans une certaine autonomie juridique et technique européenne face aux plateformes américaines. Abandonner toute ambition de développement de modèles ouverts sous prétexte que Mistral peine à rivaliser avec OpenAI revient à accepter par avance la défaite.
Les quarante-cinq térawattheures projetés pour les datacenters français en 2035 ne constituent pas une fatalité mais le résultat de choix politiques d’investissement dans des infrastructures centralisées plutôt que distribuées. Rien ne justifie techniquement cette trajectoire hormis la logique de profit maximalisée par les acteurs industriels dominants. Mais en refusant de distinguer entre ces configurations possibles, en traitant l’IAg comme bloc homogène, l’objection de conscience abandonne tout levier d’action sur ces choix structurants.
Les perspectives de développement technologique ignorées par ce manifeste ouvrent des voies d’action concrètes. Les recherches sur l’apprentissage fédéré permettent d’entraîner des modèles sans centralisation des données, réduisant drastiquement les besoins en infrastructure tout en préservant la confidentialité. Les architectures de type mixture-of-experts activent sélectivement des sous-réseaux spécialisés plutôt que de mobiliser l’intégralité du modèle.
Les travaux sur la distillation de connaissances transfèrent les capacités de grands modèles vers des architectures compactes exécutables localement. Les recherches sur la quantification permettent de réduire la taille des poids des modèles de soixante-quinze pour cent tout en maintenant des performances acceptables. Les modèles sparses, où seule une fraction des paramètres est activée pour chaque requête, permettent de diviser par dix la consommation énergétique par inférence.
Aucune de ces directions ne résout miraculeusement les problèmes écologiques. Mais toutes constituent des leviers d’action pour infléchir les trajectoires dominantes. Refuser a priori toute exploration de ces possibles au nom d’un principe absolu revient à naturaliser l’état présent comme horizon indépassable.
La confusion fondamentale consiste précisément à identifier appropriation capitaliste et essence technologique. L’infrastructure actuelle des modèles de langage résulte de choix d’investissement massifs dans des architectures centralisées parce qu’elles maximisent les profits par effet de réseau et contrôle propriétaire. Mais rien n’indique technologiquement que cette configuration soit nécessaire plutôt que contingente.
Les travaux académiques sur les modèles ouverts, les architectures distribuées et l’efficience énergétique démontrent la possibilité matérielle d’alternatives radicalement différentes. Le fait que ces alternatives peinent à émerger face aux oligopoles n’invalide pas leur viabilité technique mais révèle un rapport de force politique défavorable que l’objection de conscience ne fait qu’aggraver en abandonnant tout levier d’action.
Il ne s’agit nullement de nier la gravité des problèmes écologiques et sociaux. Les constats du manifeste sur les consommations énergétiques, l’extractivisme minier, l’exploitation du travail du clic sont justes et nécessaires. Mais transformer cette critique juste en refus catégorique de toute exploration technique revient à confondre radicalement analyse de l’ordre existant et paralysie politique.
Les structures profondes qu’il faut penser ne se réduisent pas à l’état présent des rapports de force mais incluent les potentialités matérielles non actualisées, les alternatives techniques étouffées par la logique du profit, les communismes cognitifs rendus possibles par la reproductibilité numérique. Cela implique de maintenir ouverts les espaces d’intervention concrète sur le contenu même des technologies plutôt que de les abandonner par principe moral.
Au-delà des configurations techniques et des rapports de production, il existe une question philosophique plus fondamentale sur notre relation même à la technique. L’IA est-elle condamnée à n’être qu’instrumentale, c’est-à-dire vouée à la maximisation de l’efficacité, à l’accélération productive, à l’optimisation sans fin qui caractérise la volonté de puissance jusqu’à son déchaînement destructeur ? Ou pourrait-elle devenir autre chose en transformant précisément cette instrumentalité en expérimentation ?
Cette distinction n’est pas qu’un jeu conceptuel. L’instrumentalité implique une finalité externe : l’IA sert à produire plus vite, à générer plus de contenus, à maximiser l’extraction de valeur. Cette logique conduit mécaniquement à l’expansion des usages, à la multiplication des requêtes, à la saturation énergétique dénoncée à juste titre. L’expérimentation, au contraire, constitue une forme de relation à la technique qui ralentit au cœur même de son exercice. Expérimenter signifie explorer sans finalité productive immédiate, tâtonner avec les propriétés d’un système, questionner ses possibilités plutôt que les exploiter systématiquement.
Prenons un exemple concret. Utiliser l’IA instrumentalement pour générer automatiquement des comptes-rendus de réunion, des résumés de textes, des contenus marketing s’inscrit dans la logique d’accélération productive qui conduit à l’expansion énergétique. Mais explorer les espaces latents des modèles de diffusion pour comprendre leurs propriétés mathématiques de continuité métamorphique, étudier comment les représentations internes se transforment progressivement, observer les discontinuités et les zones d’instabilité, cela relève d’une tout autre logique. Cette exploration expérimentale ne vise pas l’efficacité productive mais la compréhension des structures, l’expérience des possibles techniques, la découverte de propriétés inattendues.
L’expérimentation ralentit nécessairement parce qu’elle refuse la logique du résultat immédiat. Elle exige du temps pour observer, pour comprendre, pour dévier des trajectoires optimales. Elle s’oppose frontalement à la course à l’échelle qui caractérise le développement capitaliste de l’IA. Transformer l’instrumentalité en expérimentation constituerait donc un levier politique concret de ralentissement inscrit dans la pratique même plutôt qu’imposé de l’extérieur par la régulation.
Cette transformation impliquerait de soutenir massivement la recherche fondamentale non orientée vers des applications immédiates. De créer des espaces institutionnels où l’on peut explorer les propriétés des systèmes d’apprentissage automatique sans pression de valorisation économique. De former des chercheurs et des praticiens à une relation expérimentale plutôt qu’instrumentale aux technologies. De privilégier la compréhension des structures profondes sur l’optimisation des performances. De valoriser la lenteur exploratoire contre l’efficacité productive.
Cela signifierait également de questionner radicalement les métriques d’évaluation. L’instrumentalité se mesure en termes d’efficacité, de vitesse, de coût, de performance. L’expérimentation s’évalue par la richesse des découvertes, la profondeur de la compréhension, l’ouverture de possibles inattendus. Ces deux régimes de valeur sont incompatibles. Le premier conduit mécaniquement à l’expansion quantitative, le second permet un approfondissement qualitatif qui n’exige pas nécessairement plus de ressources.
On pourrait ainsi imaginer des modèles d’IA développés non pour maximiser les performances sur des benchmarks standardisés mais pour permettre l’exploration de leurs propriétés internes. Des architectures conçues pour la transparence et la compréhensibilité plutôt que pour l’efficacité brute. Des systèmes d’apprentissage qui révèlent leurs mécanismes plutôt que de les opacifier dans des milliards de paramètres. Cette orientation de recherche existe déjà marginalement dans les travaux sur l’interprétabilité des réseaux de neurones, sur la visualisation des espaces latents, sur la compréhension des processus d’attention. Mais elle reçoit une fraction dérisoire des investissements comparée à la course aux modèles toujours plus grands et opaques.
L’objection de conscience face à l’IAg, en assimilant la technique à son appropriation actuelle, en refusant de distinguer entre configurations possibles et modalités de relation, abandonne également cette possibilité de transformation de l’instrumentalité en expérimentation. Elle garantit que les vectofascistes et capitalistes auront le monopole complet de la définition des futurs acceptables, y compris le monopole sur les manières mêmes d’être en relation avec ces technologies. Elle transforme une lucidité critique nécessaire en justification du renoncement.
Pendant que les objecteurs cultivent leur pureté morale dans des îlots de résistance, les oligarques technologiques achèveront de verrouiller les trajectoires selon leurs intérêts, imposant partout le modèle instrumental qui seul garantit l’expansion et le profit. Cette asymétrie n’est pas un effet secondaire regrettable mais la conséquence logique d’une stratégie qui confond radicalement refus de l’ordre existant et abandon de toute capacité d’action. La vraie objection ne consiste pas à se déconnecter mais à lutter pour imposer d’autres connexions, d’autres appropriations, d’autres finalités, d’autres manières d’être en relation avec la puissance technique. Cela exige de maintenir ouverts les espaces d’intervention technique, de soutenir les recherches qui explorent plutôt qu’optimisent, de privilégier l’expérimentation qui ralentit contre l’instrumentalité qui accélère, de construire des infrastructures mutualisées contre les oligopoles centralisés, de défendre la spécialisation écologique contre la généralisation énergévore. Tout cela plutôt que de céder par avance ces possibilités à ceux qui n’ont aucun scrupule à les exploiter selon la pure logique du profit et de la domination.
The conscientious objection to AI proposed by Atécopol proceeds from a strategic and philosophical error that cannot be attributed to a lack of sincerity but rather to a failure of dialectical and materialist thinking. This text treats AI as a monolithic entity whereas it constitutes an archipelago of heterogeneous technologies whose impacts vary by several orders of magnitude.
A Llama query executed locally consumes twenty-nine times less energy than a ChatGPT query on centralized infrastructure (Greenspector, “What environmental impacts for local AI on our smartphones?”, September 2025, https://greenspector.com/intelligence-artificielle-smartphone-autonomie/). The gap between specialized models and commercial platforms can reach a factor of sixty-one thousand according to the AI Energy Score published by Hugging Face, Carnegie Mellon, Cohere and Salesforce in February 2025 (LeMagIT, https://www.lemagit.fr/actualites/366619735/). Aggregating under the label “GenAI” embedded automatic transcription systems, open models for scientific data analysis, and industrial training farms amounts to deliberately conflating infrastructure and usage, materiality and concept.
This confusion is not innocent. It naturalizes precisely what it claims to denounce by erecting capitalist capture as technological essence, where empirical data show an irreducible diversity of possible configurations. This is exactly what Mark Fisher identifies as the central mechanism of capitalist realism in his eponymous 2009 work: not the positive affirmation of a system but the closure of the imagination of alternatives. Fisher writes that capitalist realism corresponds to this diffuse sensation that not only is capitalism the only viable system, but that it is now impossible to even imagine a coherent alternative (“Capitalist Realism: Is There No Alternative?”, Zero Books, 2009). Conscientious objection to GenAI structurally reproduces this gesture by taking the current capitalist appropriation of machine learning technologies as their unalterable essence. By refusing to distinguish technical implementation modalities, by systematically amalgamating centralized platforms and decentralized solutions, the manifesto performs exactly the closure it claims to combat.
It transforms a contingent political power relation into technical necessity, a particular historical configuration into ontological destiny.
Yet this philosophical operation differs from traditional conscientious objection to war. The conscientious objector refuses to participate in an act whose purpose is intrinsically negative: killing human beings. War constitutes an ethically negative object by essence, regardless of its methods of execution. Whether it mobilizes rifles or drones, trenches or strategic bombing, war aims at the destruction of human lives. Conscientious objection finds its legitimacy here in the refusal of a substantial evil.
But AI in the broad sense does not constitute a negative object by essence. A weather prediction algorithm, a medical diagnosis assistance system, a literary corpus analysis tool have nothing intrinsically deadly about them. What poses a problem is not the technique of machine learning itself but its appropriation by private oligopolies, its deployment in energetically disastrous infrastructures, its instrumentalization for mass surveillance and labor exploitation. Treating GenAI as equivalent to war therefore amounts to naturalizing this particular appropriation as technical essence, to radically conflating technological structure and social relations of production.
This confusion produces catastrophic political effects because it dialectically reinforces the very object of its critique. By declaring GenAI intrinsically incompatible with our values, the manifesto abandons any lever of action on the concrete conditions of its development. Conscientious objection disconnects its signatories from AI but does not disconnect AI itself in any way.
While some will refuse to use any form of AI, the vector-fascists and capitalists they rightly denounce will have completely free rein to shape uses alone, orient technical developments, define social norms of acceptability, and lock in possible futures. This asymmetry is not a regrettable side effect of the proposed strategy but its inevitable logical consequence. By renouncing intervention on the very content of technologies, conscientious objection guarantees the monopoly of those who have no scruples about developing them according to their interests.
It must be said clearly: the environmental concerns raised by the manifesto are well-founded. The figures are damning. The training of GPT-3 generated the equivalent of 626,000 kg of CO₂ according to initial estimates, a figure that Carbone4 re-evaluated between 9,000 and 19,000 tons of CO₂ equivalent taking into account a complete scope (Bon Pote, “AI: the true environmental cost of the AI race”, September 2025, https://bonpote.com/intelligence-artificielle-le-vrai-cout-environnemental-de-la-course-a-lia/). Meta used 39 million GPU hours to train Llama 3.1, equivalent to 4,500 years of continuous computation and 11 GWh of energy consumption.
The International Energy Agency predicts a doubling of datacenter consumption by 2030, rising from 460 TWh in 2022 to 945 TWh. The Shift Project estimates that French datacenters will reach 33-45 TWh in 2035, equivalent to the entirety of the additional nuclear production envisioned (“AI, data, computation: what infrastructures in a decarbonized world?”, October 2025, https://theshiftproject.org/publications/intelligence-artificielle-centres-de-donnees-rapport-final/). The mining extractivism necessary for digital infrastructures generates revolting environmental and human damage, particularly in Africa and Latin America. The exploitation of click labor in low-wage countries constitutes an unacceptable form of ultra-proletarianization.
These findings are correct. Damning even. But the manifesto draws from this correct analysis a strategically questionable conclusion: since GenAI in its current configuration is ecologically unsustainable, it must be rejected wholesale. This logic completely obscures the proportional relationships that exist between different technical configurations. Claiming that GenAI necessarily remains colossal even when perfectly eco-designed obscures the available empirical data. A Stanford study published in November 2024 demonstrates that intelligent routing between local and centralized systems reduces energy consumption by eighty-point-four percent and computing costs by seventy-three-point-eight percent (Xpert Digital, “Stanford Research: Is Local AI Suddenly Economically Superior?”, November 2024, https://xpert.digital/fr/pourquoi-l-39-ia-locale-est-elle-soudainement-economiquement-superieure-/).
The training of DeepSeek R1 mobilized approximately two thousand GPUs against twenty-five thousand for GPT-4, demonstrating that radically distinct technological trajectories exist even within generalist language models. The AI Energy Score shows that the Ministral 8B model consumes 20.87 GPU-Wh for a thousand queries against 1,719 GPU-Wh for Llama 3-70B and 3,426 GPU-Wh for Command R Plus. Model size correlates directly with energy impact but lightweight alternatives exist for many uses. Models like Llama-3-8b achieve performance comparable to ChatGPT 3.5 for specialized tasks with a footprint ten times smaller (Académie de Versailles, “What is the environmental impact of generative AI?”, March 2025, https://drane-versailles.region-academique-idf.fr/spip.php?article1167).
The manifesto invokes the rebound effect to suggest that any efficiency improvement would be mechanically canceled by the increase in uses. The Jevons paradox, formulated in 1865 then updated by Khazzoom and Brookes in the 1980s, does indeed describe a real phenomenon: when efficiency gains reduce the cost of using a resource, this can stimulate its demand to the point that total consumption increases despite technical improvement (Wikipedia, “Jevons Paradox”, https://fr.wikipedia.org/wiki/Paradoxe_de_Jevons). But erecting this mechanism as an absolute principle amounts to political fatalism. This amounts to saying that since any technical improvement will be recuperated by the logic of profit and expansion, we must renounce any improvement. This position abandons precisely the terrain of political regulation, that of collective choices that could couple efficiency gains and limitation of uses. A 2023 report estimates that for each 1% gain in energy efficiency, we register on average a rebound of +0.7% in global energy consumption (Energie Domestique, “Jevons Paradox”, July 2025, https://www.energie-domestique.com/dossiers/paradoxe-de-jevons/). This figure shows that the rebound effect is real but not total, that there is room for maneuver for public policies that combine technical efficiency and sobriety of uses.
The real question then becomes: how to build concrete alternatives rather than cede the terrain in advance? The perspectives exist and are materially possible.
First, the pooling of computing and training power. Rather than letting OpenAI, Google and Meta monopolize infrastructures, we could imagine mutualized computing centers at the European scale, democratically managed, publicly financed. Research institutions, universities, local authorities could share GPU resources to train open models without depending on US platforms. The model already partially exists with scientific computing grids like that of CERN. It would be a matter of extending and democratizing it for machine learning.
Second, massive support for research on more ecological models. Work on federated learning allows training models without data centralization, drastically reducing infrastructure needs. Mixture-of-experts type architectures selectively activate specialized sub-networks rather than mobilizing the entire model, reducing consumption per query by forty to sixty percent. Work on knowledge distillation transfers the capabilities of large models to compact architectures executable locally. The intelligence per watt of local systems has improved by five-point-three times in two years according to Stanford, making decentralized deployment economically viable.
These research directions receive only a tiny fraction of investments compared to the hundreds of billions swallowed in the race for model size. According to Reuters, OpenAI, Google, Microsoft and Meta collectively invested more than $200 billion in centralized infrastructures. Redirecting even just 10% of these sums toward research on energy efficiency and distributed architectures would radically transform possible trajectories.
Third, the imposition of binding environmental standards. Requiring industrial actors to publish the detailed carbon footprint of their models, from training to inference. Taxing the energy consumption of AI datacenters according to their carbon intensity. Prohibiting the training of giant models beyond a certain emission threshold without justification of public utility. Conditioning access to the European market on strict criteria of transparency and environmental impact. None of these measures is technically impossible, they are politically difficult because current power relations favor oligopolies.
Fourth, the development of specialized rather than generalist models. A model trained specifically for medical data analysis or scientific translation can be infinitely lighter than a GPT-4 while being more efficient at its precise task. This specialization allows drastically reducing the footprint while improving performance. But it goes against the commercial logic of platforms that seek to sell a universal tool generating maximum uses and therefore profits.
Fifth, democratic regulation of uses. Not all AI applications are equal. Using machine learning to optimize electrical networks or predict rare diseases does not have the same social value as generating deepfakes or personalizing advertising. A society could collectively decide to allocate available computing resources primarily to socially useful uses. This requires democratic deliberation on ends, exactly what current capitalist appropriation short-circuits.
The comparison with writing proposed in the manifesto’s accompanying document reveals this confusion between technical essence and social appropriation. The text claims that GenAI radically differs from writing through its infrastructural dependence and opacity, but this distinction deliberately ignores that every inscription technique has always rested on complex social infrastructures and asymmetric power relations.
Medieval manuscript writing required monastic scriptoriums, corporations of copyists subject to strict rules, rigorously controlled access to parchment and ink. Only a tiny clerical and aristocratic elite mastered this technology from which the masses were radically excluded. Printing created a massive dependence on mechanical presses owned by a few powerful economic actors, moreover generating identical resistance from copyists who denounced the proletarianization of their trade and loss of quality.
The argument that GenAI would provoke cognitive dispossession exactly reproduces the fears expressed by Socrates against writing in the Phaedrus: writing would destroy memory, weaken the capacity for authentic thought, create an illusion of knowledge without true understanding. The manifesto rightly invokes Socrates to disqualify this critique as reactionary conservatism before reactivating it in a barely modified form. This internal contradiction undermines the coherence of the reasoning.
For it is not at all a matter of denying that writing has transformed human cognitive capacities, sometimes impoverishing them in certain dimensions. Homeric bards did indeed possess prodigious memory capacities that we have largely lost. But this transformation was not an immanent essence of the inscription technique but the result of its particular social appropriation, of the power relations that structured its access, of the purposes for which it was mobilized.
To say today that writing was globally emancipatory does not mean that it was so intrinsically but that social struggles progressively democratized its access, diverted its initially disciplinary uses, constructed alternative practices. Universal literacy did not flow naturally from the invention of printing but resulted from secular political struggles. By refusing to envisage that a similar transformation is possible for AI, conscientious objection naturalizes its present state as technical destiny.
Available data show a heterogeneity of impacts according to configurations. The energy gap between Apple M4 Max and Nvidia B200 is only one-point-five according to available measurements, indicating that consumer processors are rapidly approaching the efficiency of professional accelerators. Quantized models allow executing complex architectures locally with memory consumption reduced by seventy-five percent while maintaining acceptable performance for specialized tasks.
A concrete example. The LlaMa 3-70B model executed on several H100 GPUs consumes 1,719 GPU-Wh for a thousand queries. The Ministral 8B model consumes 20.87 GPU-Wh for the same number of queries, a factor of eighty. For certain specialized tasks, Ministral 8B offers comparable performance. The choice between these two architectures is not neutral: it potentially represents a ninety-eight percent reduction in environmental impact for equivalent use.
These technical evolutions concretely open the possibility of hybrid configurations where sensitive processing remains local while only non-critical queries transit through mutualized infrastructures. Refusing to examine these distributed architectures on the grounds that they participate in the same global technological system amounts to abandoning any capacity for graduated action.
Reasoning models like o1 and o3-mini from OpenAI do consume up to ninety-seven times more energy than traditional models according to “The Energy Cost of Reasoning” (2025) because they generate on average four-point-four times more tokens. But this increase is not a technical fatality but the result of particular architectural choices privileging raw performance over efficiency. As researcher Sasha Luccioni warns: “If we widely adopted this paradigm, inference energy consumption would explode” (quoted in Bon Pote, September 2025).
Exactly. Let’s not widely adopt this paradigm. Let’s fight so that research and development resources orient toward efficiency rather than toward the race for size. This is precisely what conscientious objection makes impossible by abandoning any lever of action on these orientations.
The major political risk resides precisely in this structural asymmetry. Conscientious objection disconnects its signatories from AI but does not disconnect AI from society in any way. The oligarchs of Silicon Valley, the technocrats of Beijing, the fascistic entrepreneurs who flock around Trump will not wait for authorization from academics to develop their technologies.
While objectors constitute islands of resistance—a revealing euphemism for assumed powerlessness—dominant actors will alone shape the entire technological landscape. They will define which applications are legitimate, which uses are normal, which regulations are acceptable. They will orient research investments, structure training programs, impose industrial standards. Conscientious objection guarantees that this transformation will occur without any dissenting voice capable of concretely influencing trajectories, because all critical voices will have excluded themselves from the game on moral principle.
This asymmetry is not accidental but structural. Capitalism does not need everyone to actively adhere to it, it suffices that its critics renounce any effective action. Conscientious objection performs exactly this self-neutralization of critique. It transforms a correct analysis of domination relations into justification for renunciation, a lucidity about dangers into political paralysis. It allows preserving moral purity at the cost of any political effectiveness, cultivating good conscience at the cost of abandoning the terrain.
The history of technological resistance movements shows that political effectiveness requires a battle over the very content of technologies, not moral withdrawal. The Luddites did not refuse machines on principle but demanded their democratic control by workers. They destroyed mechanical looms because they served to deskill and exploit, not out of abstract technophobia. The free software movement did not practice computer conscientious objection but patiently built alternatives that now prevail in many domains: Linux, Firefox, LibreOffice, Python, etc.
The question of technological sovereignty particularly reveals this strategic capitulation. The text recognizes the geopolitical importance of algorithmic control then immediately sweeps aside this consideration by invoking European industrial difficulties. This principled capitulation leaves Silicon Valley oligarchs and Beijing technocrats the absolute monopoly on defining norms and uses.
Yet technological history demonstrates that alternatives, though imperfect, allow maintaining spaces of democratic regulation. GDPR would never have existed without a certain European legal and technical autonomy from American platforms. Abandoning any ambition to develop open models on the pretext that Mistral struggles to rival OpenAI amounts to accepting defeat in advance.
The forty-five terawatt-hours projected for French datacenters in 2035 do not constitute a fatality but the result of political choices to invest in centralized rather than distributed infrastructures. Nothing technically justifies this trajectory except the profit logic maximized by dominant industrial actors. But by refusing to distinguish between these possible configurations, by treating GenAI as a homogeneous block, conscientious objection abandons any lever of action on these structuring choices.
The technological development perspectives ignored by this manifesto open concrete avenues of action. Research on federated learning allows training models without data centralization, drastically reducing infrastructure needs while preserving confidentiality. Mixture-of-experts type architectures selectively activate specialized sub-networks rather than mobilizing the entire model.
Work on knowledge distillation transfers the capabilities of large models to compact architectures executable locally. Research on quantization allows reducing model weight size by seventy-five percent while maintaining acceptable performance. Sparse models, where only a fraction of parameters is activated for each query, allow dividing energy consumption per inference by ten.
None of these directions miraculously solves ecological problems. But all constitute levers of action to influence dominant trajectories. Refusing a priori any exploration of these possibilities in the name of an absolute principle amounts to naturalizing the present state as an insurmountable horizon.
The fundamental confusion consists precisely in identifying capitalist appropriation and technological essence. The current infrastructure of language models results from massive investment choices in centralized architectures because they maximize profits through network effects and proprietary control. But nothing technically indicates that this configuration is necessary rather than contingent.
Academic work on open models, distributed architectures and energy efficiency demonstrates the material possibility of radically different alternatives. The fact that these alternatives struggle to emerge against oligopolies does not invalidate their technical viability but reveals an unfavorable political power relation that conscientious objection only aggravates by abandoning any lever of action.
It is not at all a matter of denying the gravity of ecological and social problems. The manifesto’s findings on energy consumption, mining extractivism, click labor exploitation are correct and necessary. But transforming this correct critique into categorical refusal of any technical exploration amounts to radically conflating analysis of the existing order and political paralysis.
The deep structures that must be thought do not reduce to the present state of power relations but include non-actualized material potentialities, technical alternatives stifled by the logic of profit, cognitive commons made possible by digital reproducibility. This implies keeping open spaces of concrete intervention on the very content of technologies rather than abandoning them on moral principle.
Beyond technical configurations and relations of production, there exists a more fundamental philosophical question about our very relationship to technique. Is AI condemned to be only instrumental, that is, devoted to maximizing efficiency, to productive acceleration, to endless optimization that characterizes the will to power up to its destructive unleashing? Or could it become something else by precisely transforming this instrumentality into experimentation?
This distinction is not just a conceptual game. Instrumentality implies an external purpose: AI serves to produce faster, to generate more content, to maximize value extraction. This logic mechanically leads to the expansion of uses, to the multiplication of queries, to the energy saturation rightly denounced. Experimentation, on the contrary, constitutes a form of relationship to technique that slows down at the very heart of its exercise. To experiment means to explore without immediate productive purpose, to fumble with the properties of a system, to question its possibilities rather than systematically exploit them.
Let’s take a concrete example. Using AI instrumentally to automatically generate meeting minutes, text summaries, marketing content fits into the logic of productive acceleration that leads to energy expansion. But exploring the latent spaces of diffusion models to understand their mathematical properties of metamorphic continuity, studying how internal representations transform progressively, observing discontinuities and zones of instability, this belongs to a completely different logic. This experimental exploration does not aim at productive efficiency but at understanding structures, experiencing technical possibilities, discovering unexpected properties.
Experimentation necessarily slows down because it refuses the logic of immediate results. It requires time to observe, to understand, to deviate from optimal trajectories. It directly opposes the race to scale that characterizes capitalist AI development. Transforming instrumentality into experimentation would therefore constitute a concrete political lever of slowdown inscribed in practice itself rather than imposed from outside by regulation.
This transformation would imply massively supporting fundamental research not oriented toward immediate applications. Creating institutional spaces where one can explore the properties of machine learning systems without pressure for economic valorization. Training researchers and practitioners in an experimental rather than instrumental relationship to technologies. Privileging understanding of deep structures over optimization of performance. Valuing exploratory slowness against productive efficiency.
This would also mean radically questioning evaluation metrics. Instrumentality is measured in terms of efficiency, speed, cost, performance. Experimentation is evaluated by the richness of discoveries, the depth of understanding, the opening of unexpected possibilities. These two value regimes are incompatible. The first mechanically leads to quantitative expansion, the second allows qualitative deepening that does not necessarily require more resources.
We could thus imagine AI models developed not to maximize performance on standardized benchmarks but to allow exploration of their internal properties. Architectures designed for transparency and comprehensibility rather than for raw efficiency. Learning systems that reveal their mechanisms rather than opacify them in billions of parameters. This research orientation already exists marginally in work on neural network interpretability, on visualization of latent spaces, on understanding attention processes. But it receives a derisory fraction of investments compared to the race for ever larger and more opaque models.
Conscientious objection to GenAI, by assimilating technique to its current appropriation, by refusing to distinguish between possible configurations and modalities of relationship, also abandons this possibility of transforming instrumentality into experimentation. It guarantees that vector-fascists and capitalists will have complete monopoly on defining acceptable futures, including monopoly on the very ways of being in relationship with these technologies. It transforms a necessary critical lucidity into justification for renunciation.
While objectors cultivate their moral purity in islands of resistance, technological oligarchs will complete the locking of trajectories according to their interests, imposing everywhere the instrumental model that alone guarantees expansion and profit. This asymmetry is not a regrettable side effect but the logical consequence of a strategy that radically conflates refusal of the existing order and abandonment of any capacity for action. The true objection does not consist in disconnecting but in struggling to impose other connections, other appropriations, other purposes, other ways of being in relationship with technical power. This requires keeping open spaces of technical intervention, supporting research that explores rather than optimizes, privileging experimentation that slows down against instrumentality that accelerates, building mutualized infrastructures against centralized oligopolies, defending ecological specialization against energy-guzzling generalization. All this rather than ceding these possibilities in advance to those who have no scruples about exploiting them according to the pure logic of profit and domination.
Algorithmic Justice League. Ongoing advocacy and campaigns. Founded by Joy Buolamwini. https://www.ajl.org/.
Anders, Günther. Die Antiquiertheit des Menschen (The Obsolescence of Man). Munich: C.H. Beck, 1956.
Andreessen, Marc. “The Techno-Optimist Manifesto.” 2023.
Aoki Studio. “50 arguments contre l’utilisation de l’IA dans les domaines créatifs.” 2024. https://aokistudio.com/50-arguments-contre-l-utilisation-de-l-ia-dans-les-domaines-creatifs.html.
Association Française Contre l’Intelligence Artificielle (AFCIA). Site web associatif. Accessed December 6, 2025. https://afcia-association.fr/.
Atécopol (Atelier d’Écologie Politique de Toulouse). “Face à l’IA générative, l’objection de conscience.” Manifeste collectif. Toulouse, France, 2024. https://atecopol.hypotheses.org/13082.
Bender, Emily M., Timnit Gebru, Angelina McMillan-Major, and Shmargaret Shmitchell. “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜” In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610-623. New York: ACM, 2021.
Bon Pote. “IA : le vrai coût environnemental de la course à l’IA.” Septembre 2025. https://bonpote.com/intelligence-artificielle-le-vrai-cout-environnemental-de-la-course-a-lia/.
Center for AI Safety (CAIS). “Statement on AI Risk.” May 30, 2023. https://aistatement.com/.
Conniff, Richard. “What the Luddites Can Teach Us About Artificial Intelligence.” TIME Magazine, September 26, 2023. https://time.com/6317437/luddites-ai-blood-in-the-machine-merchant/.
Crawford, Kate. Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. New Haven: Yale University Press, 2021.
“Digital Luddites are rising. They want to democratise tech, not destroy it.” The Conversation, December 3, 2025. https://theconversation.com/digital-luddites-are-rising-they-want-to-democratise-tech-not-destroy-it-251155.
Digital Resistance UK. “Manifesto – Digital Resistance.” March 2025. https://www.digitalresistance.org.uk/manifesto/.
Electronic Frontier Foundation (EFF). Ongoing advocacy for digital rights and AI accountability. https://www.eff.org/.
Ellul, Jacques. The Technological Society (La Technique ou L’Enjeu du siècle). Paris: Armand Colin, 1954. English translation: New York: Knopf, 1964.
Fisher, Mark. Capitalist Realism: Is There No Alternative? Winchester, UK: Zero Books, 2009.
Future of Life Institute. “Pause Giant AI Experiments: An Open Letter.” March 2023. https://futureoflife.org/open-letter/pause-giant-ai-experiments/.
Gebru, Timnit, and Émile P. Torres. “The TESCREAL bundle: Eugenics and the promise of utopia through artificial general intelligence.” First Monday 29, no. 4 (April 2024). https://doi.org/10.5210/fm.v29i4.13636.
Glendinning, Chellis. “Notes toward a Neo-Luddite Manifesto.” Utne Reader, 1990.
Greenspector. “Quels impacts environnementaux pour les IA locales sur nos smartphones ?” Septembre 2025. https://greenspector.com/intelligence-artificielle-smartphone-autonomie/.
Heidegger, Martin. “The Question Concerning Technology” (Die Frage nach der Technik). 1954. In The Question Concerning Technology and Other Essays, translated by William Lovitt, 3-35. New York: Harper & Row, 1977.
Kaczynski, Theodore (Unabomber). “Industrial Society and Its Future” (Unabomber Manifesto), 1995.
Knight, Will. “Elon Musk and other tech leaders call for pause in ‘out of control’ AI race.” CNN Business, March 29, 2023.
Maynard, Andrew. “What is a ‘Luddite’ in the age of ChatGPT and AI?” The Conversation/republished in Fortune, May 12, 2023. https://fortune.com/2023/05/12/what-is-luddite-artificial-intelligence-disruptive-technology-chatgpt/.
Merchant, Brian. Blood in the Machine: The Origins of the Rebellion Against Big Tech. New York: Little, Brown and Company, 2023.
Metz, Cade, and Daisuke Wakabayashi. “Google Researcher Says She Was Fired Over Paper Highlighting Bias in A.I.” The New York Times, December 3, 2020.
Mueller, Gavin. Breaking Things at Work: The Luddites Are Right About Why You Hate Your Job. London: Verso Books, 2021.
Mumford, Lewis. The Myth of the Machine. New York: Harcourt, Brace & World, 1967-1970 (two volumes).
Ng, Alfred. “No one took a six-month ‘pause’ in AI work, despite open letter signed by Musk, others.” Axios, September 22, 2023. https://www.axios.com/2023/09/22/ai-letter-six-month-pause.
PauseAI. “We need to Pause AI.” Organization website and manifesto. Accessed December 6, 2025. https://pauseai.info/.
Safe Street Rebel. “Coning” campaign protests against autonomous vehicles in San Francisco, 2023.
Technoprog (Association Française Transhumaniste). “Manifeste pour l’Égalité Humain-Intelligence Artificielle.” January 31, 2025. https://transhumanistes.com/manifeste-pour-legalite-humain-intelligence-artificielle/.
The Shift Project. “IA, données, calcul : quelles infrastructures dans un monde décarboné ?” Rapport final, octobre 2025. https://theshiftproject.org/publications/intelligence-artificielle-centres-de-donnees-rapport-final/.
Torres, Émile P. “‘Effective Accelerationism’ and the Pursuit of Cosmic Utopia.” Truthdig, December 14, 2023. https://www.truthdig.com/articles/effective-accelerationism-and-the-pursuit-of-cosmic-utopia/.
Troy, Dave. “Understanding TESCREAL — the Weird Ideologies Behind Silicon Valley’s Rightward Turn.” The Washington Spectator, 2023. https://washingtonspectator.org/understanding-tescreal-silicon-valleys-rightward-turn/.
Vincent, James. “Alarmed tech leaders call for AI research pause.” Science (AAAS), April 2023. https://www.science.org/content/article/alarmed-tech-leaders-call-ai-research-pause.
Writers Guild of America. Strike demands and statements regarding AI, 2023.
Yudkowsky, Eliezer. “Pausing AI Developments Isn’t Enough. We Need to Shut it All Down.” TIME Magazine, March 29, 2023. https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/.
Zuckerman, Ethan. “Two warring visions of AI: Understanding TESCREAL.” Prospect Magazine, 2024. https://www.prospectmagazine.co.uk/ideas/technology/64491/two-warring-visions-of-artificial-intelligence-tescreal.