L’IA est-elle un échappatoire ? / Is AI an Escape?

Si réfléchir à l’IA peut être une échappatoire, c’est seulement pour ceux qui y croient comme on croit à un dieu salvateur, c’est-à-dire pour les technoptimistes qui imaginent que la machine apportera ce que notre finitude désespérée recherche : l’infinitude, la maîtrise, la rédemption. Pour eux, parler d’IA, c’est en effet détourner le regard des vrais problèmes : les inégalités qui structurent nos mondes, l’anthropocène qui nous étouffe, l’épuisement des ressources, la précarité généralisée. Les fantasmes d’une singularité technologique, d’une AGI libératrice, occupent l’imaginaire politique et médiatique au moment précis où les apocalypses réelles s’accélèrent. Pendant que les investisseurs versent des dizaines de milliards dans les espoirs d’une intelligence générale capable de tout résoudre, la pollution atmosphérique et les dérèglements climatiques responsables de centaines de milliers de morts chaque année, projections de l’OMS pour 2030-2050 : 250 000 morts supplémentaires annuels, les écosystèmes s’effondrent, les inégalités se creusent. Ces fantasmes structurent les investissements : les mêmes corporations qui devraient payer des taxes climatiques financent des datacenters qui consomment 415 térawatts-heures (TWh) en 2024, projection de doubler à 945 TWh en 2030, soit autant qu’une consommation annuelle du Japon entier. En ce sens, la critique de l’échappatoire est juste : oui, il est facile de rêver à une machine sainte pendant que le réel s’effondre. Mais c’est précisément ce détournement qui nous maintient dans l’inaction.

Ce diagnostic se transforme dès qu’on change d’optique.

Car l’IA n’est une échappatoire que pour ceux qui la surestiment, qui croient à sa puissance salvatrice ou à sa dangerosité apocalyptique. Si on l’aborde au contraire comme un problème immédiat, c’est-à-dire comme le symptôme concentré et le catalyseur qui intensifie les malaises contemporains, alors la réflexion sur l’IA n’est pas un détournement. Elle devient une entrée incontournable pour saisir ce qui se déploie maintenant, concrètement, dans nos institutions, nos systèmes de crédit, nos procédures judiciaires, nos marchés du travail. Et on ne peut pas attendre d’avoir résolu les inégalités pour penser l’IA, elle modifie les inégalités en temps réel. Par exemple, les systèmes de notation de crédit algorithmique font déjà la différence entre obtenir un prêt ou non. Amazon teste ses systèmes de recrutement automatisés, qui rejettent les femmes à cause des biais historiques dans ses données d’entraînement. Les algorithmes de justice prédictive sont déployés dans plusieurs États américains pour évaluer le « risque de récidive », et ils reproduisent systématiquement les discriminations historiques : un homme noir sera évalué comme plus à risque qu’un homme blanc pour le même crime. Ce ne sont pas des problèmes futurs. C’est en cours.

Voilà ce qu’il faut saisir d’abord : nous ne pouvons pas nous débarrasser de la technique. Elle nous fait vivre autant qu’elle nous tue, depuis le moment où nos ancêtres ont inventé l’écriture, l’agriculture, la roue. Chaque geste technique produit simultanément ce qui nous sauve et ce qui nous altère, ce qui nous émancipe et ce qui nous asservit. L’écriture nous a permis de transmettre le savoir, mais elle a aussi créé les classes. L’agriculture nous a nourris, mais elle a créé la propriété et l’accumulation. La vapeur nous a libérés du travail animal, mais elle a enfermé les ouvriers dans les usines. L’IA ne fait que continuer cette danse ambivalente, mais concentrée, accélérée, rendue visible. Elle n’en est pas l’exception : elle en est l’intensification.

Ce qui rend le problème inévitable, c’est que nous ne pouvons pas simplement la rejeter. Nous ne pouvons pas nous enfermer dans une logique luddite naïve qui imaginerait qu’on brûle les serveurs et qu’on revient à un état de nature purifié. Cet état de nature n’a jamais existé. Même le mouvement luddite du XIXe siècle n’était pas contre la technique, c’était une révolte ouvrière spécifique, des artisans luttant contre l’appropriation de la production textile par les capitalistes. Le luddisme était politique, pas technophobe. Et nous, nous sommes depuis longtemps des hybrides, des cyborgs, des créatures excédées par les machines que nous constituons et qui nous constituent. Prétendre nous en libérer par une purification, c’est croire à un état originaire que nous n’avons jamais possédé.

Alors la question véritable n’est pas : comment s’échapper aux IAs ? C’est : que faire avec ? Comment nous positionner face à des machines qui amplifient ce qui existe déjà, qui rendent visible et légalisé ce qui était auparavant latent ou honteux ? Et pour comprendre ça, il faut d’abord voir ce que l’IA expose, révèle, rend impossible à ignorer. Prenons la question de la capture du commun digital. Chaque image que vous téléchargez sur Instagram, chaque poème que vous postez sur un forum, chaque conversation que vous échangez en ligne devient nourriture pour l’apprentissage des modèles IA. Des milliards d’images ont été raclées, scraped, depuis Flickr, DeviantArt, et mille autres sites, souvent sans consentement. Les artistes découvrent que leurs œuvres ont été utilisées pour créer une machine qui peut maintenant les imiter. C’est une prédation brute du commun. Et elle expose quelque chose d’essentiel : ce que nous partagions gratuitement en ligne, ce que nous croyions être un commun démocratique, devient propriété privée convertie en capital. C’est un néocolonialisme cognitif, une capture massive de notre imaginaire collectif.

Cette capture crée ensuite des boucles de rétroaction qui amplifient les inégalités de façon exponentielle, pas linéaire. Voici comment : les datasets d’entraînement reflètent les biais de ce qui est en ligne, lequel reflète les inégalités sociales existantes. Il y a beaucoup plus d’images de personnes blanches que d’autres groupes racialisés sur internet (reflet du pouvoir digital global). Les modèles apprennent ces proportions et ces stéréotypes. Quand on utilise ces modèles pour prendre des décisions, crédit, embauche, justice, ils reproduisent et amplifient ces biais. Ces décisions créent alors des conditions sociales réelles : les gens refusés de prêts deviennent plus pauvres, cherchent à emprunter davantage, deviennent plus visibles comme « à risque », génèrent plus de données de défaut de paiement. La génération suivante de modèles entraînée sur ces données sera encore plus biaisée. C’est une spirale. Et à chaque tour, l’asymétrie s’aggrave. Un petit nombre de grandes entreprises technologiques contrôlent ces modèles et en profitent, accumulent à la fois le capital et le contrôle sur ce qui est pensable, représentable, générable.

Et cette infrastructure de prédation repose entièrement sur du travail rendu invisible. Derrière chaque modèle de langage, chaque image générée, il y a des millions de décisions humaines : l’annotation de données. Des travailleurs, principalement en Inde, aux Philippines, au Kenya, labélisent des images « violent/non-violent », « safe/unsafe », nettoient les datasets, modèrent les contenus que les modèles ont générés. Ces travailleurs gagnent entre 1 et 5 dollars de l’heure pour un travail profondément traumatisant, regarder sans fin des images de violence, d’abus, de pornographie enfantine pour « entraîner » les modèles à les refuser. En février 2023, une enquête du TIME Magazine a documenté qu’OpenAI utilisait des travailleurs kenyans payés moins de 2 $ l’heure pour examiner du contenu toxique. Ces « ghost workers » subissent des troubles psychologiques aigus, du SSPT, reporté par des recherches sur le travail d’annotation. Et personne ne parle d’eux. L’apparence de ces machines autonomes, intelligentes, créatives, repose sur une chaîne d’exploitation complètement occultée. C’est peut-être la vraie forme d’esclavage numérique : invisible, délocalisée, déniée.

Cette occultation n’est pas accidentelle. Elle est structurelle dans sa capture économique. Car l’IA devient progressivement l’infrastructure même du gouvernement, de la modulation de nos vies. Elle permet des formes de contrôle inédites : les systèmes de notation de crédit évaluent et classent les citoyens. Les algorithmes de recommandation modulent l’attention à l’échelle massive, décidant ce que des milliards de gens voient, pensent, croient être vrai. Les policiers utilisent des outils de reconnaissance faciale (souvent imprécis, discriminants) pour surveiller les populations. Les états utilisent des modèles de prédiction pour « anticiper » la criminalité. Et ces systèmes ne sont pas séparables des inégalités : ce sont les quartiers pauvres, les minorités, qui sont surveillés de cette façon. L’IA devient une infrastructure de gouvernementalité qui reproduit et intensifie les hiérarchies existantes, tout en prétendant être neutre, objective, scientifique. C’est peut-être la forme la plus subtile de domination : celle qui se présente comme technique, désintéressée, inévitable.

C’est en habitant cette réalité, cette capture, cette prédation, cette gouvernementalité invisible, qu’on comprend vraiment ce que c’est que d’être aliéné à la technique. Nous sommes aliénés : nos données nous deviennent alien, nos pensées se vectorisent, notre imaginaire se capture et se revend. Nous découvrons que ce qu’on croyait être unique, la créativité, la pensée, l’imagination, est en fait reproductible, apprennable, automatisable. Ce n’est pas rassurant. C’est une mise en crise radicale de notre finitude, de ce qui nous définissait. Et en même temps, nous ne pouvons pas sortir. Les modèles existent. Les datacenters tournent. Les corporations en profitent. La gouvernementalité s’installe. Nous sommes pris.

Mais être pris, ce n’est pas être sans options. C’est précisément pour cette raison que réfléchir à l’IA n’est pas une échappatoire, c’est une manière de dévoiler, de rendre visible ce qui était caché. L’IA expose les mécanismes de prédation qui structuraient déjà notre monde, mais qui restaient invisibles ou niés. Elle est une loupe posée sur ce qui nous préoccupe vraiment : comment le capital capture tout ce qu’il touche, comment la technique peut devenir un instrument de gouvernement, comment nos finitudes s’échangent contre des profits. Les inégalités, l’anthropocène, l’exploitation, on ne peut pas les comprendre sans voir comment la technique les produit, les structurent, les automatisent. Et l’IA est le nœud contemporain où tout ça devient visible et concentré.

C’est pourquoi l’IA est aussi une condition de possibilité de nos mondes futurs. On ne peut pas penser l’avenir sans la penser. Quelles inégalités quand elle gouvernera l’accès au crédit, au travail, à la santé, à la mobilité sociale ? Ces machines ne disparaîtront pas. Elles se multiplieront, s’enfonceront plus profondément dans les institutions. Quand l’IA diagnostiquera nos maladies, décidera qui embaucher, qui loger, qui écouter en justice, ces choix ne seront pas neutres. Ils seront le reflet des inégalités que les datasets contiennent. Et quel anthropocène quand cette infrastructure consommera de plus en plus d’énergie ? Les datacenters mondiaux consomment aujourd’hui 415 TWh annuels, soit 1,5 % de la consommation mondiale. Mais cette consommation est projetée à doubler d’ici 2030, l’équivalent de la consommation énergétique totale du Japon. Une requête de modèle de langage peut consommer significativement plus d’énergie qu’une recherche classique, selon les estimations disponibles. À l’échelle de milliards de requêtes par jour, les émissions deviennent colossales, et ce à un moment où nous aurions besoin de réduire nos consommations énergétiques. Et quand ces machines captureront l’imaginaire politique lui-même, quand elles généreront les mots qui structurent le débat public, les fictions qui façonnent nos croyances, comment pourrons-nous penser d’autres avenir ? L’IA n’est pas une menace future. Elle crée déjà les conditions de nos mondes à venir.

Réfléchir à l’IA, c’est donc réfléchir à notre condition aliénée : nous sommes aliénés à la technique qui nous constitue, qui est devenue alien à nous-mêmes, qui excède nos intentions et nos volontés. C’est réfléchir à la manière dont nous pourrions habiter cette aliénation, non pas en la niant (en croyant qu’on peut la rejeter purement), non pas en la célébrant (en croyant au sauvetage technoptimiste), mais en inventant des formes de ruse, de détournement, de résistance qui ne prétendent pas sortir du jeu, mais qui s’y jouent différemment. Habiter l’aliénation : accepter qu’on ne sera jamais purs, jamais libérés, mais apprendre à ruser avec les machines qu’on fabrique. À révéler ce qui se cache. À politiser ce qui prétend être technique.

L’IA n’est pas un problème à côté des autres. Elle est un nœud majeur, le point de concentration, où d’autres problèmes deviennent visibles et intensifiés. Une optique qui grossit les rayons de la prédation, de l’exploitation, de la gouvernementalité, qui les rend aveuglants. C’est précisément pour ça qu’il faut y penser, non pas pour s’en échapper, mais pour enfin saisir ce qui nous préoccupe vraiment, et trouver au cœur de l’aliénation d’autres possibilités et d’autres futurs en sachant que la capture de l’IA ne peut pas constituer la définition même de l’IA, mais une de ses extensions possibles.

L’IA n’est pas seulement une technologie ou un imaginaire, mais peut constituer une époque permettant d’en comprendre les tensions, les intrications, les dépendances et les possibles. C’est un époque qui reconfigure les relations entre monde, globe, Terre et planète.


If reflecting on AI can be an escape, it is only for those who believe in it as one believes in a salvational god—that is, for the techno-optimists who imagine that the machine will provide what our desperate finitude seeks: infinitude, mastery, redemption. For them, talking about AI is indeed looking away from the real problems: the inequalities that structure our worlds, the Anthropocene that is suffocating us, the depletion of resources, generalized precarity.

Fantasies of a technological singularity, of a liberating AGI, occupy the political and media imagination at the precise moment when real apocalypses are accelerating. While investors pour tens of billions into the hopes of a general intelligence capable of solving everything, air pollution and climate change are responsible for hundreds of thousands of deaths each year (WHO projections for 2030-2050: 250,000 additional annual deaths), ecosystems are collapsing, and inequalities are widening. These fantasies structure investments: the very corporations that should be paying climate taxes are funding data centers that consumed 415 terawatt-hours (TWh) in 2024, projected to double to 945 TWh by 2030—equivalent to the annual consumption of all of Japan. In this sense, the critique of the escape is right: yes, it is easy to dream of a holy machine while reality collapses. But it is precisely this diversion that keeps us in inaction.

This diagnosis changes as soon as we change perspective.

AI is only an escape for those who overestimate it, who believe in its salvational power or its apocalyptic danger. If, on the contrary, we approach it as an immediate problem—that is, as the concentrated symptom and catalyst that intensifies contemporary malaise—then reflecting on AI is not a diversion. It becomes an essential entry point for grasping what is unfolding now, concretely, in our institutions, our credit systems, our judicial procedures, our job markets. And we cannot wait until we have solved inequalities to think about AI; it is modifying inequalities in real time. For example, algorithmic credit scoring systems already make the difference between getting a loan or not. Amazon is testing its automated recruitment systems, which reject women due to historical biases in their training data. Predictive justice algorithms are deployed in several US states to assess “risk of recidivism,” and they systematically reproduce historical discrimination: a Black man will be rated as higher risk than a white man for the same crime. These are not future problems. They are happening now.

This is what must be grasped first: we cannot get rid of technology. It enables us to live as much as it kills us, since the moment our ancestors invented writing, agriculture, the wheel. Every technical gesture simultaneously produces what saves us and what alters us, what emancipates us and what enslaves us. Writing allowed us to transmit knowledge, but it also created classes. Agriculture fed us, but it created property and accumulation. Steam freed us from animal labor, but it locked workers into factories. AI merely continues this ambivalent dance, but concentrated, accelerated, and made visible. It is not the exception; it is the intensification.

What makes the problem unavoidable is that we cannot simply reject it. We cannot confine ourselves to a naive Luddite logic that imagines we can burn the servers and return to a purified state of nature. This state of nature never existed. Even the 19th-century Luddite movement was not against technology; it was a specific workers’ revolt—artisans fighting against the capitalist appropriation of textile production. Luddism was political, not technophobic. And we have long been hybrids, cyborgs, creatures overwhelmed by the machines that constitute us and that we constitute. To pretend to free ourselves through purification is to believe in an original state that we never possessed.

So the real question is not: How do we escape AIs? It is: What do we do with them? How do we position ourselves in the face of machines that amplify what already exists, that make visible and legalized what was previously latent or shameful? And to understand this, we must first see what AI exposes, reveals, and makes impossible to ignore. Take the issue of the capture of the digital commons. Every image you upload to Instagram, every poem you post on a forum, every conversation you exchange online becomes food for training AI models. Billions of images have been scraped from Flickr, DeviantArt, and a thousand other sites, often without consent. Artists discover that their works have been used to create a machine that can now imitate them. This is a raw predation of the commons. And it exposes something essential: what we shared freely online, what we thought was a democratic common, is becoming private property converted into capital. This is cognitive neo-colonialism, a massive capture of our collective imagination.

This capture then creates feedback loops that amplify inequalities exponentially, not linearly. Here is how: the training datasets reflect the biases of what is online, which reflects existing social inequalities. There are far more images of white people than of other racialized groups on the internet (a reflection of global digital power). The models learn these proportions and stereotypes. When these models are used to make decisions—credit, hiring, justice—they reproduce and amplify these biases. These decisions then create real social conditions: people denied loans become poorer, seek to borrow more, become more visible as “at risk,” generating more default data. The next generation of models trained on this data will be even more biased. It’s a spiral. And with each turn, the asymmetry worsens. A small number of large tech companies control and profit from these models, accumulating both capital and control over what is thinkable, representable, and generable.

And this infrastructure of predation rests entirely on invisible labor. Behind every language model, every generated image, there are millions of human decisions: data annotation. Workers, primarily in India, the Philippines, and Kenya, label images “violent/non-violent,” “safe/unsafe,” clean datasets, and moderate the content that models have generated. These workers earn between $1 and $5 per hour for deeply traumatic work—endlessly viewing images of violence, abuse, and child pornography to “train” the models to reject them. In February 2023, a TIME Magazine investigation documented that OpenAI used Kenyan workers paid less than $2 an hour to examine toxic content. These “ghost workers” suffer from acute psychological disorders, including PTSD, as reported by research on annotation labor. And no one talks about them. The appearance of these autonomous, intelligent, creative machines rests on a completely occulted chain of exploitation. This may be the true form of digital slavery: invisible, offshored, denied.

This occultation is not accidental. It is structural in its economic capture. Because AI is progressively becoming the very infrastructure of government, of the modulation of our lives. It enables unprecedented forms of control: credit scoring systems evaluate and classify citizens. Recommendation algorithms modulate attention on a massive scale, deciding what billions of people see, think, and believe to be true. Police use facial recognition tools (often inaccurate, discriminatory) to monitor populations. States use predictive models to “anticipate” criminality. And these systems are inseparable from inequalities: it is poor neighborhoods and minorities that are monitored in this way. AI becomes an infrastructure of governmentality that reproduces and intensifies existing hierarchies, all while pretending to be neutral, objective, and scientific. This may be the most subtle form of domination: the one that presents itself as technical, disinterested, and inevitable.

It is by inhabiting this reality—this capture, this predation, this invisible governmentality—that we truly understand what it means to be alienated from technology. We are alienated: our data becomes alien to us, our thoughts are vectorized, our imagination is captured and sold. We discover that what we believed to be unique—creativity, thought, imagination—is, in fact, reproducible, learnable, and automatable. This is not reassuring. It is a radical crisis of our finitude, of what defined us. And at the same time, we cannot leave. The models exist. The data centers are running. The corporations are profiting. The governmentality is taking hold. We are caught.

But being caught is not being without options. It is precisely for this reason that reflecting on AI is not an escape; it is a way of unveiling, of making visible what was hidden. AI exposes the mechanisms of predation that already structured our world but remained invisible or denied. It is a magnifying glass placed over what really concerns us: how capital captures everything it touches, how technology can become an instrument of government, how our finitudes are exchanged for profit. Inequalities, the Anthropocene, exploitation—we cannot understand them without seeing how technology produces, structures, and automates them. And AI is the contemporary node where all this becomes visible and concentrated.

That is why AI is also a condition of possibility for our future worlds. We cannot think about the future without thinking about it. What inequalities will arise when it governs access to credit, work, health, and social mobility? These machines will not disappear. They will multiply, sinking deeper into institutions. When AI diagnoses our diseases, decides who to hire, who to house, and who to hear in court, these choices will not be neutral. They will reflect the inequalities that the datasets contain. And what Anthropocene will we face when this infrastructure consumes more and more energy? Global data centers today consume 415 TWh annually, or 1.5% of global consumption. But this consumption is projected to double by 2030, equivalent to the total energy consumption of Japan. A single language model query can consume significantly more energy than a traditional search, according to available estimates. On the scale of billions of queries per day, emissions become colossal, and this comes at a time when we need to reduce our energy consumption. And when these machines capture the political imagination itself—when they generate the words that structure public debate, the fictions that shape our beliefs—how will we be able to think of other futures? AI is not a future threat. It is already creating the conditions for our worlds to come.

Reflecting on AI is thus reflecting on our alienated condition: we are alienated from the technology that constitutes us, which has become alien to ourselves, and which exceeds our intentions and wills. It is reflecting on how we might inhabit this alienation, not by denying it (believing we can purely reject it), nor by celebrating it (believing in techno-optimist salvation), but by inventing forms of cunning, diversion, and resistance that do not pretend to leave the game but play it differently. Inhabiting alienation: accepting that we will never be pure, never liberated, but learning to use cunning with the machines we create. To reveal what is hidden. To politicize what pretends to be technical.

AI is not a problem alongside others. It is a major node, the point of concentration, where other problems become visible and intensified. An optic that magnifies the rays of predation, exploitation, and governmentality, making them blinding. This is precisely why we must think about it—not to escape from it, but to finally grasp what really concerns us, and to find, at the heart of alienation, other possibilities and other futures, knowing that the capture of AI cannot constitute the very definition of AI, but one of its possible extensions.