Ce qui dévore, ce qui est dévoré / What devours, what is devoured

Quelque chose cloche dans le discours ambiant. on nous dit que « l’IA » dévore la planète, et cette phrase semble aller de soi, évidente comme un titre de journal, spectaculaire comme une infographie. Des térawattheures s’accumulent dans les colonnes des rapports environnementaux. L’effroi s’installe et le désir de tout arrêter aussi. Pourtant, cette évidence dissimule une confusion, peut-être stratégique, entre la technique et les conditions sociales de son déploiement.
Car ce n’est jamais « l’IA » qui consomme. Ce sont des corporations précises, Microsoft, Google, Amazon, Meta, X, opérant selon une logique précise, celle de l’accumulation infinie, de la centralisation massive, de l’extraction permanente. Confondre l’algorithme et l’infrastructure qui le fait tourner reviendrait à accuser l’électricité des méfaits de l’industrie fossile, ou à tenir le moteur à explosion responsable de l’étalement urbain. La technique n’existe jamais dans un vide social : elle est toujours mise en œuvre par des acteurs, selon des intérêts, dans des rapports de force qui la précèdent et l’excèdent.
L’effacement
Quand on écrit « l’IA consomme autant qu’un pays », on efface commodément plusieurs strates de réalité. Que cette consommation provient d’une poignée d’acteurs qui ont fait le choix, un choix, pas une nécessité technique, de la centralisation monumentale, de la croissance illimitée, de l’accès gratuit financé par la publicité et l’extraction de données. Que ces mêmes corporations alimentaient déjà des datacenters colossaux bien avant les LLMs, pour le streaming, le cloud, les réseaux sociaux, cette économie de l’attention qui nous capture dans ses flux.
Le modèle « as-a-service », qui concentre des milliards de requêtes dans quelques lieux géographiques stratégiquement refroidit par des systèmes d’air conditionné consommant l’équivalent énergétique de petites nations, ce modèle n’est pas une fatalité technique. C’est un modèle d’affaires. Un modèle de langage peut tourner sur un ordinateur portable. Il peut être entraîné une fois, puis déployé localement, sans connexion permanente à des serveurs distants dont les traces numériques fragmentent nos existences en données monétisables. La sobriété est techniquement possible, elle n’est simplement pas rentable pour ceux qui ont construit leur empire sur l’intermédiation permanente.
La technique comme contexte
Ici se joue une distinction cruciale que le discours dominant occulte systématiquement : la technique n’est jamais la même selon qu’elle s’inscrit dans un contexte d’usage instrumental ou expérimental. Cette différence change tout, et elle change tout d’un point de vue technique lui-même, pas seulement éthique ou politique. Un LLM déployé comme service commercial par une plateforme monopolistique n’est pas le même objet technique qu’un LLM installé localement, modifié, détourné, ralenti, exposé dans ses fragilités. Les paramètres diffèrent, les temporalités diffèrent, les affordances diffèrent.
L’usage instrumental vise l’efficacité, l’accélération, la fluidité de l’interface transparente, la clôture de la finitude ; l’usage expérimental, celui que pratiquent certains artistes, certains chercheurs, intensifie les problèmes plutôt qu’il ne les résout, transforme les bugs en questions, cultive une attention aux résistances, aux textures, aux dysfonctionnements révélateurs.
Quand une ministre de l’Éducation nationale déclare que les enfants doivent apprendre « l’IA » avec ChatGPT, le problème n’est précisément pas « l’IA », le problème est ChatGPT. C’est-à-dire : une plateforme propriétaire, centralisée aux États-Unis, dont les données transitent par des serveurs soumis au Cloud Act, dont le modèle économique repose sur l’extraction et la monétisation des usages, dont les conditions générales d’utilisation changent au gré des impératifs commerciaux d’openAI. Apprendre « l’IA » avec ChatGPT, c’est livrer les données conversationnelles de millions d’enfants à une corporation étrangère, c’est abandonner toute prétention à une souveraineté numérique au moment même où l’on prétend former les citoyens de demain. C’est aussi les inscrire d’emblée dans le régime de la fascination plutôt que dans celui de l’expérimentation, les former à consommer des services plutôt qu’à interroger des processus. L’usage immédiat et non réflexif des outils commerciaux produit une surfactualité saturante qui alimente un flux d’images et de textes masquant leurs propres mécanismes de production. Il existait d’autres voies : des modèles ouverts, des déploiements locaux, des infrastructures publiques européennes, des dispositifs qui auraient permis d’explorer les marges plutôt que de reproduire le centre. Mais ces voies exigent un investissement, une volonté politique, une planification, une capacité à penser la technique autrement que comme un service clé-en-main fourni par les GAFAM. La confusion entre « l’IA » et « ChatGPT » n’est donc pas une approximation journalistique innocente, elle est le symptôme d’une capitulation.
Fonction idéologique
Isoler la technique du système qui la produit constitue une erreur analytique aux conséquences politiques considérables. Car nous ne sommes pas confrontés à un problème technique isolé, mais à une crise systémique qui exige de tout repenser, modes de production, de consommation, de transport, d’habitat, d’alimentation.
Mais il faut aller plus loin : la critique anthropocentrique de l’IA partage, malgré elle, le même espace dramaturgique que les discours techno-optimistes qu’elle prétend combattre. En acceptant les termes du débat, remplacement, comparaison, compétition entre intelligence humaine et artificielle, elle contribue à renforcer le cadre conceptuel qui rend possible cette mise en concurrence. Cette circularité argumentative révèle les limites d’une approche purement défensive. Plus troublant encore : en cherchant à sauvegarder une essence humaine pure de toute contamination technique, la critique anthropocentrique rejoint paradoxalement certaines positions transhumanistes dans leur volonté de tracer une frontière nette entre l’humain et la machine. Les deux positions, apparemment opposées, partagent le même présupposé d’une séparabilité ontologique entre ces deux domaines.
Mais que signifie « tout repenser » ? Peut-être d’abord ceci : repenser la logistique. Non pas comme un secteur parmi d’autres, mais comme ce qui conditionne désormais la possibilité même de la pensée. Car la logistique contemporaine, ces chaînes d’approvisionnement planétaires, ces conteneurs, ces datacenters, ces câbles sous-marins, ces flottes de camions, ces entrepots automatisés, constitue peut-être, du fait de sa stratification même, une difficulté insurmontable pour le logos. Comment penser ce qui excède toute représentation possible, ce qui se déploie sur des échelles spatiales et temporelles qui débordent les capacités cognitives humaines, ce qui s’empile en couches (le fameux stack) dont aucune ne se laisse saisir indépendamment des autres ? La logistique met en jeu la possibilité même du discours rationnel, elle est ce que le logos ne peut pas penser sans se défaire, parce qu’il en dépend matériellement à chaque instant. Chaque requête envoyée à un serveur distant, chaque livre imprimé, chaque article publié en ligne suppose cette infrastructure invisible dont la complexité défie l’entendement. Nous pensons depuis et par la logistique, ce qui rend presque impossible de la penser.
Dans ce contexte, faire de « l’IA » un bouc émissaire remplit une fonction idéologique précise : offrir une cible visible, spectaculaire, apparemment maîtrisable, là où la logistique globale se dérobe à toute prise. Cette critique, fondamentalement discursive même lorsqu’elle prend la forme d’analyses chiffrées, génère une contrefactualité de saturation qui ne transforme rien à la réalité existante, se contentant de la rendre plus caricaturale. Elle reproduit en miroir ce qu’elle critique, s’instituant simultanément comme prophète du danger et détenteur du remède, sans jamais questionner ses propres conditions de possibilité. Réguler l’IA, taxer les datacenters, imposer des quotas énergétiques aux modèles, voilà des mesures qui donnent l’illusion d’agir sans toucher aux structures, comme si l’on pouvait extraire la technique de ce qui la détermine. on croit avoir « commencé quelque part » alors qu’on a soigneusement évité l’essentiel. Pendant qu’on débat de la consommation de ChatGPT, le transport aérien continue de croître, l’agriculture industrielle ravage les sols, la fast fashion produit des montagnes de déchets dans une logique de surproduction que les images générées ne font que répliquer sur un autre plan, et la finance continue d’investir massivement dans les énergies fossiles. L’IA représente une fraction de l’empreinte numérique, qui représente elle-même une fraction de l’empreinte totale. Mais elle concentre l’attention, précisément parce qu’elle est nouvelle, parce qu’elle effraie, parce qu’elle réorganise les positions dans l’économie de la connaissance.
Qui parle ?
Il faudrait interroger les porteurs de ce discours. Quand les médias traditionnels, dont le modèle économique se trouve directement menacé par les systèmes génératifs, multiplient les articles alarmistes, peut-on y voir une pure objectivité ? Quand les géants du numérique eux-mêmes publient des rapports sur leur empreinte carbone, n’est-ce pas aussi une façon de cadrer le débat sur leurs propres termes, individualisant la responsabilité, « chaque requête pollue », plutôt que questionnant le système dans lequel ces requêtes prennent sens ?
Le discours anti-IA peut servir des intérêts très divers : protectionnisme économique déguisé en écologie, technophobie romantique qui rêve d’un retour impossible à quelque authenticité perdue, défense de rentes menacées, ou simplement paresse intellectuelle face à la complexité du monde. Cela ne signifie pas que les critiques soient sans fondement, la consommation énergétique est réelle, les datacenters gigantesques refroidis par d’immenses systèmes consommant l’équivalent de petites nations abritent effectivement les traces numériques de nos existences fragmentées. Mais leur cadrage mérite examen.
Si ce discours triomphe sans être corrigé, quel monde prépare-t-il ? Probablement pas celui d’une sobriété partagée, mais celui d’une nouvelle fracture, d’un coté, ceux qui auront accès aux outils les plus puissants : entreprises, États riches, élites éduquées ; de l’autre, les « déconnectés » volontaires ou forcés, privés d’instruments qui, autrement orientés, pourraient démocratiser l’accès au savoir, à la création, à l’automatisation des tâches ingrates.
On aurait alors le pire des deux mondes : une consommation énergétique à peine réduite, car les puissants ne se priveront pas, mais une inégalité d’accès aggravée. Les datacenters continueront de tourner. Simplement, ils ne serviront plus qu’à certains. La culpabilisation individuelle aura fonctionné comme toujours : faire porter aux usagers ordinaires le poids de choix systémiques sur lesquels ils n’ont aucune prise. Cette logique reproduit exactement celle du capitalisme de surveillance, nous rendre responsables de ce qui nous échappe, transformer en faute individuelle ce qui relève d’une infrastructure sur laquelle nous n’avons aucun controle.
Repositionner la critique
Critiquer la technique sans critiquer le capital qui la déploie, c’est tirer sur l’ambulance en épargnant le chauffard. Une critique conséquente devrait viser le modèle économique de la gratuité publicitaire, qui pousse à maximiser l’usage plutôt qu’à l’optimiser ; la concentration oligopolistique, qui empêche l’émergence d’alternatives décentralisées et sobres ; l’absence de comptabilité écologique réelle, qui permet aux entreprises d’externaliser leurs coûts environnementaux ; le sous-investissement dans la recherche publique, qui abandonne le développement de ces systèmes aux seuls intérêts privés ; l’absence de réflexion collective sur les usages souhaitables, qui laisse le marché décider seul de ce que nous ferons de ces outils.
Il ne s’agit pas de défendre « l’IA » contre ses critiques, mais de défendre la critique contre ses propres impasses. L’IA constitue peut-être ce que Bernard Stiegler appelait un pharmakon, à la fois poison et remède, dans la duplicité d’une conjuration. Elle révèle la nature toujours-déjà technique de notre intelligence tout en introduisant de nouvelles formes de médiation cognitive. Les réseaux de neurones artificiels ne sont pas des copies dégradées de nos cerveaux ; ils sont des extensions prothétiques qui transforment (et diffèrent) nos capacités cognitives selon des modalités inédites. Cette dimension pharmacologique échappe à la logique binaire du remplacement comme à celle de la dévoration.
Une technologie n’est ni bonne ni mauvaise en soi, elle est ce que les rapports sociaux en font, et plus encore : elle est ce que les contextes d’usage en font. Un même algorithme devient instrument de capture ou outil d’émancipation selon qu’il est déployé par une plateforme extractiviste ou expérimenté dans un cadre qui en expose les fragilités, en détourne les finalités prescrites, en invente de nouveaux branchements. Pointer du doigt l’algorithme sans nommer ceux qui le déploient, selon quelles logiques et au profit de qui, c’est renoncer à comprendre pour mieux se résigner.
Praxis
Le défi climatique exige de tout transformer, y compris, et peut-être d’abord, notre rapport à la logistique qui conditionne matériellement chacune de nos pensées, chacun de nos gestes, chacune de nos résistances. Dans cette transformation, ces systèmes pourraient être des outils puissants, pour modéliser le climat, optimiser les réseaux énergétiques, accélérer la recherche scientifique, démocratiser l’accès à l’expertise. ou ils pourraient n’être qu’un nouveau terrain d’accumulation pour les mêmes acteurs qui ont créé la crise, une couche supplémentaire dans l’empilement, le stack, de ce que nous pourrions appeler le vectofascisme : cette mégastructure computationnelle qui unifie l’extraction des énergies fossiles, la marchandisation du vivant et l’instauration d’une gouvernementalité algorithmique opérant selon une logique verticale.
Ce qui décidera de l’issue, ce n’est pas la technologie elle-même, mais les choix politiques que nous ferons à son sujet. Réguler les plateformes plutôt que bannir les algorithmes. Financer des alternatives publiques et décentralisées, des modèles ouverts, des infrastructures souveraines, des déploiements locaux qui ne livrent pas les données de nos enfants aux appétits des corporations . Imposer la transparence et la sobriété aux acteurs dominants. Refuser la fausse alternative entre technophilie béate et technophobie stérile, ces deux postures qui, au fond, partagent la même erreur : croire que la technique serait séparable du monde social qui la produit et qu’elle produit en retour.
L’enjeu n’est pas de sauver l’humain de la technique, mais de penser à nouveaux frais ce que devient l’humain avec et par la technique. Cette tâche, qui est à la fois philosophique, politique et existentielle, définit peut-être l’horizon de notre temps. Elle exige de nous un effort de pensée qui ne se contente pas de défendre des positions acquises, mais qui accepte le risque de la transformation. Car c’est seulement en acceptant d’être transformés par ce que nous créons que nous pourrons espérer expérimenter, ne serait-ce que partiellement, le sens de cette transformation. L’art contemporain à l’ère de l’IA générative porte ainsi la responsabilité historique de ne pas abandonner le terrain de l’innovation technologique aux seules forces du marché, d’inventer des usages qui explorent les possibles au-delà de l’existant plutôt que de saturer le réel de ses propres caricatures.
Car le vrai danger n’est pas que « l’IA » dévore la planète. C’est que le débat sur cette prétendue dévoration nous détourne des vrais dévoreurs, et qu’au nom de l’écologie et de la déconnexion, on finisse par approfondir le statu quo.
Something is wrong with the current discourse. We are told that “AI” devours the planet, and this phrase seems self-evident, obvious like a newspaper headline, spectacular like an infographic. Terawatt-hours accumulate in the columns of environmental reports. Dread sets in, as does the desire to stop everything. However, this apparent truth conceals a confusion, perhaps a strategic one, between the technology and the social conditions of its deployment.
Because it is never “AI” that consumes. It is specific corporations—Microsoft, Google, Amazon, Meta, X—operating according to a precise logic: infinite accumulation, massive centralization, and permanent extraction. To confuse the algorithm with the infrastructure that runs it would be like accusing electricity of the misdeeds of the fossil fuel industry, or holding the combustion engine responsible for urban sprawl. Technology never exists in a social vacuum: it is always implemented by actors, according to interests, within power dynamics that precede and exceed it.
The Erasure
When we write, “AI consumes as much as a country,” several layers of reality are conveniently erased. That this consumption comes from a handful of actors who have chosen—a choice, not a technical necessity—monumental centralization, unlimited growth, and free access funded by advertising and data extraction. That these same corporations were already powering colossal data centers long before LLMs, for streaming, the cloud, social networks—this attention economy that captures us in its flows.
The “as-a-service” model, which concentrates billions of requests in a few strategically located places cooled by air conditioning systems consuming the energy equivalent of small nations, is not a technical inevitability. It is a business model. A language model can run on a laptop. It can be trained once and then deployed locally, without a permanent connection to distant servers whose digital traces fragment our existences into monetizable data. Technical sobriety is possible; it is simply not profitable for those who have built their empire on permanent intermediation.
Technology as Context
A crucial distinction is at play here, one that the dominant discourse systematically obscures: technology is never the same depending on whether it is part of an instrumental or an experimental context of use. This difference changes everything, and it changes everything from a purely technical standpoint, not just an ethical or political one. An LLM deployed as a commercial service by a monopolistic platform is not the same technical object as an LLM installed locally, modified, diverted, slowed down, and exposed in its fragilities. The parameters differ, the temporalities differ, and the affordances differ.
Instrumental use aims for efficiency, acceleration, the fluidity of the transparent interface, and the closure of finitude; experimental use, as practiced by some artists and researchers, intensifies problems rather than solving them, transforms bugs into questions, and cultivates attention to resistances, textures, and revealing dysfunctions.
When a Minister of National Education declares that children must learn “AI” with ChatGPT, the problem is precisely not “AI”; the problem is ChatGPT. That is to say: a proprietary platform, centralized in the United States, whose data transits through servers subject to the Cloud Act, whose economic model is based on the extraction and monetization of usage, and whose terms of use change according to OpenAI’s commercial imperatives. Learning “AI” with ChatGPT means handing over the conversational data of millions of children to a foreign corporation; it means abandoning all claim to digital sovereignty at the very moment we claim to be training the citizens of tomorrow. It also means immediately enrolling them in the regime of fascination rather than experimentation, training them to consume services rather than to question processes. The immediate and non-reflective use of commercial tools produces a saturating super-actuality that fuels a flow of images and texts masking their own production mechanisms. Other paths existed: open models, local deployments, European public infrastructures, and systems that would have allowed for the exploration of the margins rather than the reproduction of the center. But these paths require investment, political will, planning, and an ability to think of technology as something other than a turn-key service provided by the GAFAM corporations. The confusion between “AI” and “ChatGPT” is therefore not an innocent journalistic approximation; it is the symptom of a surrender.
Ideological Function
Isolating technology from the system that produces it is an analytical error with considerable political consequences. For we are not facing an isolated technical problem, but a systemic crisis that demands we rethink everything—modes of production, consumption, transport, housing, and food.
But we must go further: the anthropocentric critique of AI inadvertently shares the same dramaturgical space as the techno-optimistic discourses it claims to combat. By accepting the terms of the debate—replacement, comparison, competition between human and artificial intelligence—it helps reinforce the conceptual framework that makes this competition possible. This argumentative circularity reveals the limits of a purely defensive approach. Even more troubling: in seeking to safeguard a human essence pure of all technical contamination, the anthropocentric critique paradoxically joins certain transhumanist positions in their desire to draw a clear line between the human and the machine. The two positions, seemingly opposed, share the same presupposition of an ontological separability between these two domains.
But what does it mean to “rethink everything”? Perhaps this, first: rethinking logistics. Not as one sector among others, but as that which now conditions the very possibility of thought. For contemporary logistics—these global supply chains, these containers, data centers, underwater cables, fleets of trucks, automated warehouses—may constitute, by the very fact of its stratification, an insurmountable difficulty for the logos (rational thought). How can one think about what exceeds all possible representation, what unfolds on spatial and temporal scales that overwhelm human cognitive capacities, what stacks up in layers (the famous stack) none of which can be grasped independently of the others? Logistics brings into play the very possibility of rational discourse; it is what the logos cannot think without unraveling, because it materially depends on it at every moment. Every request sent to a distant server, every printed book, every article published online presupposes this invisible infrastructure whose complexity defies understanding. We think from and through logistics, which makes it nearly impossible to think about it.
In this context, making “AI” a scapegoat fulfills a precise ideological function: offering a visible, spectacular, apparently manageable target where global logistics eludes all grasp. This critique, fundamentally discursive even when it takes the form of quantified analyses, generates a counterfactual saturation that changes nothing in existing reality, contenting itself with making it more caricature-like. It mirrors what it criticizes, simultaneously establishing itself as a prophet of danger and a holder of the remedy, without ever questioning its own conditions of possibility. Regulating AI, taxing data centers, imposing energy quotas on models—these are measures that give the illusion of action without touching the structures, as if technology could be extracted from what determines it. We think we have “started somewhere” when we have carefully avoided the essential. While we debate ChatGPT’s consumption, air transport continues to grow, industrial agriculture ravages the soil, fast fashion produces mountains of waste in a logic of overproduction that generated images merely replicate on another plane, and finance continues to invest massively in fossil fuels. AI represents a fraction of the digital footprint, which itself represents a fraction of the total footprint. But it concentrates attention, precisely because it is new, because it frightens, because it reorganizes positions in the knowledge economy.
Who is speaking?
We should question the bearers of this discourse. When traditional media, whose economic model is directly threatened by generative systems, multiply alarmist articles, can this be seen as pure objectivity? When the digital giants themselves publish reports on their carbon footprint, is this not also a way of framing the debate on their own terms, individualizing responsibility—”each request pollutes”—rather than questioning the system in which these requests make sense?
The anti-AI discourse can serve very diverse interests: economic protectionism disguised as ecology, romantic technophobia dreaming of an impossible return to some lost authenticity, defense of threatened rents, or simply intellectual laziness in the face of the world’s complexity. This does not mean that the criticisms are unfounded; energy consumption is real, and the gigantic data centers cooled by immense systems consuming the equivalent of small nations do indeed house the digital traces of our fragmented existences. But their framing deserves examination.
If this discourse triumphs without being corrected, what world is it preparing? Probably not one of shared sobriety, but one of a new fracture: on one side, those who will have access to the most powerful tools—corporations, wealthy states, educated elites; on the other, the “disconnected,” voluntarily or by force, deprived of instruments that, if otherwise oriented, could democratize access to knowledge, creation, and the automation of tedious tasks.
We would then have the worst of both worlds: barely reduced energy consumption, as the powerful will not abstain, but aggravated inequality of access. Data centers will continue to run. They will simply serve only certain people. Individual guilt-tripping will have worked as always: making ordinary users bear the weight of systemic choices over which they have no control. This logic exactly reproduces that of surveillance capitalism: making us responsible for what escapes us, transforming into an individual fault what falls under an infrastructure over which we have no control.
Repositioning the Critique
To criticize technology without criticizing the capital that deploys it is to shoot at the ambulance while sparing the driver. A consistent critique should target the economic model of advertising-funded free access, which pushes to maximize usage rather than optimize it; the oligopolistic concentration, which prevents the emergence of decentralized and sober alternatives; the absence of real ecological accounting, which allows companies to externalize their environmental costs; the underinvestment in public research, which abandons the development of these systems to private interests alone; and the absence of collective reflection on desirable uses, which leaves the market alone to decide what we will do with these tools.
It is not about defending “AI” against its critics, but about defending criticism against its own impasses. AI may constitute what Bernard Stiegler called a pharmakon—both poison and remedy—in the duplicity of a conjuration. It reveals the always-already technical nature of our intelligence while introducing new forms of cognitive mediation. Artificial neural networks are not degraded copies of our brains; they are prosthetic extensions that transform (and differ) our cognitive capacities in novel ways. This pharmacological dimension escapes the binary logic of replacement as well as that of devouring.
A technology is neither good nor bad in itself; it is what social relations make of it, and even more: it is what contexts of use make of it. The same algorithm becomes an instrument of capture or a tool of emancipation depending on whether it is deployed by an extractive platform or experimented with in a framework that exposes its fragilities, diverts its prescribed purposes, and invents new connections. Pointing the finger at the algorithm without naming who deploys it, according to what logic, and for whose benefit, is to give up on understanding in order to better resign oneself.
Praxis
The climate challenge demands that we transform everything, including, and perhaps first and foremost, our relationship with the logistics that materially condition our every thought, every action, every resistance. In this transformation, these systems could be powerful tools—for climate modeling, optimizing energy grids, accelerating scientific research, and democratizing access to expertise. Or they could be just another field of accumulation for the same actors who created the crisis, an additional layer in the stacking, the stack, of what we might call vectofascism: this computational megastructure that unifies the extraction of fossil fuels, the commodification of the living, and the establishment of algorithmic governmentality operating according to a vertical logic.
What will decide the outcome is not the technology itself, but the political choices we make about it. Regulate platforms rather than ban algorithms. Fund public and decentralized alternatives, open models, sovereign infrastructures, and local deployments that do not hand over our children’s data to the appetites of corporations. Impose transparency and sobriety on dominant actors. Reject the false alternative between naive technophilia and sterile technophobia—these two postures that, at their core, share the same error: believing that technology could be separable from the social world that produces it and that it, in turn, produces.
The issue is not to save the human from technology, but to rethink what the human becomes with and through technology. This task, which is simultaneously philosophical, political, and existential, perhaps defines the horizon of our time. It demands of us an effort of thought that is not content to defend acquired positions but accepts the risk of transformation. For it is only by accepting to be transformed by what we create that we can hope to experience, even partially, the meaning of this transformation. Contemporary art in the age of generative AI thus bears the historical responsibility not to abandon the field of technological innovation to the forces of the market alone, but to invent uses that explore possibilities beyond the existing, rather than saturating reality with its own caricatures.
For the real danger is not that “AI” will devour the planet. It is that the debate about this alleged devouring distracts us from the real devourers, and that in the name of ecology and disconnection, we end up deepening the status quo.