L’instrumentalité et l’expérimentation: un problème économique / Instrumentality and Experimentation: An Economic Problem

Le problème n’est pas l’intelligence artificielle. Personne n’a jamais douté qu’une machine puisse traiter des données, calculer, générer des séquences à partir de patterns statistiques. Le problème réside dans notre incapacité méthodique à penser notre rapport à ces technologies en dehors du cadre de l’instrumentalité. Et cette incapacité n’est pas nouvelle ; elle traverse l’histoire du technique depuis ses origines. Ce qu’il faut examiner, c’est comment l’instrumentalité fonctionne comme principe de déploiement économique et existentiel, comment elle s’allie systématiquement avec l’obsolescence programmée et la création de nouveaux besoins, générant un cycle d’accélération matérielle que notre planète ne peut supporter. L’IA ne fait qu’intensifier et cristalliser ce phénomène ancien : elle en est l’expression la plus symptomatique.

L’instrumentalité, c’est l’attitude qui considère la technique exclusivement sous l’angle de l’utilité, du moyen en vue d’une fin supposément externe. Mais ce qui reste invisible dans cette définition apparemment évidente, c’est que l’instrumentalité ne répond jamais vraiment à des besoins préexistants, elle est son propre besoin. Voilà le paradoxe fondamental qu’il faut saisir. Chaque nouvelle technologie génère d’abord un usage, puis transforme cet usage en nécessité, puis fabrique les besoins qui la justifient rétroactivement. Le smartphone n’a pas répondu à un besoin social identifié ; il a créé les conditions pour que sa possession devienne indispensable. Les réseaux sociaux n’existaient pas pour combler une lacune reconnue de la sociabilité humaine ; ils ont restructuré nos formes de relation jusqu’à les rendre dépendantes de leur infrastructure propriétaire. L’IA générative suit exactement ce processus. On nous dit qu’elle augmente la productivité, qu’elle résout des problèmes, mais ces bénéfices sont eux-mêmes projetés, anticipés, théoriques. Ce que nous observons réellement, c’est la création d’une dépendance : chaque usage devient vite un besoin, chaque nouvelle capacité technologique génère immédiatement la demande pour son dépassement, pour une version plus puissante, plus rapide, plus capable.

Ce processus s’articule avec une logique économique précise : celle de l’obsolescence programmée et du rythme d’innovation accélérée. La reproductibilité technique, cette capacité à dupliquer et multiplier indéfiniment un produit, crée des conditions où la rentabilité dépend non pas de la durée d’usage d’un bien, mais de sa vitesse de remplacement. Un smartphone qui fonctionnerait pendant dix ans serait une catastrophe économique pour ses producteurs ; un marché qui aurait résolu tous ses problèmes cruciaux serait la fin du capitalisme technologique. Il faut donc que des besoins nouveaux surgissent continuellement, que des problèmes émergent qui justifient l’acquisition d’un nouveau produit, que l’ancien soit rendu non seulement obsolète techniquement, mais existentiellement insatisfaisant. Le marketing et la création de besoins deviennent alors des industries centrales, autant que l’ingénierie elle-même. C’est pour cela que chaque innovation technologique s’accompagne immédiatement d’une innovation dans la production de désir, l’une et l’autre étant indissociables du point de vue du système économique qui les porte.

L’IA s’inscrit intégralement dans cette logique, mais elle y ajoute une dimension nouvelle : elle accélère vertigineusement le cycle. Là où il fallait autrefois plusieurs années pour épuiser les usages d’une technologie, créer les conditions psychologiques et sociales de sa dépassement, quelques mois suffisent désormais. Chaque nouvelle version de modèle de langage génère immédiatement la sensation que la version précédente est devenue insuffisante. Les ressources consommées pour entraîner ces modèles, énergie, données, matériaux rares, s’accumulent à un rythme sans précédent, mais ces coûts restent largement invisibles pour l’utilisateur. C’est un profit de l’abstraction : on fait disparaître les externalités matérielles derrière une interface textuelle qui semble immatérielle. L’économie écologique du système reste entièrement cachée. Et même lorsqu’on la dénonce, elle continue de paraître comme un détail, un problème technique qu’on résoudra « plus tard », tandis que la création de besoins et la génération d’usage continuent à s’accélérer.

Or, il existe une autre possible : celle de transformer notre rapport aux technologies en passant de l’usage à l’expérimentation. Cette distinction n’est pas rhétorique ; elle porte des conséquences économiques et existentielles profondes. L’usage relève de l’instrumentalité classique : on sait déjà ce qu’on va faire avec la technologie, et on l’utilise pour l’atteindre efficacement. L’expérimentation, au contraire, commence dans l’incertitude. On ne sait pas à quoi ça sert ; on est obligé de créer cet usage en chemin, en travaillant, en tâtonnant, en explorant des impasses. Ce ralentissement du rythme, ce retour à une temporalité moins frénétique, aurait immédiatement des effets matériels. D’abord, il freinerait le cycle de remplacement des générations de technologies. Si on ne cherche pas à créer continuellement de nouveaux besoins pour justifier l’acquisition de nouveaux produits, la durée de vie des technologies s’allongerait. Ensuite, il diminuerait drastiquement la pression pour l’innovation matérielle, cette course perpétuelle vers du toujours plus puissant, plus rapide. L’innovation réelle, celle qui compte, serait alors celle qui porte sur le « faire avec » la technologie, pas sur le faire de la technologie elle-même.

Certes, l’industrie technologique résisterait à une telle bifurcation. Son modèle économique dépend entièrement de la création de nouveaux marchés, de la multiplication des besoins, de l’accélération du rythme de consommation. Mais c’est précisément pourquoi il faut explorer cette voie. Il ne s’agit pas d’une simple amélioration marginale du système existant, ce serait illusoire. Il s’agit de reconnaître que nos sociétés ne peuvent pas durablement supporter ce rythme d’extraction et de consommation, que le modèle économique fondé sur l’innovation perpétuelle et la création perpétuelle de manques est intrinsèquement insoutenable. Et il s’agit de reconnaître que ce n’est pas l’IA qui pose problème en elle-même, mais l’instrumentalité qui en gouverne l’usage et la circulation.

Passer à l’expérimentation, c’est refuser cette instrumentalité. C’est accepter une lenteur qui déstabiliserait l’industrie. C’est créer les espaces où on peut simplement vivre avec une technologie sans devoir en acquérir une version nouvelle chaque trimestre. C’est cultiver une relation autre au technique, ni nostalgique, ni futuriste, mais réellement créative, où l’on n’attend pas que la machine nous dise à quoi elle sert, mais où on construisait cette signification ensemble, lentement, attentivement, en prenant le temps de penser ce qu’on fait.


The problem is not artificial intelligence. No one has ever doubted that a machine can process data, calculate, generate sequences from statistical patterns. The problem lies in our methodical inability to think our relationship to these technologies outside the framework of instrumentality. And this inability is not new; it runs through the history of technique since its origins. What must be examined is how instrumentality functions as a principle of economic and existential deployment, how it systematically allies itself with programmed obsolescence and the creation of new needs, generating a cycle of material acceleration that our planet cannot sustain. AI merely intensifies and crystallizes this ancient phenomenon: it is its most symptomatic expression.

Instrumentality is the attitude that considers technique exclusively from the angle of utility, as a means toward a supposedly external end. But what remains invisible in this seemingly obvious definition is that instrumentality never truly responds to pre-existing needs — it is its own need. That is the fundamental paradox that must be grasped. Each new technology first generates a use, then transforms that use into necessity, then manufactures the needs that justify it retroactively. The smartphone did not respond to an identified social need; it created the conditions for its possession to become indispensable. Social networks did not exist to fill a recognized gap in human sociability; they restructured our forms of relation until rendering them dependent on their proprietary infrastructure. Generative AI follows exactly this process. We are told it increases productivity, that it solves problems — but these benefits are themselves projected, anticipated, theoretical. What we actually observe is the creation of dependence: each use quickly becomes a need, each new technological capacity immediately generates the demand for its surpassing, for a more powerful, faster, more capable version.

This process articulates with a precise economic logic: that of programmed obsolescence and accelerated innovation rhythm. Technical reproducibility — this capacity to duplicate and multiply a product infinitely — creates conditions where profitability depends not on the duration of a good’s use, but on the speed of its replacement. A smartphone functioning for ten years would be an economic catastrophe for its producers; a market that had resolved all its crucial problems would be the end of technological capitalism. New needs must therefore continuously emerge, problems must surface that justify the acquisition of a new product, the old one rendered not only technically obsolete but existentially unsatisfying. Marketing and the creation of needs become central industries, as much as engineering itself. This is why each technological innovation is immediately accompanied by an innovation in desire production — the two being inseparable from the standpoint of the economic system that carries them.

AI inscribes itself integrally in this logic, but adds a new dimension to it: it vertiginously accelerates the cycle. Where it once took several years to exhaust the uses of a technology, to create the psychological and social conditions for its surpassing, a few months now suffice. Each new version of a language model immediately generates the sensation that the previous version has become insufficient. The resources consumed to train these models — energy, data, rare materials — accumulate at an unprecedented rate, yet these costs remain largely invisible to the user. It is a profit of abstraction: material externalities are made to disappear behind a textual interface that seems immaterial. The ecological economy of the system remains entirely hidden. And even when denounced, it continues to appear as a detail, a technical problem to be solved “later,” while the creation of needs and generation of uses continue to accelerate.

Yet another possibility exists: that of transforming our relationship to technologies by shifting from use to experimentation. This distinction is not merely rhetorical; it carries profound economic and existential consequences. Use falls within classical instrumentality: one already knows what one will do with the technology, and uses it to achieve that efficiently. Experimentation, by contrast, begins in uncertainty. One does not know what it is for; one is forced to create this use along the way, by working, by fumbling, by exploring dead ends. This slowing of rhythm — this return to a less frenetic temporality — would immediately have material effects. First, it would brake the cycle of technological generation replacement. If one ceases to continually create new needs to justify acquiring new products, the lifespan of technologies would lengthen. Second, it would drastically decrease pressure for material innovation — that perpetual race toward always more powerful, faster. Real innovation, the kind that matters, would then be that which bears on “doing with” the technology, not on making the technology itself.

To be sure, the technology industry would resist such a bifurcation. Its economic model depends entirely on the creation of new markets, the multiplication of needs, the acceleration of consumption rhythms. But it is precisely for this reason that this path must be explored. It is not a matter of simple marginal improvement of the existing system — that would be illusory. It is a matter of recognizing that our societies cannot sustainably support this rate of extraction and consumption, that the economic model founded on perpetual innovation and perpetual creation of lack is intrinsically unsustainable. And it is a matter of recognizing that it is not AI itself that poses a problem, but the instrumentality that governs its use and circulation.

To shift to experimentation is to refuse this instrumentality. It is to accept a slowness that would destabilize industry. It is to create spaces where one can simply live with a technology without needing to acquire a new version every quarter. It is to cultivate a different relation to technique — neither nostalgic nor futuristic — but genuinely creative, where one does not wait for the machine to tell us what it is for, but where we would construct this meaning together, slowly, attentively, taking time to think what we are doing.