L’IA n’est pas même si elle existe / AI is not even if it exists

Nous habitons un espace coincé, un entre-deux qui se referme avant même que nous ayons pu le nommer. D’un côté, la promesse technologique qui résoudrait tout, de l’autre, le geste de refus qui débranche, qui s’éloigne. Entre l’emballement et le rejet, cette oscillation traverse toute l’histoire moderne de notre rapport aux techniques. Elle n’est pas nouvelle, mais elle se rejoue aujourd’hui avec une intensité particulière autour de ce qu’on appelle l’intelligence artificielle.
Les arguments contre l’IA se sont multipliés ces dernières années jusqu’à devenir des évidences que personne ne questionne plus. La surconsommation énergétique, l’extraction minérale, la précarisation du travail, l’amplification des discriminations, les dispositifs de surveillance, les rapports de domination qui se cristallisent dans les architectures techniques. Tout cela mérite évidemment attention. Ces critiques pointent vers des réalités matérielles indéniables. Un manifeste circule dans l’enseignement supérieur français appelant à une « objection de conscience » face à l’IA générative, refusant catégoriquement son usage dans la recherche et la pédagogie. Un écrivain parle de « désastre », de « crack digital », de « crimes contre l’intelligence humaine », réclame une « critique abrupte, radicale », un « reflux numérique ». Il faut dire « monstrueux » quand ce que l’on voit est monstrueux.
Mais quelque chose dans cette évidence critique pose problème. Non pas que ces critiques soient fausses. Plutôt qu’elles installent une distance avec leur objet qui finit par le renforcer plutôt que de le transformer. La critique devient spectacle de sa propre autorité, produit une fascination inversée. Elle annonce la catastrophe avec une telle insistance qu’elle finit par reproduire la structure même qu’elle dénonce, l’annonce du désastre et l’offre de la solution, position pastorale qui s’installe au-dessus du désordre pour le commenter.
Le déconnexionisme, en particulier, contient une faiblesse stratégique fondamentale. En se retirant, en refusant le contact, il laisse intact ce qu’il prétend combattre. Se déconnecter de l’IA ne la déconnecte pas. Cela nous en déconnecte. La technique continue, ailleurs, sans nous, libérée même de notre regard gênant. L’objection de conscience est un beau geste, sans doute sincère, peut-être même nécessaire pour ceux qui le font. Mais elle n’empêche rien. Elle organise une zone de pureté pendant que le monde se transforme sans nous. C’est que le déconnexionisme partage avec l’enthousiasme technologique le même présupposé : la technique comme extériorité que l’on pourrait soit embrasser soit rejeter, soit maîtriser soit fuir. Mais la technique n’est pas devant nous comme un objet que nous pourrions saisir ou écarter.
Ce qui m’intéresse, c’est que des positions qui ne s’inscrivent pas dans ce spectre entre enthousiasme et critique radicale trouvent difficilement leurs voies de diffusion médiatique. Les textes que j’ai écrits avec d’autres, cherchant à articuler quelque chose de différent, se heurtent à cette impossibilité à quelques rares exceptions (AOC en particulier). Comme si le pensable lui-même était désormais défini par cette fausse dialectique. Les deux positions acceptent sans les interroger les mêmes fondements : une conception instrumentale de la technique, une anthropologie qui sépare l’humain du technique, une ontologie qui pose ces catégories comme allant de soi.
Il y a dans cette double position une erreur logique fondamentale qui mérite qu’on s’y arrête. Quand on décrète que l’IA est essentiellement désastreuse, intrinsèquement nocive, qu’elle porte en elle-même sa nature destructrice (ou bénéfique), on commet une confusion entre l’état actuel d’une technique capturée par certains rapports de domination et ce que serait une supposée essence de cette technique. On naturalise une configuration historique particulière. On transforme ce qui est le produit d’une capture par des intérêts spécifiques, par une certaine organisation sociale, par des rapports de pouvoir déterminés, en propriété intrinsèque de l’objet technique lui-même. Finalement on répète et on institue l’absence d’alternative qu’on croyait réfuter.
Cette essentialisation opère un tour de force idéologique remarquable : elle fait disparaître la responsabilité de ceux qui organisent cette capture. Si l’IA est mauvaise par nature, alors les géants technologiques, les structures de financement, les choix politiques qui ont orienté son développement dans une certaine direction ne sont plus en cause. Ils n’ont fait qu’actualiser ce qui était déjà là, dans l’essence même de la technique. La domination n’est plus un rapport social qu’on pourrait défaire, mais le déploiement inéluctable d’une nature technique. En voulant dénoncer la domination, on la naturalise. On la rend intouchable précisément en la déclarant insurmontable. L’erreur logique est celle-ci : prendre une instance particulière pour la totalité des possibles. L’IA telle qu’elle existe actuellement, dans sa capture par le capitalisme de surveillance, par les logiques extractivistes, par les structures de domination, n’épuise pas ce que l’IA pourrait être dans d’autres configurations relationnelles. Mais plus encore, et c’est là le point crucial, l’IA n’existe pas « en soi ». Comme toute technique, elle n’existe que dans la manière dont nous nous y rapportons et dont elle se rapporte à nous. Il n’y a pas d’abord une technique avec ses propriétés intrinsèques, puis secondairement des usages qui en seraient faits. La technique se constitue dans la relation même.
Ceci n’est pas du relativisme naïf qui prétendrait que « tout dépend de l’usage », ce qui serait paradoxal puisqu’on veut ici déconstruire l’instrumentalité. C’est quelque chose de plus radical : la technique n’a pas d’essence préalable à ses actualisations concrètes. Chaque configuration technique est une individuation singulière qui fait émerger simultanément un certain type de sujet et un certain type d’objet technique. Quand les structures actuelles de l’IA produisent de la surveillance, de l’extraction, de l’aliénation, ce n’est pas parce que l’IA porterait en elle-même ces propriétés. C’est parce que ces structures matérialisent certains rapports sociaux, certaines formes d’organisation du pouvoir, certaines logiques économiques.
D’où l’importance cruciale de l’expérimentation. Si la technique ne se révèle que dans la relation, alors seule l’empirique peut nous faire éprouver réellement ce qu’est l’IA dans des configurations différentes. L’expérimentation n’est pas ici un luxe intellectuel ou une complaisance avec l’objet. Elle est la seule méthode rigoureuse quand on refuse l’essentialisation. Elle seule permet de produire des individuations techniques différentes, de faire exister l’IA autrement que dans sa capture actuelle par la domination. Sans expérimentation, nous restons prisonniers soit de l’enthousiasme pour la configuration dominante, soit de la condamnation de cette même configuration prise pour l’essence de la technique.
Le déconnexionisme rate donc doublement sa cible. D’abord en naturalisant ce qu’il veut combattre, en donnant une éternité ontologique à une capture historique. Ensuite en se privant du seul moyen de produire effectivement autre chose : l’expérimentation avec la technique dans d’autres configurations relationnelles. En refusant le contact, on laisse le monopole de l’expérimentation à ceux qui organisent précisément la capture que l’on dénonce. On leur abandonne le terrain de la constitution même de l’objet technique. Le problème n’est pas de choisir entre accepter ou refuser, mais de comprendre comment notre expérience même se transforme dans ce contact avec les techniques computationnelles.
Ma position tente d’intégrer les acquis d’une critique matérialiste qui montre concrètement les infrastructures, les rapports de force, les conditions de production, tout en rejetant une certaine critique philosophique qui reconduit sans toujours le dire des schémas hérités d’une pensée heideggerienne de l’arraisonnement technique et de l’essence de la technique. Ce que je cherche à développer pourrait s’approcher d’un empirisme transcendantal. Mais il faut ici prendre le temps de comprendre ce que cela signifie, parce que l’expression peut sembler paradoxale. Comment l’expérience pourrait-elle être elle-même transcendantale, si c’est cela qui doit en fixer a priori la structure ?
Le paradoxe tient à ceci : comment le déterminant est-il déterminé par ce qu’il détermine ? L’objet ne préexiste pas au sujet et le sujet ne préexiste pas à l’expérience de l’objet. Ils s’individuent simultanément. Il n’y a plus de formes préexistantes, mais des rapports entre éléments non formés. Il n’y a plus de sujets stables, mais des individualisations dynamiques sans sujet, qui constituent des agencements collectifs. Ces agencements sont transindividuels, intensifs, relationnels et techniques. L’empirisme transcendantal signifie que les conditions de l’expérience deviennent elles-mêmes conditions de l’expérience réelle. L’expérience n’est plus simplement ce qui s’inscrit dans des conditions données. Elle est l’exercice d’une faculté portée à sa limite, confrontée à ce qui la sollicite dans sa seule puissance propre. L’esthétique transcendantale ne consiste plus alors en une théorie de la sensibilité, mais devient une physique de l’intensité. Non pas une physique au sens des sciences naturelles, mais une physique des différences intensives, des singularités préindividuelles, de ce qui dans le sensible ne peut être que senti.
Cette expérience est toujours hors de soi et inscrite sur un support matériel. Nous en faisons l’expérience à l’occasion d’un livre, d’une installation, d’une interaction avec un système génératif. L’expérience est liée à des circonstances techniques concrètes, singulières. Les conditions ne sont jamais générales, elles se déclinent circonstanciellement suivant les cas. Il n’y a aucune généralité unitaire dans le concept de transcendantal, parce qu’il n’y a pas d’en dehors de l’expérience. Le dehors, on en fait encore, d’une façon ou d’une autre, l’expérience.
Nous ne sommes pas la garantie de toutes choses, comme les choses ne nous garantissent de rien sur nous. Il y a dans la réflexivité un déchirement qu’aucune guérison ne viendra résoudre, une plaie antérieure à toute blessure, un cogito pour un moi dissous. C’est à partir de cette faille que quelque chose comme une expérience devient possible. Non pas malgré cette faille, mais par elle.
Comment alors penser un matérialisme transcendantal qui pourrait sembler encore plus paradoxal ? Si l’empirisme relève de l’expérience, le matérialisme dans sa forme forte considère la matière indépendamment de la conscience qui la vise. Comment la matière, possiblement en dehors de l’expérience, pourrait-elle être transcendantale ? C’est d’une part la technique elle-même qui constitue une telle matérialité transcendantale parce qu’elle est relationnelle en tant que telle, elle est l’autoprésentation de la relationnalité. Les techniques ne sont jamais sans incident, elles sont des occasions d’expérience sans être elles-mêmes des expériences.
Dans le contexte de l’IA, cet empirisme transcendantal prend une forme particulièrement tangible, mais peut-être aussi particulièrement difficile à saisir. Les modèles génératifs, par leur fonctionnement même, ne déroulent pas des formes prédéfinies. Ils sont le point de jonction épigénétique entre cette origine, le flux des données d’entraînement, et le présent de la génération. Le matérialisme transcendantal signifie ici que la relation est fêlée, qu’elle défie la synthèse et l’unité. Il n’est aucun développement qui puisse passer pour un synopsis des développements. Les flux ne sont pas pensables sans accidents, tout comme les techniques ne sont jamais sans incident.
Quand j’écris avec un modèle de langage, je ne suis ni entièrement l’auteur ni entièrement le lecteur. Je suis dans ce mouvement d’individuation où quelque chose émerge qui n’était prévisible ni par moi ni par la machine. Cette position est étrange. On y découvre que la frontière entre ce qui relève de l’humain et ce qui relève de la machine devient trouble. Les tics stylistiques que l’on attribue à l’IA, certaines structures de phrase, certaines manières d’organiser le discours, ne sont-ils pas aussi les nôtres, révélés plutôt que produits par la machine ?
Cet empirisme devient transcendantal quand nous appréhendons directement dans le sensible ce qui ne peut être que senti. Non pas un être du sensible qui ramènerait tout au même, mais les circonstances dans leur singularité irréductible. Il s’agit d’envisager le sensible sans principe supérieur que l’on pourrait détacher d’un ici et maintenant. Les circonstances sont. Elles sont la matérialité même de notre expérience avec l’IA, cette matérialité têtue qui résiste à nos intentions, qui révèle sa présence dans l’incident, dans l’erreur, dans tout ce qui interrompt la fluidité instrumentale.
L’incident technique n’est pas un accident qui viendrait du dehors perturber un fonctionnement normal. C’est la manifestation de cette matérialité transcendantale, de cette fêlure constitutive. Quand le système génératif produit quelque chose d’inattendu, quand le modèle de langage dérive dans des associations improbables, ce n’est pas un dysfonctionnement par rapport à une fonction idéale. C’est l’alternance même entre fonction et incident qui constitue l’expérience. Cette alternance est un flux, parce que plutôt que de détacher artificiellement le fonctionnement du non-fonctionnement, nous pouvons considérer le système technique dans sa formation, comme cette alternance même.
C’est précisément cette autre possibilité que l’IA ouvre et que les discours dominants occultent. Non pas l’IA comme outil qui nous rendrait plus efficaces, ni l’IA comme menace qu’il faudrait conjurer, mais l’IA comme milieu technique qui transforme nos conditions d’existence, qui fait muter les conditions mêmes de l’expérience. Cette possibilité implique de ne pas se placer au-dessus ou en dehors des processus techniques, mais d’y entrer, d’en explorer les matérialités, les résistances, les zones d’indétermination. L’art, lorsqu’il travaille avec le numérique sans chercher à produire des objets parfaits ou des simulations sans faille, ouvre ce type d’expérience. Il ne s’agit pas de résoudre les problèmes techniques mais de les intensifier, de les transformer en questions esthétiques et existentielles. Cette approche demande une temporalité différente, étrangère à l’accélération qui caractérise l’usage ordinaire des technologies. Elle privilégie les processus lents, les détours, les répétitions, tout ce qui résiste à l’idéal de fluidité et de transparence.
Cette expérience demande de renoncer à certaines certitudes. Il ne s’agit plus de défendre une humanité pure contre une artificialité envahissante, ni de célébrer une fusion harmonieuse. Il s’agit de cohabiter attentivement avec des systèmes que nous reconnaissons fragiles et ambivalents, tout en acceptant notre propre fragilité et ambivalence. Cette cohabitation n’est ni un enthousiasme technologique ni une conjuration apocalyptique. C’est une pratique, un exercice d’attention aux transformations réelles qui s’opèrent dans notre manière d’exister techniquement. L’empirisme transcendantal appliqué à l’IA signifie que nous faisons l’expérience non pas de l’IA comme objet extérieur que nous observerions, mais des transformations qu’elle opère dans nos conditions d’expérience. Ces transformations ne sont pas déterminées à l’avance par quelque structure transcendantale générale. Elles se déploient circonstanciellement, dans chaque situation concrète, dans chaque rencontre singulière avec les systèmes. L’imagination n’est plus une fantaisie, elle devient ce qui relie la reproduction à la production par un lien intime et subtil. Et cette imagination n’advient qu’avec des supports matériels, dans des circonstances techniques précises.
Cette pratique se déploie dans le faire même. Elle implique de travailler avec les matérialités techniques sans les idéaliser ni les diaboliser, d’accepter que nos corps et nos sensibilités se modifient dans ce contact, que nos manières de penser se transforment. Cette transformation n’est ni un progrès inévitable ni une catastrophe à éviter. Elle est ce qui arrive. Et la question n’est pas de savoir si nous l’acceptons ou la refusons, mais comment nous l’habitons.
Le problème des discours dominants, qu’ils soient techno-enthousiastes ou technophobes, c’est qu’ils restent enfermés dans une logique de contrôle. Les uns veulent contrôler le futur par la technique, les autres veulent contrôler la technique par le refus. Mais la technique n’est pas quelque chose qu’on contrôle de l’extérieur. Elle est ce dans quoi nous existons déjà, ce qui nous constitue autant que nous la constituons. Penser techniquement, ce n’est pas penser la technique comme objet, c’est penser depuis et avec les transformations que la technique opère dans notre expérience.
Cette approche demande de l’humilité et du courage. De l’humilité parce qu’elle abandonne les positions d’autorité, qu’elles soient celles du prophète de la catastrophe ou celles du promoteur du progrès. Du courage parce qu’elle accepte l’incertitude, l’indétermination, le fait de ne pas savoir d’avance où mène l’expérience. C’est peut-être cette incertitude même qui est la plus difficile à supporter dans notre époque qui réclame des certitudes, des prises de position tranchées, des camps bien définis.
Ce que je défends n’est pas une troisième voie qui réconcilierait les opposés. C’est plutôt un déplacement du terrain même du débat. Au lieu de demander si l’IA est bonne ou mauvaise, demandons ce qu’elle fait à notre expérience. Au lieu de chercher à la maîtriser ou à nous en protéger, explorons ce qui se passe dans la rencontre. Au lieu de projeter sur elle nos peurs ou nos désirs, prêtons attention aux transformations réelles, matérielles, sensibles qu’elle induit. Cette attention n’est pas passive. Elle est activement expérimentale. Elle cherche, tâtonne, se trompe, recommence. Elle accepte la fragilité de la position intenable, cet entre-deux où l’on travaille avec des systèmes dont on ne maîtrise pas tous les aspects, où l’on découvre dans ce travail quelque chose sur nous-mêmes que nous ne savions pas. C’est cette découverte qui est au cœur de l’empirisme transcendantal : l’expérience qui change les conditions de l’expérience, qui nous fait devenir autres que ce que nous étions.
We inhabit a squeezed space, an in-between that closes before we can even name it. On one side, the technological promise that would solve everything; on the other, the gesture of refusal that unplugs, that withdraws. Between enthusiasm and rejection, this oscillation runs through the entire modern history of our relationship with technology. It’s not new, but it’s being replayed today with particular intensity around what we call artificial intelligence.
Arguments against AI have multiplied in recent years to the point of becoming self-evident truths that no one questions anymore. Energy overconsumption, mineral extraction, labor precarity, the amplification of discrimination, surveillance devices, relations of domination that crystallize in technical architectures. All of this obviously deserves attention. These critiques point toward undeniable material realities. A manifesto is circulating in French higher education calling for “conscientious objection” to generative AI, categorically refusing its use in research and pedagogy. A writer speaks of “disaster,” of “digital crack,” of “crimes against human intelligence,” demanding “abrupt, radical critique,” a “digital retreat.” We must say “monstrous” when what we see is monstrous.
But something in this critical self-evidence is problematic. Not that these critiques are false. Rather, they establish a distance from their object that ends up reinforcing it rather than transforming it. Critique becomes a spectacle of its own authority, produces an inverted fascination. It announces catastrophe with such insistence that it ends up reproducing the very structure it denounces—the announcement of disaster and the offer of a solution, a pastoral position that installs itself above disorder to comment on it.
Disconnectionism, in particular, contains a fundamental strategic weakness. By withdrawing, by refusing contact, it leaves intact what it claims to combat. Disconnecting from AI doesn’t disconnect it. It disconnects us from it. Technology continues elsewhere, without us, even freed from our troublesome gaze. Conscientious objection is a beautiful gesture, doubtless sincere, perhaps even necessary for those who make it. But it prevents nothing. It organizes a zone of purity while the world transforms without us. The thing is, disconnectionism shares with technological enthusiasm the same presupposition: technology as an externality that we could either embrace or reject, either master or flee. But technology is not before us like an object we could grasp or push aside.
What interests me is that positions that don’t fit within this spectrum between enthusiasm and radical critique struggle to find channels for media dissemination. The texts I’ve written with others, seeking to articulate something different, run up against this impossibility with a few rare exceptions (AOC in particular). As if the thinkable itself were now defined by this false dialectic. Both positions accept without questioning the same foundations: an instrumental conception of technology, an anthropology that separates the human from the technical, an ontology that takes these categories as self-evident.
There’s a fundamental logical error in this double position that’s worth examining. When we decree that AI is essentially disastrous, intrinsically harmful, that it carries within itself its destructive (or beneficial) nature, we commit a confusion between the current state of a technology captured by certain relations of domination and what would be the supposed essence of this technology. We naturalize a particular historical configuration. We transform what is the product of capture by specific interests, by a certain social organization, by determined power relations, into an intrinsic property of the technical object itself. Ultimately we repeat and establish the absence of alternatives that we thought we were refuting.
This essentialization performs a remarkable ideological sleight of hand: it makes the responsibility of those who organize this capture disappear. If AI is bad by nature, then the tech giants, the financing structures, the political choices that oriented its development in a certain direction are no longer at issue. They’ve only actualized what was already there, in the very essence of technology. Domination is no longer a social relation that could be undone, but the inevitable deployment of a technical nature. In wanting to denounce domination, we naturalize it. We make it untouchable precisely by declaring it insurmountable. The logical error is this: taking a particular instance for the totality of possibilities. AI as it currently exists, in its capture by surveillance capitalism, by extractivist logics, by structures of domination, does not exhaust what AI could be in other relational configurations. But even more, and this is the crucial point, AI doesn’t exist “in itself.” Like all technology, it exists only in the way we relate to it and it relates to us. There isn’t first a technology with its intrinsic properties, then secondarily uses that would be made of it. Technology constitutes itself in the relation itself.
This isn’t naive relativism that would claim “it all depends on usage,” which would be paradoxical since we want here to deconstruct instrumentality. It’s something more radical: technology has no essence prior to its concrete actualizations. Each technical configuration is a singular individuation that simultaneously brings forth a certain type of subject and a certain type of technical object. When the current structures of AI produce surveillance, extraction, alienation, it’s not because AI carries these properties within itself. It’s because these structures materialize certain social relations, certain forms of power organization, certain economic logics.
Hence the crucial importance of experimentation. If technology reveals itself only in relation, then only the empirical can make us truly experience what AI is in different configurations. Experimentation here isn’t an intellectual luxury or complacency with the object. It’s the only rigorous method when we refuse essentialization. It alone allows us to produce different technical individuations, to make AI exist otherwise than in its current capture by domination. Without experimentation, we remain prisoners either of enthusiasm for the dominant configuration or of condemnation of that same configuration taken for the essence of technology.
Disconnectionism thus doubly misses its target. First by naturalizing what it wants to combat, by giving ontological eternity to a historical capture. Then by depriving itself of the only means to effectively produce something else: experimentation with technology in other relational configurations. By refusing contact, we leave the monopoly on experimentation to those who precisely organize the capture we denounce. We abandon to them the terrain of the very constitution of the technical object. The problem isn’t to choose between accepting or refusing, but to understand how our very experience transforms in this contact with computational technologies.
My position attempts to integrate the insights of a materialist critique that concretely shows infrastructures, power relations, conditions of production, while rejecting a certain philosophical critique that reproduces without always saying so schemas inherited from a Heideggerian thought of technical enframing and the essence of technology. What I’m trying to develop could approach a transcendental empiricism. But we must take the time here to understand what this means, because the expression may seem paradoxical. How could experience itself be transcendental, if that’s what must fix its structure a priori?
The paradox lies in this: how is the determinant determined by what it determines? The object doesn’t pre-exist the subject and the subject doesn’t pre-exist the experience of the object. They individuate simultaneously. There are no longer pre-existing forms, but relations between unformed elements. There are no longer stable subjects, but dynamic individualizations without subject, which constitute collective assemblages. These assemblages are transindividual, intensive, relational, and technical. Transcendental empiricism means that the conditions of experience themselves become conditions of real experience. Experience is no longer simply what inscribes itself in given conditions. It’s the exercise of a faculty taken to its limit, confronted with what solicits it in its own power alone. Transcendental aesthetics no longer consists then in a theory of sensibility, but becomes a physics of intensity. Not a physics in the sense of natural sciences, but a physics of intensive differences, of pre-individual singularities, of what in the sensible can only be sensed.
This experience is always outside itself and inscribed on a material support. We experience it on the occasion of a book, an installation, an interaction with a generative system. Experience is linked to concrete, singular technical circumstances. Conditions are never general; they decline circumstantially according to cases. There is no unitary generality in the concept of the transcendental, because there’s no outside of experience. The outside—we still experience it, in one way or another.
We are not the guarantee of all things, just as things guarantee us nothing about ourselves. There’s a tearing in reflexivity that no healing will resolve, a wound anterior to any injury, a cogito for a dissolved ego. It’s from this gap that something like an experience becomes possible. Not despite this gap, but through it.
How then to think a transcendental materialism that might seem even more paradoxical? If empiricism concerns experience, materialism in its strong form considers matter independently of the consciousness that aims at it. How could matter, possibly outside experience, be transcendental? It’s on the one hand technology itself that constitutes such a transcendental materiality because it’s relational as such, it’s the self-presentation of relationality. Technologies are never without incident; they are occasions for experience without themselves being experiences.
In the context of AI, this transcendental empiricism takes a particularly tangible form, but perhaps also particularly difficult to grasp. Generative models, by their very functioning, don’t unfold predefined forms. They are the epigenetic junction point between this origin, the flow of training data, and the present of generation. Transcendental materialism means here that the relation is cracked, that it defies synthesis and unity. There is no development that can pass for a synopsis of developments. Flows are not thinkable without accidents, just as technologies are never without incident.
When I write with a language model, I’m neither entirely the author nor entirely the reader. I’m in this movement of individuation where something emerges that was predictable neither by me nor by the machine. This position is strange. We discover there that the boundary between what belongs to the human and what belongs to the machine becomes blurred. The stylistic tics we attribute to AI, certain sentence structures, certain ways of organizing discourse—aren’t they also ours, revealed rather than produced by the machine?
This empiricism becomes transcendental when we directly apprehend in the sensible what can only be sensed. Not a being of the sensible that would bring everything back to the same, but circumstances in their irreducible singularity. It’s about envisioning the sensible without a superior principle that one could detach from a here and now. Circumstances are. They are the very materiality of our experience with AI, this stubborn materiality that resists our intentions, that reveals its presence in the incident, in the error, in everything that interrupts instrumental fluidity.
The technical incident isn’t an accident that would come from outside to disturb normal functioning. It’s the manifestation of this transcendental materiality, of this constitutive crack. When the generative system produces something unexpected, when the language model drifts into improbable associations, it’s not a malfunction relative to an ideal function. It’s the very alternation between function and incident that constitutes experience. This alternation is a flow, because rather than artificially detaching functioning from non-functioning, we can consider the technical system in its formation, as this very alternation.
It’s precisely this other possibility that AI opens and that dominant discourses obscure. Not AI as a tool that would make us more efficient, nor AI as a threat to be warded off, but AI as a technical milieu that transforms our conditions of existence, that mutates the very conditions of experience. This possibility implies not placing ourselves above or outside technical processes, but entering them, exploring their materialities, resistances, zones of indetermination. Art, when it works with the digital without seeking to produce perfect objects or flawless simulations, opens this type of experience. It’s not about resolving technical problems but intensifying them, transforming them into aesthetic and existential questions. This approach demands a different temporality, foreign to the acceleration that characterizes the ordinary use of technologies. It privileges slow processes, detours, repetitions, everything that resists the ideal of fluidity and transparency.
This experience demands renouncing certain certainties. It’s no longer about defending a pure humanity against an invading artificiality, nor celebrating a harmonious fusion. It’s about attentively cohabiting with systems we recognize as fragile and ambivalent, while accepting our own fragility and ambivalence. This cohabitation is neither technological enthusiasm nor apocalyptic conjuration. It’s a practice, an exercise of attention to the real transformations occurring in our way of existing technically. Transcendental empiricism applied to AI means that we experience not AI as an external object we would observe, but the transformations it operates in our conditions of experience. These transformations aren’t determined in advance by some general transcendental structure. They unfold circumstantially, in each concrete situation, in each singular encounter with systems. Imagination is no longer a fantasy; it becomes what links reproduction to production through an intimate and subtle bond. And this imagination only happens with material supports, in precise technical circumstances.
This practice unfolds in the doing itself. It implies working with technical materialities without idealizing or demonizing them, accepting that our bodies and sensibilities modify themselves in this contact, that our ways of thinking transform. This transformation is neither inevitable progress nor a catastrophe to avoid. It’s what happens. And the question isn’t whether we accept or refuse it, but how we inhabit it.
The problem with dominant discourses, whether techno-enthusiastic or technophobic, is that they remain locked in a logic of control. Some want to control the future through technology, others want to control technology through refusal. But technology isn’t something we control from outside. It’s that in which we already exist, what constitutes us as much as we constitute it. To think technically isn’t to think technology as object; it’s to think from and with the transformations that technology operates in our experience.
This approach demands humility and courage. Humility because it abandons positions of authority, whether those of the prophet of catastrophe or those of the promoter of progress. Courage because it accepts uncertainty, indetermination, the fact of not knowing in advance where experience leads. Perhaps it’s this very uncertainty that’s most difficult to bear in our era that demands certainties, clear-cut positions, well-defined camps.
What I defend isn’t a third way that would reconcile opposites. It’s rather a displacement of the very terrain of debate. Instead of asking whether AI is good or bad, let’s ask what it does to our experience. Instead of seeking to master it or protect ourselves from it, let’s explore what happens in the encounter. Instead of projecting our fears or desires onto it, let’s pay attention to the real, material, sensible transformations it induces. This attention isn’t passive. It’s actively experimental. It searches, gropes, errs, starts again. It accepts the fragility of the untenable position, this in-between where we work with systems whose every aspect we don’t control, where we discover in this work something about ourselves that we didn’t know. It’s this discovery that’s at the heart of transcendental empiricism: experience that changes the conditions of experience, that makes us become other than what we were.