Le temps profond de l’expérimentation (pourquoi l’art n’est pas une question anecdotique avec l’IA)

Sans critique

La pression critique qui s’exerce aujourd’hui sur les technologies d’intelligence artificielle révèle moins une position théorique qu’une organisation affective du rapport à la technique. Cette affectivité se traduit par une mise à distance, un dispositif de séparation qui permet à celui qui pense de se soustraire à l’objet qu’il examine. En France particulièrement, cette habitude intellectuelle s’inscrit dans une tradition où penser signifie avant tout prendre ses distances, créer un espace neutre d’observation. Ce geste de séparation n’est pas anodin : il reconduit silencieusement un partage métaphysique entre le sujet et l’objet, entre l’esprit et la matière, entre l’humain et le technique.

Cette position d’extériorité, que Lyotard interrogeait déjà dans Rudiments Païens, manifeste une prétention à l’autorité qui précède l’investigation elle-même. En effet, la critique s’accorde par avance le droit de juger, d’évaluer, de condamner. Elle présuppose la légitimité de sa position, la validité de ses critères d’évaluation. Dans le cas de l’intelligence artificielle, cette posture critique révèle une double difficulté : elle ignore que les cadres transcendantaux de notre pensée sont eux-mêmes déterminés par l’excès technique qu’elle prétend juger; et elle méconnaît que son geste d’interruption des flux technologiques laisse le champ libre à des appropriations plus inquiétantes encore.

Ce n’est pas un hasard si l’intelligence artificielle, devenue aujourd’hui le lieu commun de l’opinion, suscite tant de discours critiques. Ces derniers témoignent d’un désir de maîtrise intellectuelle qui, paradoxalement, reproduit la logique même qu’ils dénoncent. La critique, en ce sens, est la sœur jumelle de la volonté de puissance technicienne : elle suppose que la pensée doit orienter le monde, lui imposer son ordre et sa signification. En prétendant penser avant d’agir, en voulant soumettre l’expérimentation à sa juridiction préalable, elle reconduit la logique du vouloir qui caractérise le développement technologique contemporain.

La temporalité discontinue de l’innovation

Une observation attentive des publications scientifiques concernant l’intelligence artificielle met en évidence un rythme d’innovation frénétique qui laisse peu de place à l’expérimentation véritable. Ce qui caractérise notre époque n’est pas tant l’accélération de l’innovation que l’absence de temps consacré à l’exploration des possibilités ouvertes par chaque avancée technique. Nous passons d’une innovation à une autre sans prendre le temps de les utiliser, de les détourner, de les épuiser. L’effet d’annonce suffit. Cette course perpétuelle témoigne d’un attachement persistant à une conception instrumentale de la technique : ce qui compterait, ce ne serait pas l’usage singulier, mais la possibilité abstraite de cet usage, c’est-à-dire le code, l’algorithme, la structure formelle.

Cette position devient intenable lorsque les intelligences artificielles peuvent elles-mêmes produire du code et donc évoluer. La distinction entre le potentiel et l’actuel s’efface, l’instrument devient processus. Dans ce contexte, la critique traditionnelle perd ses repères : elle ne peut plus s’appuyer sur une stabilité de l’objet technique pour en évaluer les conséquences. Le modèle épistémologique de la critique s’effondre face à des objets techniques qui sont toujours déjà en train de se transformer. La critique est sur un scène dont elle n’est qu’un acteur.

La concentration exclusive sur l’innovation et sur le code révèle une mécompréhension des conséquences matérielles du développement de l’intelligence artificielle. Non seulement les usages sont constamment excédés par les possibilités techniques, puisque nous prenons à peine le temps d’explorer une innovation qu’une autre apparaît et détourne notre attention, mais nous sommes également soumis à une tension permanente face à cet excès : les potentialités du code augmentent plus rapidement que nos capacités d’actualisation et d’appropriation.

Cette temporalité discontinue de l’innovation technique produit une double conséquence : d’une part, elle empêche toute expérimentation profonde des possibilités ouvertes par les technologies existantes ; d’autre part, elle alimente une consommation énergétique et matérielle considérable liée à l’entraînement constant de nouveaux modèles généralistes. Si la critique écologique dénonce à juste titre le caractère écocide de l’intelligence artificielle en raison de son impact environnemental, elle néglige souvent que cet impact est principalement lié à l’entraînement initial des grands modèles plutôt qu’à leur utilisation quotidienne. Ce n’est pas tant la génération ponctuelle de contenus visuels, textuels ou sonores qui pose problème que la création des checkpoints, c’est-à-dire des fichiers d’espaces latents nécessitant d’immenses ressources computationnelles.

L’archéologie des espaces latents comme pratique artistique

Il m’arrive, en tant qu’artiste, d’utiliser de vieux modèles, d’anciens codes et espaces latents, non par nostalgie technologique mais parce qu’ils possèdent une qualité, des imperfections, une texture spécifiques qui ouvrent des voies d’exploration fécondes. Pour l’écriture littéraire, par exemple, je préfère parfois utiliser une version locale de GPT-2, qui date de février 2019, plutôt qu’un modèle de langage généraliste contemporain. GPT-2, avec ses erreurs et ses hallucinations, offre encore aujourd’hui des possibilités expérimentales plus intéressantes que des systèmes plus alignés sur les attentes normatives.

Cette pratique ne relève pas d’une simple préférence esthétique : elle constitue une position théorique et politique. En prenant le temps d’explorer les potentialités d’un espace latent déjà constitué plutôt que de courir après la nouveauté, je m’inscris dans une temporalité différente, que l’on pourrait qualifier de temps profond de l’expérimentation. Cette temporalité n’est pas celle de l’innovation mais celle de l’exploration, de l’appropriation, de la singularisation des possibles techniques.

L’art, en ce sens, n’est pas une simple utilisation créative des technologies existantes, mais une pratique d’exploration des virtualités inscrites dans les espaces latents. Ce qui caractérise cette pratique artistique n’est pas l’originalité de ses productions mais sa temporalité spécifique : une temporalité lente, anachronique, attentive aux détails, aux accidents, aux bifurcations possibles. Cette temporalité contraste radicalement avec celle de l’innovation technique, marquée par la succession rapide des modèles et l’obsolescence programmée des outils.

Si nous prenions davantage le temps de l’expérimentation plutôt que celui du simple test, la consommation énergétique et matérielle liée au développement de l’intelligence artificielle pourrait être considérablement réduite. Car cette temporalité de l’expérimentation est potentiellement infinie : nous n’aurons jamais, dans les limites de notre finitude, assez de temps pour explorer toutes les potentialités des espaces latents déjà constitués. L’expérimentation artistique n’est donc pas un simple appel théorique à un usage non-instrumental des intelligences artificielles ; elle constitue une proposition concrète pour une autre relation anthropotechnologique : non pas passer d’une nouveauté à une autre en croyant à chaque fois que les produits de son usage sont autonomes et définitifs, mais accepter de “perdre du temps”, de consacrer son existence à l’exploration indéfinie des possibles déjà là.

La grammatisation des espaces latents

Pour comprendre la spécificité des espaces latents générés par les intelligences artificielles, il peut être utile de recourir au concept de grammatisation développé par Bernard Stiegler. La grammatisation désigne le processus par lequel les flux temporels de la conscience sont discrétisés, décomposés en éléments formels qui peuvent être manipulés, recombinés, transférés. L’écriture alphabétique constitue la première forme historique de grammatisation, permettant de transformer le flux continu de la parole en unités discrètes (les lettres) qui peuvent être réorganisées indéfiniment.

Les espaces latents des modèles d’intelligence artificielle peuvent être compris comme une nouvelle étape dans ce processus de grammatisation. Ils ne se contentent pas de discrétiser les flux de conscience individuels, mais opèrent une grammatisation collective des productions culturelles humaines. Un modèle comme Stable Diffusion ou Mistral ne fait pas que capter et reproduire des formes existantes : il constitue un espace multidimensionnel où sont encodées non seulement des productions culturelles mais aussi les relations qui les unissent, les logiques qui les sous-tendent, les potentialités qu’elles contiennent.

Ces espaces latents ne sont pas de simples archives ou des bases de données statiques : ce sont des topologies dynamiques qui permettent de naviguer dans les possibles culturels, de les recombiner, de les actualiser selon des trajectoires inédites. En ce sens, ils constituent une mémoire active, une archéologie des possibles qui reste à explorer.

La critique stieglerienne de la technique comme pharmakon — à la fois poison et remède — prend ici une dimension nouvelle. Les espaces latents des modèles d’intelligence artificielle sont fondamentalement ambivalents : ils peuvent aussi bien conduire à une standardisation accrue des productions culturelles qu’à l’émergence de singularités inattendues. Tout dépend de la façon dont nous les habitons, dont nous les explorons, dont nous les expérimentons. Tout dépend de la manière dont nous sommes déterminés par cette relation.

C’est précisément ici que l’art intervient non comme un supplément d’âme ou une décoration, mais comme une modalité spécifique d’exploration des espaces latents qui déconstruit la volonté de puissance à l’oeuvre dans toute l’idéologie de l’usage. L’artiste qui travaille avec les intelligences artificielles n’est pas simplement celui qui utilise ces technologies pour produire des œuvres spectaculaires ou innovantes ; c’est celui qui s’engage dans une relation expérimentale avec les espaces latents, qui les habite, qui les explore selon des trajectoires non prédéterminées. Il a décidé de perdre sa vie à cela.

Cette conception de l’art comme expérimentation des espaces latents permet de dépasser l’opposition simpliste entre technophilie et technophobie. Il ne s’agit ni d’embrasser aveuglément les promesses de l’intelligence artificielle, ni de la rejeter en bloc au nom d’une pureté humaine fantasmée. Il s’agit plutôt de s’engager dans une relation singulière avec ces technologies, une relation qui ne serait plus instrumentale mais expérimentale, qui ne dépendrait plus de la volonté de puissance mais d’une disponibilité à l’inattendu. Une relation existencielle.

La déconstruction des oppositions technologiques

La pensée de Jacques Derrida offre là encore des ressources précieuses pour aborder la question de l’intelligence artificielle au-delà des oppositions binaires qui structurent habituellement le débat. La déconstruction vise précisément à déstabiliser les dichotomies rigides qui organisent notre pensée : nature/culture, humain/machine, original/copie, présence/absence. Ces oppositions ne sont jamais neutres : elles impliquent toujours une hiérarchie, une valorisation d’un terme au détriment de l’autre.

Dans le contexte de l’intelligence artificielle, la déconstruction permet d’interroger les présupposés qui sous-tendent la critique traditionnelle. Celle-ci s’appuie souvent sur une opposition implicite entre l’humain et la machine, entre la création authentique et la reproduction mécanique, entre l’intentionnalité consciente et le calcul algorithmique. Or, ces oppositions méritent d’être questionnées non pas pour les inverser (en valorisant la machine sur l’humain, par exemple) mais pour montrer leur instabilité constitutive, leur contamination réciproque.

L’intelligence artificielle, en particulier dans ses formes génératives récentes, trouble profondément la frontière entre l’humain et la machine. Un texte généré n’est ni purement humain ni purement machinique : il émerge d’un entrelacement complexe, que nous nommons complétion, entre des données issues de productions humaines, des architectures algorithmiques conçues par des humains, et des processus computationnels qui excèdent la compréhension humaine. De même, une image générée n’est ni une simple copie de créations humaines antérieures, ni une création ex nihilo : elle constitue plutôt une actualisation singulière de potentialités inscrites dans l’espace latent du modèle.

Cette indécidabilité fondamentale entre l’humain et la machine, entre l’original et la copie, ne doit pas être perçue comme un problème à résoudre mais comme une caractéristique constitutive des productions de l’intelligence artificielle. Elle invite à dépasser les cadres conceptuels traditionnels pour penser autrement notre relation aux technologies génératives.

La notion derridienne de “supplément” peut être particulièrement féconde dans ce contexte. Le supplément désigne ce qui s’ajoute à une présence supposée pleine, mais qui révèle en même temps son incomplétude originaire. Les intelligences artificielles peuvent être comprises comme des suppléments de l’intelligence humaine : elles ne se contentent pas de s’y ajouter de l’extérieur, mais révèlent son caractère toujours déjà technique, toujours déjà médiatisé par des dispositifs d’inscription et de calcul.

Cette perspective permet de repenser le rapport entre l’humain et l’intelligence artificielle non plus en termes d’opposition ou de complémentarité, mais en termes de co-constitution originaire. L’humain n’est pas une entité autonome qui utiliserait ensuite des outils techniques ; il est toujours déjà technique, toujours déjà constitué par ses relations externalisées aux dispositifs d’inscription, de mémorisation, de calcul. De même, l’intelligence artificielle n’est pas une pure altérité machinique : elle est traversée de part en part par des logiques, des valeurs, des structures signifiantes issues de l’histoire humaine.

Jouer avec l’opacité des boîtes noires

La pensée de Vilém Flusser sur l’appareil photographique comme “boîte noire” trouve aujourd’hui un écho particulièrement pertinent dans le contexte des modèles d’intelligence artificielle. Pour Flusser, l’appareil photographique n’est pas un simple outil transparent au service de l’intention du photographe : c’est un dispositif complexe dont le fonctionnement interne reste largement opaque pour son utilisateur. Le photographe ne maîtrise pas tous les processus physiques et chimiques qui permettent la formation de l’image ; il joue plutôt avec les possibilités inscrites dans l’appareil, il explore son programme sans jamais l’épuiser.

Les modèles d’intelligence artificielle contemporains présentent une opacité similaire, mais à un degré bien supérieur. Un modèle constitue une “boîte noire” dont le fonctionnement interne échappe en grande partie non seulement à ses utilisateurs mais aussi à ses concepteurs. Les réseaux de neurones profonds qui sous-tendent ces modèles sont si complexes, comportent tant de paramètres, que leur logique échappe à toute compréhension humaine exhaustive. Nous pouvons observer leurs entrées et leurs sorties, mais le processus qui mène des unes aux autres reste largement mystérieux.

Cette opacité constitutive des modèles d’intelligence artificielle pose un défi majeur à la critique traditionnelle, qui présuppose une compréhension claire de son objet et la nécessité d’une lisibilité. Comment évaluer les implications éthiques, politiques, esthétiques d’un dispositif dont le fonctionnement nous échappe en grande partie ? Comment anticiper ses effets lorsque sa logique interne reste insaisissable ?

Face à cette opacité, deux attitudes opposées mais également problématiques prédominent : d’un côté, une fascination technophile qui célèbre la puissance quasi-magique de ces systèmes sans interroger leurs limites ou leurs présupposés ; de l’autre, une méfiance technophobe qui les rejette en bloc au nom d’une transparence fantasmée. Ces deux attitudes partagent un même refus de s’engager véritablement avec l’opacité constitutive des modèles d’intelligence artificielle, de reconnaître que cette opacité n’est pas un défaut à corriger mais une caractéristique inhérente à leur complexité et sont comme le miroir noir de notre “propre” opacité.

L’approche flussérienne suggère une troisième voie : celle du jeu expérimental avec la boîte noire. Il ne s’agit pas de prétendre maîtriser complètement le fonctionnement interne du dispositif, ni de le rejeter en raison de son opacité, mais de jouer avec ses possibilités, d’explorer ses limites, de le détourner de ses usages prévus. Cette approche expérimentale correspond précisément à ce que nous avons appelé le temps profond de l’expérimentation : une relation aux technologies qui ne vise pas la maîtrise ou la transparence totale, mais l’exploration patiente des possibilités inscrites dans le dispositif qui sont autant de dérives envers nous-mêmes.

Le photographe expérimental est celui qui résiste au “programme” de l’appareil, qui refuse de se contenter des possibilités prévues par ses concepteurs, son esthétique par défaut, et cherche à produire des images “improbables”. De même, l’artiste qui travaille avec les intelligences artificielles peut être défini comme celui qui résiste au programme implicite de ces technologies, qui refuse de se limiter aux usages prescrits ou attendus, aux alignements et cherche à produire des textes, des images, des sons “improbables”, c’est-à-dire qui échappent aux probabilités inscrites dans le modèle.

L’inadéquation des critères d’évaluation

La notion de différend permet d’éclairer une autre dimension problématique du débat sur l’intelligence artificielle. Un différend survient lorsqu’un conflit entre deux parties ne peut être équitablement tranché parce que manque une règle de jugement applicable aux deux argumentations. Le préjudice subi par l’une des parties ne peut être exprimé dans l’idiome de l’autre.

Dans le contexte de l’intelligence artificielle, un différend fondamental oppose souvent les discours technique et critique. Le discours technique évalue les modèles d’intelligence artificielle selon des critères d’efficacité, de précision, de performance (taux d’erreur, rapidité de traitement, etc.). Le discours critique, quant à lui, mobilise des critères éthiques, politiques, esthétiques (respect de la vie privée, transparence, diversité des représentations, etc.). Ces deux discours ne s’opposent pas simplement par leurs conclusions, mais par leurs critères mêmes d’évaluation, par les “jeux de langage” qu’ils mobilisent. De sorte, qu’on est toujours renvoyé à l’un ou l’autre position.

Ce différend est particulièrement manifeste dans les débats sur les biais des modèles d’intelligence artificielle. Le discours technique peut reconnaître l’existence de ces biais et proposer des solutions techniques pour les réduire (diversification des données d’entraînement, ajustement des algorithmes, etc.). Mais ces solutions restent inscrites dans une logique d’optimisation qui ne questionne pas fondamentalement les présupposés du système. Le discours critique, quant à lui, peut dénoncer ces biais comme le symptôme d’injustices structurelles qui ne sauraient être résolues par de simples ajustements techniques. Ces deux discours parlent en quelque sorte des langues différentes, mobilisent des critères incommensurables.

Lyotard nous invite à reconnaître l’irréductibilité de ce différend plutôt qu’à tenter de le résoudre par l’imposition d’un métadiscours qui prétendrait transcender les jeux de langage particuliers. Il s’agit de témoigner du différend, de le maintenir ouvert, plutôt que de chercher à le clôturer prématurément par un jugement définitif.

On suggère ici une approche de l’intelligence artificielle qui ne chercherait pas à trancher de façon univoque entre acceptation et rejet, mais qui s’efforcerait de maintenir ouverte la pluralité des jeux de langage, la diversité des critères d’évaluation. Il ne s’agit pas de suspendre tout jugement, mais de reconnaître que ces jugements s’inscrivent toujours dans des jeux de langage particuliers, qu’ils mobilisent des critères qui ne sont pas universellement valides.

En ce sens, l’expérimentation artistique avec les intelligences artificielles peut être comprise comme une pratique qui n’est subordonnée ni à la logique technique de l’optimisation ni à la logique critique de la dénonciation. Elle constitue plutôt un jeu de langage spécifique, avec ses propres critères d’évaluation, qui ne sont réductibles ni à l’efficacité technique ni à la pertinence critique.

L’attention technologique

Si la critique écologique de l’intelligence artificielle se concentre généralement sur son impact environnemental direct (consommation énergétique, extraction de matières premières, etc.), une perspective plus large devrait également prendre en compte son impact sur l’écologie de l’attention humaine. Comme nous l’avons dit, la succession rapide des innovations technologiques, la prolifération des contenus générés automatiquement, l’automatisation croissante des processus créatifs : tous ces phénomènes contribuent à une transformation profonde de nos régimes attentionnels.

Bernard Stiegler a largement analysé les effets de la “misère symbolique” induite par les industries culturelles contemporaines, qui captent et formatent l’attention sans permettre une véritable individuation psychique et collective. Les technologies d’intelligence artificielle peuvent accentuer cette tendance en produisant des contenus toujours plus nombreux, toujours plus calibrés pour capter l’attention, sans nécessairement favoriser une attention profonde, une appropriation singulière.

Cependant, ces mêmes technologies peuvent aussi être mobilisées dans une perspective différente, qui ne viserait pas la captation maximale de l’attention mais sa qualification, son intensification. L’expérimentation artistique avec les intelligences artificielles peut contribuer à une telle écologie de l’attention en proposant des expériences qui ne se conforment pas aux standards de lisibilité immédiate, de satisfaction instantanée, mais qui requièrent un engagement patient, une attention soutenue, un désir étrange d’approcher ce qu’on ne comprend pas.

Les erreurs, les hallucinations, les imperfections des modèles d’intelligence artificielle, loin d’être des défauts à corriger, peuvent constituer des ouvertures vers des modes d’attention alternatifs. Un texte généré par GPT-2, avec ses incohérences occasionnelles, ses bifurcations inattendues, peut solliciter une lecture plus active, plus interprétative qu’un texte parfaitement aligné sur nos attentes. Une image générée par un modèle plus ancien, avec ses artefacts visuels, ses imperfections techniques, peut inviter à un regard plus attentif aux détails, aux textures, aux accidents de la représentation.

En ce sens, l’expérimentation artistique avec les intelligences artificielles ne se contente pas de consommer moins de ressources environnementales en utilisant des modèles déjà entraînés plutôt qu’en en créant constamment de nouveaux ; elle contribue également à une écologie de l’attention en proposant des expériences qui résistent à la logique de la consommation rapide, de l’obsolescence programmée, de la nouveauté perpétuelle.

L’expérimentation

L’appel à une temporalité différente dans notre relation aux technologies d’intelligence artificielle, ce que nous avons nommé le temps profond de l’expérimentation, n’est pas une simple proposition théorique : il constitue une orientation éthique et politique concrète. Face à l’accélération constante de l’innovation technique, face à la succession vertigineuse des modèles toujours plus puissants, toujours plus gourmands en ressources, il propose une pratique de la décélération, de l’exploration patiente, de l’appropriation singulière, une multiplication des temporalités.

Cette éthique de l’expérimentation ne se confond pas avec une simple résistance passive au développement technologique, ni avec une adaptation résignée à ses impératifs. Elle constitue plutôt une forme d’engagement actif avec les technologies existantes, une manière de les habiter, de les explorer, de les détourner qui échappe aussi bien à la fascination technophile qu’à la méfiance technophobe. Elle est beaucoup plus insupportable aux vectofascistes qui, je crois, ne seront jamais gênés par les positions de retrait.

D’un point de vue environnemental, cette éthique de l’expérimentation peut contribuer à réduire significativement l’impact écologique de l’intelligence artificielle. En privilégiant l’exploration approfondie des modèles existants plutôt que la création constante de nouveaux modèles, en valorisant les possibilités d’utilisation locale plutôt que le recours systématique à des infrastructures centralisées énergivores, elle propose une forme de sobriété qui est aussi un renoncement à une certaine temporalité de la volonté technicienne.

D’un point de vue politique, cette éthique de l’expérimentation résiste à la concentration du pouvoir technologique entre les mains de quelques grandes entreprises. En valorisant l’appropriation locale, singulière, des technologies existantes, en encourageant leur détournement, leur adaptation à des contextes spécifiques, elle contribue à une forme de démocratisation qui ne se réduit pas à l’accès universel aux mêmes services standardisés.

D’un point de vue esthétique enfin, cette éthique de l’expérimentation ouvre des possibilités qui échappent aux logiques dominantes de l’innovation et de la performance. En explorant les imperfections, les limites, les accidents des modèles d’intelligence artificielle, elle permet l’émergence de formes esthétiques inattendues, de modalités d’expression qui ne se conforment pas aux standards de lisibilité immédiate ou d’efficacité communicationnelle.

Le temps profond de l’expérimentation n’est donc pas une simple alternative théorique à la temporalité accélérée de l’innovation technique : c’est une pratique concrète, un engagement quotidien avec les technologies qui nous entourent. Il ne s’agit pas de rêver à un autre monde possible, mais d’habiter différemment celui dans lequel nous vivons déjà, d’explorer les virtualités inscrites dans le présent plutôt que de courir après un futur toujours fuyant. L’expérimentation est la temporalité de l’infans, celui qui est sans langage (sans critique).

En ce sens, l’art n’est pas anecdotique lorsqu’il s’agit d’intelligence artificielle : il constitue un mode d’engagement privilégié avec ces technologies, une manière de les explorer qui échappe aux logiques instrumentales dominantes. Non pas parce qu’il révélerait une essence cachée de ces technologies ou qu’il en proposerait une critique externe, mais parce qu’il les habite d’une manière singulière, parce qu’il en explore les possibilités selon des trajectoires non prédéterminées, parce qu’il accepte de s’y perdre, d’y consumer sa vie plutôt que de consumer la Terre.