Sur un certain usage de l’art dans la critique de l’IA / On a Certain Use of Art in AI Criticism

L’art occupe une place singulière dans les débats contemporains sur l’intelligence artificielle. Il n’est pas convoqué pour ses qualités esthétiques propres, mais comme terrain d’épreuve destiné à établir une frontière nette entre ce que peut accomplir la machine et ce qui relèverait exclusivement du génie humain. Cette mobilisation de l’art comme critère de démarcation repose sur une conception particulière de la création artistique : celle-ci serait par essence la production d’une différence, l’introduction d’une anomalie dans le tissu régulier du monde, une rupture qui viendrait perturber l’ordre établi et redéfinir les limites de ce qui est considéré comme normal ou acceptable. Selon cette vision, l’artiste serait celui qui transgresse, qui ouvre des brèches, qui fait advenir quelque chose qui n’existait pas auparavant dans les possibles de la représentation ou de la pensée.

Cette définition, pourtant présentée comme évidente, mérite qu’on s’y attarde. Elle charrie en réalité tout un ensemble d’idées héritées du romantisme, une époque qui a construit la figure de l’artiste comme génie créateur autonome, doté d’une capacité exceptionnelle à produire de l’inédit ex nihilo. Cette conception s’est cristallisée au tournant du dix-neuvième siècle dans un contexte historique précis, celui de l’émergence de l’individualisme bourgeois et de la sécularisation progressive des sociétés européennes. L’artiste romantique venait en quelque sorte remplacer le prophète ou le saint comme figure de l’exception, de celui qui accède à des vérités inaccessibles au commun. Cette mythologie a profondément imprégné notre imaginaire culturel, au point de sembler naturelle, alors qu’elle représente en réalité une construction historiquement située.

Or, cette conception a fait l’objet de critiques profondes et systématiques tout au long du vingtième siècle. Les avant-gardes artistiques ont méthodiquement déconstruit le mythe de l’originalité absolue. Lorsque Marcel Duchamp présente un urinoir renversé comme œuvre d’art en 1917, il ne produit pas un objet radicalement nouveau par un acte de création géniale, mais opère un déplacement, une recontextualisation d’un objet manufacturé existant. Le geste duchampien démontre que l’art peut consister non pas à créer du matériau inédit, mais à transformer le regard porté sur ce qui existe déjà. Cette logique du ready-made révèle que la valeur artistique ne réside pas dans l’originalité matérielle de l’objet, mais dans l’opération conceptuelle qui le désigne comme art. Ce qui importe n’est plus la fabrication manuelle par un artisan-génie, mais le choix, le cadrage, l’inscription dans un contexte institutionnel.

Les pratiques du collage et du montage, développées par le cubisme, le dadaïsme, puis le surréalisme, poursuivent cette déconstruction. Elles montrent que l’œuvre peut se construire entièrement à partir de fragments préexistants, d’images trouvées, de textes empruntés. Le poète Tristan Tzara propose même une méthode aléatoire pour composer des poèmes en tirant au hasard des mots découpés dans un journal. L’acte créateur ne consiste plus à puiser dans les profondeurs d’une subjectivité originale, mais à agencer, combiner, faire entrer en collision des éléments déjà-là. La photographie et le cinéma, technologies de reproduction par excellence, viennent également ébranler la notion d’œuvre unique et originale.

Le structuralisme et la sémiologie appliqués à l’art dans les années 1960 et 1970 prolongent cette critique en montrant que toute production artistique s’inscrit nécessairement dans des systèmes de signes préexistants. Roland Barthes proclame la mort de l’auteur, démontrant que le texte littéraire n’exprime pas la psychologie singulière d’un créateur, mais tisse ensemble une multiplicité de discours, de citations, de références culturelles. L’écrivain ne crée pas ex nihilo, il organise et recombine un matériau langagier qui le précède et le dépasse. La notion d’intertextualité, développée par Julia Kristeva, radicalise cette perspective : tout texte est toujours déjà un tissu de citations, conscientes ou inconscientes, un croisement de surfaces textuelles plutôt que l’émanation d’une conscience créatrice originale.

Les situationnistes, dans les années 1950 et 1960, théorisent et pratiquent systématiquement le détournement, c’est-à-dire la réutilisation d’éléments esthétiques préexistants dans une nouvelle composition qui en inverse ou en déplace le sens. Guy Debord et Gil Wolman affirment que les éléments, quelles que soient leurs provenances, peuvent être utilisés pour élaborer de nouvelles combinaisons. Cette pratique repose sur une conviction : à une époque de saturation culturelle, l’originalité ne peut plus consister à inventer de nouvelles formes, mais à réagencer critiquement celles qui existent déjà. Le détournement devient ainsi une méthode créative qui assume pleinement son caractère dérivé et en fait un principe esthétique et politique.

L’art conceptuel des années 1960 et 1970 poursuit cette déconstruction en affirmant la primauté de l’idée sur la réalisation matérielle. Sol LeWitt soutient que l’essentiel de l’œuvre réside dans le concept, dans le protocole ou la procédure, tandis que l’exécution peut être déléguée à d’autres, voire automatisée. Cette position mine radicalement l’idée du génie créateur comme celui qui façonne de ses mains une matière pour y imprimer sa vision unique. L’artiste conceptuel devient un producteur d’instructions, de règles, de systèmes génératifs. L’œuvre peut alors consister en variations produites selon un algorithme déterminé, anticipant d’une certaine manière les pratiques computationnelles contemporaines.

Le postmodernisme des années 1980 institutionnalise en quelque sorte ces pratiques d’appropriation et de citation. Des artistes comme Sherrie Levine photographient des photographies célèbres et les présentent comme leurs propres œuvres, poussant à l’extrême la logique de la réappropriation. Cette démarche provoque intentionnellement les conceptions traditionnelles de l’originalité et de l’authenticité. Elle démontre que dans un monde saturé d’images, la création consiste moins à produire de nouvelles images qu’à interroger les circuits de production, de circulation et de légitimation des images existantes. L’originalité réside dans le geste critique, dans la mise en question des catégories esthétiques et juridiques, plutôt que dans la fabrication d’objets inédits.

Ces différentes théories et pratiques convergent pour montrer que la conception romantique de l’art comme production anomique d’originalité pure constitue une vision historiquement datée, qui a certes dominé une certaine période, mais qui ne peut prétendre définir l’essence intemporelle de l’art. Les artistes et théoriciens du vingtième siècle ont démontré que la création s’inscrit toujours dans des réseaux de références, qu’elle opère par déplacement, recontextualisation, combinaison d’éléments existants. L’idée d’une création absolument originale, surgissant d’un néant créatif par la seule force du génie individuel, apparaît désormais comme une fiction idéologique plutôt que comme une description adéquate des processus créatifs. L’anomie elle-même devient une norme.

Il y a donc quelque chose d’ironique, voire de régressif, à voir ressurgir dans les discussions sur l’IA cette conception presque naïve de l’art, comme si un siècle de réflexion critique sur ces questions n’avait jamais eu lieu. Ce retour à une compréhension romantique de la création artistique révèle peut-être moins quelque chose sur l’art lui-même que sur les besoins rhétoriques de ceux qui cherchent à tracer des frontières étanches entre l’humain et la machine. L’art devient ainsi un fantasme mobilisé pour rassurer sur la persistance d’une spécificité humaine irréductible, plutôt qu’un objet d’analyse rigoureux inscrit dans son épaisseur historique et théorique.

Mais même si l’on acceptait provisoirement cette définition romantique de l’art, une erreur méthodologique fondamentale vient vicier le raisonnement. La critique adressée à l’IA consiste essentiellement à l’évaluer dans son autonomie supposée, à se demander si elle peut, seule et par ses propres moyens, générer des images, des textes, des compositions sonores qui mériteraient le qualificatif d’artistiques. Cette manière de poser le problème occulte complètement la réalité des pratiques créatives contemporaines qui intègrent ces technologies. Car ce qui se joue dans les ateliers, les studios, les espaces de création numérique, ce n’est précisément pas une IA fonctionnant en autarcie, produisant automatiquement des œuvres achevées, mais des processus d’interaction complexes où s’entrelacent de manière inextricable les gestes humains et les opérations techniques.

Les artistes qui travaillent avec des systèmes génératifs, des réseaux de neurones, des modèles de langage, ne se contentent pas d’appuyer sur un bouton et d’attendre passivement qu’une œuvre émerge. Ils développent des méthodes itératives, des protocoles d’expérimentation, des façons de diriger, d’orienter, de contrarier, de détourner les comportements de ces systèmes. Ils explorent les zones d’imprévisibilité, les accidents heureux, les résultats inattendus qui surgissent de ces interactions. Ils apprennent à reconnaître dans le flux de productions machiniques les éléments qui résonnent avec leurs intentions esthétiques, qu’ils peuvent s’approprier, transformer, réinsérer dans un processus créatif plus large. Cette dimension profondément hybride, où la frontière entre ce qui relève de l’initiative humaine et ce qui provient du système technique devient poreuse et constamment renégociée, constitue précisément le cœur de nombreuses pratiques artistiques contemporaines.

On peut parler ici d’une forme de co-aliénation, terme qui capture bien la réciprocité des transformations à l’œuvre. L’artiste modifie le système technique en l’entraînant, en le paramétrant, en le sollicitant de certaines manières plutôt que d’autres. Mais simultanément, cette interaction transforme l’artiste lui-même, modifie ses modes de pensée, ouvre des possibilités qu’il n’aurait pas envisagées sans cet engagement avec la machine. Cette réciprocité des influences, cette intrication des agentivités humaines et techniques, reste largement absente des débats critiques sur l’IA. Pourquoi cet aveuglement ? Parce que la critique ne porte pas véritablement sur l’usage réel, factuel, de ces technologies dans les pratiques. Elle vise plutôt les représentations fantasmatiques que les plateformes commerciales propagent dans leurs campagnes marketing, images d’une IA toute-puissante, autonome, capable de remplacer intégralement le créateur humain en quelques clics.

Ces fantasmes commerciaux, précisément parce qu’ils sont simples, spectaculaires, anxiogènes, polarisent les discussions. Ils favorisent une pensée binaire : soit l’IA est un génie autonome qui menace de rendre l’humain obsolète, soit elle n’est qu’un perroquet statistique incapable de véritable créativité. Cette alternative empêche de saisir la complexité des pratiques réelles, qui échappent à cette dichotomie. L’expérience tâtonnante, expérimentale, celle qui implique des heures, des jours, parfois des mois d’exploration patiente des possibilités d’un système, cette dimension processuelle et temporelle de la création assistée par IA, tout cela disparaît dans un débat caricatural. Or c’est précisément dans cette temporalité de l’expérimentation que se joue quelque chose d’essentiel, que la relation à la machine devient productive, que des découvertes adviennent.

Il faut avoir consacré un temps véritable à l’exploration d’un modèle de langage, non pas pour le tester superficiellement, c’est-à-dire pour y chercher uniquement ce qu’on voulait y trouver afin de confirmer des opinions préétablies, mais pour l’expérimenter authentiquement, pour accepter d’être surpris, déstabilisé, pour comprendre que ces systèmes ne produisent pas uniquement du prévisible. Dans le fonctionnement même des modèles statistiques existent des zones d’incertitude, du bruit, des inconsistances, des émergences improbables. Ces accidents du calcul statistique, loin d’être simplement des défauts à corriger, constituent des ressources potentielles pour quiconque les aborde avec sensibilité. Un écrivain travaillant avec un modèle de langage peut saisir ces moments où la machine propose quelque chose d’inattendu, une tournure de phrase singulière, une association d’idées surprenante, et s’en emparer, y reconnaître une direction féconde, un point de départ pour poursuivre son propre travail d’écriture.

Cette capacité à percevoir et à conquérir les vibrations du sens qui émergent dans l’interaction avec le système technique ne relève pas d’une soumission passive à la machine. Elle exige au contraire une attention aiguë, une sensibilité développée, une expérience accumulée. C’est précisément parce que l’humain apporte son jugement esthétique, sa capacité de discernement, son inscription dans des traditions littéraires, que certaines productions du système peuvent être identifiées comme précieuses et intégrées dans un processus créatif. Sans cette intervention humaine, ces émergences resteraient noyées dans le flux indifférencié des productions machiniques. L’originalité ne réside pas dans le système seul, ni dans l’humain seul, mais dans la relation, dans la façon dont l’un et l’autre se transforment mutuellement au cours de l’interaction.

Cette logique rappelle d’ailleurs les pratiques surréalistes d’écriture automatique ou de cadavre exquis, où le hasard, l’inconscient, les associations involontaires jouaient un rôle constitutif dans la production textuelle. Les surréalistes cherchaient précisément à court-circuiter le contrôle conscient, rationnel, de l’auteur pour laisser émerger des combinaisons langagières inattendues. Ils introduisaient des protocoles, des contraintes, des procédures génératrices qui dépassaient l’intention individuelle. Le hasard objectif, concept développé par André Breton, désignait ces rencontres fortuites signifiantes qui échappaient à la volonté consciente, mais révélaient des vérités plus profondes. L’IA, dans ses accidents statistiques, dans ses émergences improbables, peut être comprise comme produisant un effet analogue : elle génère des combinaisons qui échappent à la planification consciente de l’utilisateur, mais qui peuvent être reconnues rétrospectivement comme fécondes, signifiantes. L’IA est devenue une des altérités qu’un artiste peut introduire dans sa méthodologie de production.

De même, l’Oulipo, ce mouvement littéraire fondé en 1960 par Raymond Queneau et François Le Lionnais, a exploré la création sous contrainte, l’usage d’algorithmes et de procédures formelles pour générer des textes. Georges Perec écrit un roman entier, La Disparition, sans jamais utiliser la lettre e. Raymond Queneau compose Cent mille milliards de poèmes, un livre dont les pages découpées permettent de combiner les vers de différentes manières pour produire un nombre astronomique de sonnets. Ces démarches démontrent que la contrainte formelle, loin d’étouffer la créativité, peut au contraire la stimuler en forçant l’auteur à explorer des territoires qu’il n’aurait pas spontanément visités. L’algorithme n’est pas l’ennemi de la création, mais peut en être un moteur. Les systèmes d’IA prolongent cette tradition : ils constituent des machines à contraintes, des générateurs de matériaux linguistiques ou visuels qui peuvent être intégrés dans des processus créatifs.

Cette intrication anthropotechnologique n’est d’ailleurs pas une nouveauté radicale apportée par l’IA. Elle prolonge et intensifie une réalité qui a toujours caractérisé les pratiques d’écriture et de création. Tout support d’inscription, qu’il s’agisse du papier, de la machine à écrire, de l’ordinateur, modifie non seulement ce qui peut être écrit, mais aussi celui qui écrit. Ces technologies ne sont jamais de simples outils neutres, de purs moyens transparents permettant l’expression d’une intériorité préexistante. Elles structurent la pensée, ouvrent certaines possibilités, en ferment d’autres, participent activement à la configuration de ce qui peut être imaginé et formulé. Marshall McLuhan a montré dès les années 1960 que le médium n’est pas un simple véhicule du message, mais façonne profondément sa nature et ses effets. L’idée d’un sujet créateur autonome qui utiliserait des outils extérieurs pour matérialiser des conceptions intérieures déjà formées relève d’une psychologie naïve que les études sur les pratiques créatives ont depuis longtemps réfutée.

Le refus de considérer cette dimension technique constitutive de la création révèle un attachement à une certaine image de l’humanité, celle d’un sujet souverain, maître de ses productions, distinct de ses instruments. Or c’est précisément cette souveraineté humaniste qui fonde le caractère problématique de l’IA.

L’IA dérange précisément parce qu’elle rend cette fiction difficilement tenable. Elle exhibe trop manifestement la porosité des frontières entre régime anthropologique et technologique, elle démontre trop clairement que la pensée, l’imagination, la création n’ont jamais fonctionné dans l’isolement splendide d’une conscience pure, mais toujours dans un couplage avec des environnements matériels et techniques. Cette résistance à penser l’intrication explique pourquoi les débats restent si souvent bloqués dans des oppositions stériles, incapables de saisir ce qui se joue réellement dans les pratiques émergentes et où des théoriciens parlent d’art sans jamais se fonder sur aucun exemple, sur aucune extension, sur aucune œuvre, mais simplement sur une idéologie sans consistance.

Les artistes et écrivains qui explorent les possibilités de l’IA ne sont ni des technophiles naïfs célébrant l’obsolescence de l’humain ni des utilisateurs passifs se contentant de consommer des productions automatiques. Ils développent des formes de littératie technique, apprennent à comprendre les logiques statistiques qui gouvernent ces systèmes, construisent des stratégies pour orienter, contraindre, détourner ces logiques. Ils cultivent simultanément une sensibilité aux accidents, aux émergences improbables, à ce qui échappe à la pure prédictibilité statistique. Cette double compétence, technique et esthétique, définit peut-être l’une des figures de l’artiste ou de l’écrivain contemporain : quelqu’un capable de naviguer entre la compréhension des mécanismes algorithmiques et la reconnaissance des qualités sensibles, entre deux espaces latents : quelqu’un qui sait exploiter les potentialités calculatoires tout en restant attentif aux surgissements qui débordent le calcul.

Cette posture ne nie pas les problèmes réels que posent les intelligences artificielles : les enjeux écologiques de leur fonctionnement, les questions de propriété intellectuelle soulevées par leurs données d’entraînement, les risques de standardisation culturelle qu’elles peuvent favoriser, les transformations du marché du travail créatif qu’elles induisent. Mais elle refuse de ramener ces questions complexes à une opposition binaire entre créativité humaine et automatisme machinal. Elle cherche plutôt à comprendre comment ces technologies reconfigurent l’espace des possibles créatifs, quelles nouvelles pratiques elles rendent imaginables, quelles transformations elles opèrent dans notre rapport à l’écriture, à l’image, à la composition.

La résistance à penser cette complexité trahit peut-être une anxiété plus profonde face à la dissolution des frontières rassurantes entre l’humain et le technique. Il serait plus confortable de pouvoir maintenir une séparation nette, de préserver l’art comme sanctuaire de l’exception humaine, dernier rempart contre la mécanisation du monde. Mais cette illusion devient de plus en plus difficile à soutenir face à l’évidence des pratiques réelles, face à la prolifération d’œuvres et de textes qui ne peuvent être adéquatement compris qu’en reconnaissant leur nature fondamentalement hybride, leur inscription dans des processus où s’entrelacent inextricablement les gestes humains et les opérations machiniques. Accepter de penser cette intrication ne signifie pas renoncer à toute spécificité humaine, mais plutôt reconnaître que cette spécificité s’est toujours exercée dans et à travers des médiations techniques, qu’elle ne réside pas dans une transcendance imaginaire, mais dans la capacité concrète à s’approprier, détourner, transformer les environnements matériels et symboliques dans lesquels nous nous trouvons plongés, à aliéner et à être aliéné pour introduire en nous et hors de nous une altérité.

Il faut alors se demander si les problèmes que soulève ce type de critique de l’IA sont véritablement liés à cette technique elle-même ou plutôt à la manière dont le débat est structuré. La polarisation binaire, la simplification outrancière, l’occultation systématique de l’expérimentation réelle au profit de fantasmes commerciaux ou de craintes apocalyptiques produisent précisément les effets qu’elles prétendent dénoncer. En refusant de considérer la complexité des pratiques hybrides, en réduisant l’IA soit à un génie autonome menaçant soit à un perroquet statistique insignifiant, la critique contribue elle-même à appauvrir le champ des possibles. Elle décourage l’exploration patiente, l’appropriation créative, le développement d’une littératie technique et esthétique qui permettrait de naviguer dans ces nouveaux territoires. En stigmatisant toute forme de collaboration entre l’humain et la machine comme une capitulation ou une illusion, elle abandonne le terrain à ceux qui, précisément, promeuvent un usage passif et consumériste de ces technologies. La critique devient ainsi acteur de ce qu’elle croyait guérir : elle participe à la standardisation qu’elle dénonce en empêchant l’émergence de pratiques singulières, elle favorise l’automatisation qu’elle redoute en décourageant l’intervention créative humaine, elle renforce la toute-puissance des plateformes commerciales qu’elle combat en délégitimant les appropriations critiques et expérimentales. C’est peut-être là le paradoxe le plus troublant de ce débat : l’adversaire le plus efficace d’une relation créative et critique à l’IA n’est pas la technologie elle-même, mais le discours qui prétend nous en protéger.


Art occupies a singular place in contemporary debates about artificial intelligence. It is not invoked for its own aesthetic qualities, but as a testing ground intended to establish a clear boundary between what the machine can accomplish and what would belong exclusively to human genius. This mobilization of art as a criterion of demarcation rests on a particular conception of artistic creation: the latter would be essentially the production of difference, the introduction of an anomaly into the regular fabric of the world, a rupture that would disturb the established order and redefine the limits of what is considered normal or acceptable. According to this vision, the artist would be the one who transgresses, who opens breaches, who brings into being something that did not previously exist in the possibilities of representation or thought.

This definition, however presented as self-evident, deserves closer examination. It actually carries with it a whole set of ideas inherited from romanticism, an era that constructed the figure of the artist as an autonomous creative genius, endowed with an exceptional capacity to produce the unprecedented ex nihilo. This conception crystallized at the turn of the nineteenth century in a precise historical context, that of the emergence of bourgeois individualism and the progressive secularization of European societies. The romantic artist came in a way to replace the prophet or the saint as a figure of exception, of one who accesses truths inaccessible to the common person. This mythology has deeply impregnated our cultural imagination, to the point of seeming natural, when it actually represents a historically situated construction.

Now, this conception has been the subject of profound and systematic criticism throughout the twentieth century. Artistic avant-gardes methodically deconstructed the myth of absolute originality. When Marcel Duchamp presented an inverted urinal as a work of art in 1917, he did not produce a radically new object through an act of brilliant creation, but operated a displacement, a recontextualization of an existing manufactured object. The Duchampian gesture demonstrates that art can consist not in creating unprecedented material, but in transforming the gaze brought to bear on what already exists. This logic of the ready-made reveals that artistic value does not reside in the material originality of the object, but in the conceptual operation that designates it as art. What matters is no longer manual fabrication by an artisan-genius, but choice, framing, inscription in an institutional context.

The practices of collage and montage, developed by cubism, dadaism, then surrealism, pursue this deconstruction. They show that the work can be constructed entirely from preexisting fragments, found images, borrowed texts. The poet Tristan Tzara even proposes a random method for composing poems by randomly drawing words cut from a newspaper. The creative act no longer consists in drawing from the depths of an original subjectivity, but in arranging, combining, making already-existing elements collide. Photography and cinema, technologies of reproduction par excellence, also come to shake the notion of unique and original work.

Structuralism and semiology applied to art in the 1960s and 1970s extend this critique by showing that all artistic production necessarily inscribes itself in preexisting systems of signs. Roland Barthes proclaims the death of the author, demonstrating that the literary text does not express the singular psychology of a creator, but weaves together a multiplicity of discourses, citations, cultural references. The writer does not create ex nihilo, he organizes and recombines a linguistic material that precedes and exceeds him. The notion of intertextuality, developed by Julia Kristeva, radicalizes this perspective: every text is always already a tissue of citations, conscious or unconscious, a crossing of textual surfaces rather than the emanation of an original creative consciousness.

The Situationists, in the 1950s and 1960s, systematically theorize and practice détournement, that is, the reuse of preexisting aesthetic elements in a new composition that inverts or displaces their meaning. Guy Debord and Gil Wolman assert that elements, whatever their origins, can be used to elaborate new combinations. This practice rests on a conviction: in an age of cultural saturation, originality can no longer consist in inventing new forms, but in critically rearranging those that already exist. Détournement thus becomes a creative method that fully assumes its derivative character and makes it an aesthetic and political principle.

Conceptual art of the 1960s and 1970s pursues this deconstruction by affirming the primacy of the idea over material realization. Sol LeWitt maintains that the essential part of the work resides in the concept, in the protocol or procedure, while execution can be delegated to others, even automated. This position radically undermines the idea of the creative genius as one who shapes matter with his hands to imprint his unique vision upon it. The conceptual artist becomes a producer of instructions, rules, generative systems. The work can then consist of variations produced according to a determined algorithm, anticipating in a certain way contemporary computational practices.

Postmodernism of the 1980s institutionalizes in a way these practices of appropriation and citation. Artists like Sherrie Levine photograph famous photographs and present them as their own works, pushing the logic of reappropriation to the extreme. This approach intentionally provokes traditional conceptions of originality and authenticity. It demonstrates that in a world saturated with images, creation consists less in producing new images than in interrogating the circuits of production, circulation, and legitimation of existing images. Originality resides in the critical gesture, in the questioning of aesthetic and legal categories, rather than in the fabrication of unprecedented objects.

These different theories and practices converge to show that the romantic conception of art as anomic production of pure originality constitutes a historically dated vision, which certainly dominated a certain period, but which cannot claim to define the timeless essence of art. Artists and theorists of the twentieth century have demonstrated that creation is always inscribed in networks of references, that it operates through displacement, recontextualization, combination of existing elements. The idea of absolutely original creation, emerging from a creative void by the sole force of individual genius, now appears as an ideological fiction rather than as an adequate description of creative processes. Anomie itself becomes a norm.

There is therefore something ironic, even regressive, in seeing this almost naive conception of art resurge in discussions about AI, as if a century of critical reflection on these questions had never taken place. This return to a romantic understanding of artistic creation perhaps reveals less something about art itself than about the rhetorical needs of those who seek to draw watertight boundaries between the human and the machine. Art thus becomes a fantasy mobilized to reassure about the persistence of an irreducible human specificity, rather than an object of rigorous analysis inscribed in its historical and theoretical depth.

But even if one provisionally accepted this romantic definition of art, a fundamental methodological error vitiates the reasoning. The criticism addressed to AI essentially consists in evaluating it in its supposed autonomy, in asking whether it can, alone and by its own means, generate images, texts, sound compositions that would merit the qualification of artistic. This way of posing the problem completely obscures the reality of contemporary creative practices that integrate these technologies. For what is at stake in workshops, studios, digital creation spaces, is precisely not an AI functioning in autarky, automatically producing finished works, but complex interaction processes where human gestures and technical operations are inextricably intertwined.

Artists who work with generative systems, neural networks, language models, do not simply press a button and passively wait for a work to emerge. They develop iterative methods, experimental protocols, ways of directing, orienting, thwarting, diverting the behaviors of these systems. They explore zones of unpredictability, happy accidents, unexpected results that emerge from these interactions. They learn to recognize in the flow of machinic productions the elements that resonate with their aesthetic intentions, which they can appropriate, transform, reinsert into a broader creative process. This profoundly hybrid dimension, where the boundary between what derives from human initiative and what comes from the technical system becomes porous and constantly renegotiated, constitutes precisely the heart of many contemporary artistic practices.

One can speak here of a form of co-alienation, a term that well captures the reciprocity of the transformations at work. The artist modifies the technical system by training it, parameterizing it, soliciting it in certain ways rather than others. But simultaneously, this interaction transforms the artist himself, modifies his modes of thinking, opens possibilities he would not have envisioned without this engagement with the machine. This reciprocity of influences, this imbrication of human and technical agencies, remains largely absent from critical debates about AI. Why this blindness? Because the criticism does not really bear on the real, factual use of these technologies in practices. It rather targets the fantasmatic representations that commercial platforms propagate in their marketing campaigns, images of an all-powerful, autonomous AI, capable of entirely replacing the human creator in a few clicks.

These commercial fantasies, precisely because they are simple, spectacular, anxiety-inducing, polarize discussions. They favor binary thinking: either AI is an autonomous genius that threatens to render the human obsolete, or it is only a statistical parrot incapable of true creativity. This alternative prevents grasping the complexity of real practices, which escape this dichotomy. The groping, experimental experience, the one that involves hours, days, sometimes months of patient exploration of a system’s possibilities, this processual and temporal dimension of AI-assisted creation, all this disappears in a caricatural debate. Yet it is precisely in this temporality of experimentation that something essential is at stake, that the relationship to the machine becomes productive, that discoveries occur.

One must have devoted real time to exploring a language model, not to test it superficially, that is, to seek in it only what one wanted to find in order to confirm preestablished opinions, but to experiment with it authentically, to accept being surprised, destabilized, to understand that these systems do not only produce the predictable. In the very functioning of statistical models exist zones of uncertainty, noise, inconsistencies, improbable emergences. These accidents of statistical calculation, far from being simply defects to be corrected, constitute potential resources for anyone who approaches them with sensitivity. A writer working with a language model can seize these moments when the machine proposes something unexpected, a singular turn of phrase, a surprising association of ideas, and seize upon it, recognize in it a fertile direction, a starting point to pursue his own writing work.

This capacity to perceive and capture the vibrations of meaning that emerge in interaction with the technical system does not derive from passive submission to the machine. It requires on the contrary acute attention, developed sensitivity, accumulated experience. It is precisely because the human brings his aesthetic judgment, his capacity for discernment, his inscription in literary traditions, that certain productions of the system can be identified as precious and integrated into a creative process. Without this human intervention, these emergences would remain drowned in the undifferentiated flow of machinic productions. Originality does not reside in the system alone, nor in the human alone, but in the relationship, in the way one and the other transform each other mutually during the interaction.

This logic moreover recalls the surrealist practices of automatic writing or exquisite corpse, where chance, the unconscious, involuntary associations played a constitutive role in textual production. The surrealists sought precisely to short-circuit the conscious, rational control of the author to allow unexpected linguistic combinations to emerge. They introduced protocols, constraints, generative procedures that exceeded individual intention. Objective chance, a concept developed by André Breton, designated these significant fortuitous encounters that escaped conscious will, but revealed deeper truths. AI, in its statistical accidents, in its improbable emergences, can be understood as producing an analogous effect: it generates combinations that escape the conscious planning of the user, but which can be recognized retrospectively as fertile, significant. AI has become one of the alterities that an artist can introduce into his production methodology.

Similarly, Oulipo, this literary movement founded in 1960 by Raymond Queneau and François Le Lionnais, explored creation under constraint, the use of algorithms and formal procedures to generate texts. Georges Perec writes an entire novel, A Void, without ever using the letter e. Raymond Queneau composes A Hundred Thousand Billion Poems, a book whose cut pages allow verses to be combined in different ways to produce an astronomical number of sonnets. These approaches demonstrate that formal constraint, far from stifling creativity, can on the contrary stimulate it by forcing the author to explore territories he would not have spontaneously visited. The algorithm is not the enemy of creation, but can be one of its engines. AI systems extend this tradition: they constitute constraint machines, generators of linguistic or visual materials that can be integrated into creative processes.

This anthropotechnological imbrication is moreover not a radical novelty brought by AI. It extends and intensifies a reality that has always characterized writing and creative practices. Every medium of inscription, whether paper, typewriter, computer, modifies not only what can be written, but also the one who writes. These technologies are never simple neutral tools, pure transparent means allowing the expression of a preexisting interiority. They structure thought, open certain possibilities, close others, actively participate in the configuration of what can be imagined and formulated. Marshall McLuhan showed as early as the 1960s that the medium is not a simple vehicle of the message, but profoundly shapes its nature and effects. The idea of an autonomous creative subject who would use external tools to materialize already-formed interior conceptions derives from a naive psychology that studies on creative practices have long since refuted.

The refusal to consider this constitutive technical dimension of creation reveals an attachment to a certain image of humanity, that of a sovereign subject, master of his productions, distinct from his instruments. Yet it is precisely this humanist sovereignty that founds the problematic character of AI.

AI disturbs precisely because it makes this fiction difficult to maintain. It exhibits too manifestly the porosity of boundaries between anthropological and technological regimes, it demonstrates too clearly that thought, imagination, creation have never functioned in the splendid isolation of a pure consciousness, but always in a coupling with material and technical environments. This resistance to thinking imbrication explains why debates so often remain blocked in sterile oppositions, incapable of grasping what is really at stake in emerging practices and where theorists speak of art without ever basing themselves on any example, on any extension, on any work, but simply on an ideology without consistency.

Artists and writers who explore the possibilities of AI are neither naive technophiles celebrating the obsolescence of the human nor passive users content to consume automatic productions. They develop forms of technical literacy, learn to understand the statistical logics that govern these systems, construct strategies to orient, constrain, divert these logics. They simultaneously cultivate a sensitivity to accidents, to improbable emergences, to what escapes pure statistical predictability. This double competence, technical and aesthetic, perhaps defines one of the figures of the contemporary artist or writer: someone capable of navigating between understanding algorithmic mechanisms and recognizing sensible qualities, between two latent spaces: someone who knows how to exploit computational potentialities while remaining attentive to surgings that overflow calculation.

This posture does not deny the real problems posed by artificial intelligences: the ecological issues of their functioning, the intellectual property questions raised by their training data, the risks of cultural standardization they can favor, the transformations of the creative labor market they induce. But it refuses to reduce these complex questions to a binary opposition between human creativity and machinic automatism. It rather seeks to understand how these technologies reconfigure the space of creative possibilities, what new practices they make imaginable, what transformations they operate in our relationship to writing, to the image, to composition.

The resistance to thinking this complexity perhaps betrays a deeper anxiety in the face of the dissolution of reassuring boundaries between the human and the technical. It would be more comfortable to be able to maintain a clear separation, to preserve art as a sanctuary of human exception, last rampart against the mechanization of the world. But this illusion becomes increasingly difficult to sustain in the face of the evidence of real practices, in the face of the proliferation of works and texts that can only be adequately understood by recognizing their fundamentally hybrid nature, their inscription in processes where human gestures and machinic operations are inextricably intertwined. Accepting to think this imbrication does not mean renouncing all human specificity, but rather recognizing that this specificity has always been exercised in and through technical mediations, that it does not reside in an imaginary transcendence, but in the concrete capacity to appropriate, divert, transform the material and symbolic environments in which we find ourselves immersed, to alienate and to be alienated in order to introduce into ourselves and outside ourselves an alterity.

One must then ask whether the problems raised by this type of AI criticism are truly linked to this technique itself or rather to the way the debate is structured. Binary polarization, outrageous simplification, systematic obscuring of real experimentation in favor of commercial fantasies or apocalyptic fears produce precisely the effects they claim to denounce. By refusing to consider the complexity of hybrid practices, by reducing AI either to a threatening autonomous genius or to an insignificant statistical parrot, criticism itself contributes to impoverishing the field of possibilities. It discourages patient exploration, creative appropriation, the development of a technical and aesthetic literacy that would allow navigation in these new territories. By stigmatizing every form of collaboration between human and machine as a capitulation or an illusion, it abandons the terrain to those who, precisely, promote a passive and consumerist use of these technologies. Criticism thus becomes an actor in what it believed it was curing: it participates in the standardization it denounces by preventing the emergence of singular practices, it favors the automation it fears by discouraging creative human intervention, it reinforces the omnipotence of commercial platforms it combats by delegitimizing critical and experimental appropriations. This is perhaps the most troubling paradox of this debate: the most effective adversary of a creative and critical relationship to AI is not the technology itself, but the discourse that claims to protect us from it.