LoRA comme ligne de partage / LoRA as a dividing line

Il existe un moment où tout se passe comme si la technique se mettait à parler d’elle-même, où les outils que nous construisons commencent à révéler ce qui, dans ce réel, était jusqu’alors invisible. C’est ce qui arrive avec les LoRA, ces petits mécanismes d’adaptation légère des modèles de diffusion qui, en réussissant à capturer certains artistes et en échouant avec d’autres, tracent une ligne de fracture souterraine au cœur de l’art contemporain lui-même. Cette ligne n’est pas d’abord une ligne technique, bien qu’elle se manifeste dans le code, dans les données, dans les poids du réseau. C’est une ligne qui sépare deux visions irréconciliables de ce qu’est une œuvre d’art et de ce qu’elle pourrait devenir.

Comprendre LoRA techniquement, c’est comprendre d’abord une hypothèse audacieuse : celle selon laquelle les changements nécessaires pour adapter un modèle à une nouvelle tâche possèdent une structure de faible rang, c’est-à-dire qu’ils peuvent être représentés avec un nombre drastiquement réduit de paramètres. Proposé initialement par des chercheurs de Microsoft en 2021, le LoRA fonctionne en « gélant » les poids d’un modèle pré-entraîné et en injectant des petites matrices décomposées en basse-rang dans les couches de l’architecture Transformer. Ce qui semble être une simple technique mathématique, représenter les changements de poids par le produit de deux matrices de rang inférieur, possède en réalité une portée considérable. En pratique, cela signifie que là où un affinement complet d’un modèle géant comme GPT-3 avec ses 175 milliards de paramètres exigerait de modifier chaque poids du réseau, LoRA réduit le nombre de paramètres entraînables d’un facteur de dix mille, réduisant parallèlement la mémoire GPU requise d’un facteur trois. Pour la génération d’images avec Stable Diffusion, la différence est encore plus frappante : un LoRA entraîné sur un petit ensemble d’images produit un fichier de quelques mégaoctets seulement, là où un modèle entièrement affiné en pèserait plusieurs gigaoctets.

Mais cette efficacité technique cache quelque chose de bien plus révélateur. Le LoRA révèle une vérité sur la structure intrinsèque des domaines créatifs : certaines formes d’expression artistique sont « compressibles » au sens mathématique du terme. Cette compressibilité n’est pas une propriété neutre, elle trace une frontière entre ce qui peut être réduit à des patterns statistiques reproductibles et ce qui résiste à cette réduction. Une étude récente menée par Deliège et ses collaborateurs à l’Université de Liège a précisément mesuré ce phénomène en soumettant des images générées par Midjourney à l’évaluation de trois experts en histoire de l’art et en sémiotique visuelle, selon neuf critères formels dérivés des catégories plastiques de Greimas et des oppositions stylistiques de Wölfflin (Deliège, A., Marlot, J., Van Droogenbroeck, M., & Dondero, M. G., “How Good Is the Machine at the Imitation Game? On Stylistic Characteristics of AI-Generated Images”, Journal of Imaging, 11(12), 2025). Les résultats sont éloquents : le modèle produit fréquemment des versions « stéréotypées » des mouvements artistiques étudiés, Impressionnisme, Cubisme, Surréalisme, Expressionnisme, Art Abstrait, caractérisées par des intervalles de variation plus étroits que la production historique réelle. En d’autres termes, l’algorithme compresse la diversité stylistique vers un centre statistique, éliminant les marges, les exceptions, les écarts qui font précisément la richesse d’un mouvement artistique.

L’art compressible

Quand on entraîne un LoRA sur un artiste comme Banksy ou KAWS, on observe un phénomène étrange et presque parfait. Les données convergent, les patterns s’alignent, les formes se répètent avec une constance qui permet au modèle de construire une signature, une grammaire visuelle maîtrisable. Noir et blanc du pochoir, la figure politique déclinée, le personnage aux yeux en X, la matérialité du vinyle, tout cela s’encode avec une remarquable économie. Des recherches récentes sur Stable Diffusion confirment d’ailleurs que les LoRA dédiés au style réussissent mieux que ceux destinés à capturer des visages, révélant que la nature picturale et la récurrence formelle sont les conditions idéales pour une adaptation par basse-rang. Le LoRA devient alors ce qu’il a toujours voulu être : un distillateur de style, une machine qui extrait la surface pour la rendre reproductible infiniment.

Il y a quelque chose de séduisant dans cette efficacité, quelque chose qui semble confirmer une certaine idée de l’art : l’idée que l’art est d’abord une question de signature visuelle, de répétition, de reconnaissance instantanée. L’image est le produit final et complet. Elle se suffit à elle-même. Cette conception trouve sa confirmation empirique dans les observations de l’étude de Liège : les experts ont noté que Midjourney tend à accentuer la symétrie gauche-droite dans des compositions historiquement asymétriques, produit des effets vaporeux avec des contours nets qui échouent à reproduire l’instabilité caractéristique du flou pictural, et génère des touches de pinceau souvent plus prononcées que dans les œuvres originales mais dépourvues de véritable relief (Deliège et al., 2025). Ces observations révèlent que l’algorithme capture bien quelque chose, mais ce quelque chose est précisément la surface, le trait le plus immédiatement reconnaissable, au détriment de ce qui fait la profondeur d’une pratique artistique.

Cette réduction du style à un pattern extractible s’inscrit dans une logique plus large que le théoricien des médias Lev Manovich a identifiée comme le « style maison » (house style) des modèles génératifs, une identité visuelle standardisée qui apparaît systématiquement en l’absence d’instructions spécifiques (Manovich, L., “From Representation to Prediction: Theorizing the AI Image”, in Artificial Aesthetics: Generative AI, Art and Visual Media, 2024). Mais comme le souligne la sémioticienne Maria Giulia Dondero, cette explication reste trop simple : le style de l’IA ne se définit pas par opposition, comme en histoire de l’art, mais plutôt par soustraction, c’est en testant la reproduction de styles institutionnalisés qu’on révèle, par contraste, la « main de la machine », ce qui résiste à l’imitation et constitue la signature propre de l’IA (Dondero, M. G., “Sur quelques problèmes de composition et de style dans les modèles d’intelligence artificielle générative”, Séminaire international de sémiotique, Paris, 2024).

Ce phénomène de compression stylistique a été démontré de manière spectaculaire par une étude récente publiée dans la revue Patterns. Les chercheurs ont construit des boucles itératives autonomes entre Stable Diffusion XL (génération d’images) et LLaVA (description d’images), formant des cycles texte → image → texte → image sans intervention humaine. Les résultats sont saisissants : sur 700 trajectoires avec des prompts divers et 7 réglages de température différents sur 100 itérations, toutes les exécutions ont convergé vers des visuels presque identiques, ce que les chercheurs appellent « musique d’ascenseur visuelle » (visual elevator music). L’analyse quantitative n’a révélé que 12 motifs dominants avec une esthétique « commercialement sûre » : phares dans la tempête, intérieurs palatins, paysages crépusculaires (« Autonomous language-image generation loops converge to generic visual motifs », Patterns/Cell, décembre 2025). Cette convergence persistait quels que soient les modèles utilisés, indiquant des limites structurelles dans la créativité IA cross-modale.

L’effet miroir celui de la transmission culturelle humaine, où l’apprentissage itéré amplifie les biais cognitifs, mais ici, la diversité s’effondre entièrement tandis que les boucles IA gravitent vers des attracteurs à haute probabilité dans les données d’entraînement. Les chercheurs concluent que « ces découvertes exposent des tendances homogénéisantes cachées dans les architectures actuelles et soulignent la nécessité de mécanismes anti-convergence et d’une interaction humain-IA soutenue pour préserver la diversité créative » (Patterns, 2025).

Cette convergence n’est pas un accident technique, elle révèle quelque chose de fondamental sur le fonctionnement même de ces systèmes. Une étude de grande envergure menée par des chercheurs de l’Université de Boston et publiée dans PNAS Nexus a analysé plus de 4 millions d’œuvres de plus de 53 000 artistes sur l’une des plus grandes plateformes de partage d’art. Les résultats montrent que si l’adoption de l’IA générative augmente significativement la productivité créative (de 25%) et la valeur perçue des œuvres (mesurée en favoris par vue, augmentée de 50%), elle produit simultanément un double mouvement contradictoire : la « nouveauté de contenu » au sommet (les idées les plus originales) augmente, mais la nouveauté moyenne décline, suggérant un espace d’idées en expansion mais inefficace. Plus révélateur encore : il y a une réduction constante de la « nouveauté visuelle », les éléments stylistiques au niveau du pixel, tant au sommet qu’en moyenne (Lee, D. K. & Zhou, E., “Generative artificial intelligence, human creativity, and art”, PNAS Nexus, 3(3), 2024).

Cette distinction entre « nouveauté de contenu » et « nouveauté visuelle » est cruciale pour comprendre ce que les LoRA capturent et ce qu’ils manquent. Les chercheurs définissent le contenu comme les objets focaux et leurs relations (le « quoi » conceptuel), tandis que les visuels concernent les éléments stylistiques au niveau du pixel (le « comment » formel). L’IA excelle à reproduire le « comment », les textures, les palettes, les compositions, mais contribue à appauvrir le « quoi » moyen tout en permettant quelques pics d’originalité conceptuelle. C’est exactement ce que révèle le LoRA : une machine optimisée pour la surface qui laisse échapper la profondeur.

L’impossible capture de l’art sans style

Mais voilà : il suffit de poser la même question technique à des artistes qui ont refusé de se cristalliser dans un style identifiable, qui circulent délibérément d’une forme à une autre, qui changent de médium comme on change de vêtement, et tout s’effondre. Le modèle ne sait pas quoi faire de cette réalité qui refuse de se fixer. Une installation vidéo, puis une performance, puis une œuvre textuelle, puis quelque chose qui n’a pas de nom, qui échappe à la catégorisation, ce ne sont pas des images qui convergent vers une signature. Ce sont des gestes qui divergent, qui se transforment, qui démultiplient leurs formes. Quand on entraîne le LoRA sur ce type d’artiste, il ne capture rien. Ou plutôt, il ne capture que la documentation, l’archive, le regard narratif de celui qui a regardé, pas ce qui fait tenir debout la démarche, pas ce mouvement perpétuel qui refuse de s’immobiliser en signature. Le LoRA rencontre une impossibilité qui n’est pas une limitation technique mais une révélation : cette absence de style identifiable n’est pas une faiblesse, c’est une position.

Car voilà ce qu’il faut comprendre : il existe toute une frange d’artistes qui ont délibérément renoncé à se laisser capturer par un style, qui ont fait du refus de la cristallisation stylistique une réponse critique à la fétichisation des images en tant qu’objets de communication et de reconnaissance. Ces artistes savent que le marché de l’art, tout comme les algorithmes de recommandation et maintenant les LoRA, cherche précisément ce qu’on peut encoder, ce qu’on peut reconnaître, ce qu’on peut reproduire. Ils savent que le style stable est devenu une monnaie, une marchandise communicationnelle. La signature visuelle, c’est le nouveau logo, c’est ce qui permet à l’image de circuler comme objet autonome, détaché de son contexte, reconnaissable au premier coup d’œil, utilisable dans les flux de communication. Et c’est exactement ce qu’ils refusent.

Une enquête menée auprès d’illustrateurs professionnels américains par des chercheurs de l’Université Cornell éclaire cette fracture. Les résultats montrent que les modèles génératifs ne reproduisent pas véritablement les styles artistiques tels que les artistes les conçoivent : pour les illustrateurs, le style est un « principe génératif dynamique ancré dans un contexte » ; pour les modèles IA, il se réduit à une « texture » ou un « ensemble de patterns statistiques figés et décontextualisés ». Cette réduction suit des « logiques extractivistes » déjà présentes dans les industries créatives, dévaluant le travail artistique en permettant aux clients de générer des images à partir d’une simple description textuelle (Porquet, J., Wang, S., & Chilton, L. B., “Copying style, Extracting value: Illustrators’ Perception of AI Style Transfer and its Impact on Creative Labor”, CHI Conference on Human Factors in Computing Systems, 2025). Comme le résume le théoricien Roland Meyer : « le ‘style’ cesse d’être une catégorie historique et devient un pattern d’information visuelle à extraire et monétiser » (Meyer, R., “The New Value of the Archive: AI Image Generation and the Visual Economy of ‘Style'”, IMAGE. Zeitschrift für Interdisziplinäre Bildwissenschaft, 19, 2023).

L’hypothèse marchande de l’algorithme

Ce que révèle cette impossibilité du LoRA, c’est que l’algorithme opère sur une hypothèse fondamentalement marchande de ce qu’est l’art : il suppose que l’art peut être réduit à une signature visuelle, à une morphologie identifiable, à une surface qui se laisse encoder et reconnaître. Cette hypothèse fonctionne admirablement quand l’art accepte cette condition, quand il consent à être réduit à une image-marchandise, une image-communication. C’est le monde de Banksy, de KAWS, et de tous les artistes qui ont construit leur pratique sur la répétition d’une signature visuelle forte, reconnaissable, immédiatement communicable. Ils savent ce qu’ils font : ils produisent une surface qui circulera, se reproduira, deviendra mème, logo, identité visuelle. Le LoRA comprend cela parfaitement. C’est d’ailleurs pour cela qu’il fonctionne : parce que l’œuvre s’est déjà offerte au langage que les pixels parlent, elle a déjà accepté de devenir surface, image-signe, objet de reconnaissance. Leur facilité de simulation n’est pas un défaut, c’est la preuve même de la cohérence interne de ce choix esthétique et commercial.

Les données empiriques confirment cette lecture. Une étude menée à Wharton a montré que lorsque des participants utilisent ChatGPT pour des tâches d’idéation créative, ils produisent collectivement des idées significativement moins diverses que ceux utilisant d’autres méthodes : « seulement 6% des idées générées avec l’IA étaient considérées comme uniques, contre 100% dans le groupe humain ». Comme l’explique Christian Terwiesch, co-directeur du Mack Institute : « Si vous vous fiez à ChatGPT comme seul conseiller créatif, vous manquerez bientôt d’idées, parce qu’elles sont trop similaires les unes aux autres » (Meincke, L., Terwiesch, C., & Nave, G., « Does AI Limit Our Creativity? », Knowledge at Wharton, juillet 2025). Le mécanisme est le même pour les images : le modèle génère à partir d’une distribution moyenne, et cette moyenne converge vers les attracteurs les plus fréquents dans les données d’entraînement.

Une autre étude comparative portant sur 36 participants a mesuré directement cet effet d’homogénéisation. Les chercheurs ont constaté que les utilisateurs de ChatGPT, même travaillant indépendamment, convergent vers les mêmes réponses avec un langage étonnamment similaire. Dans une expérience où les participants devaient inventer un jouet utilisant un ventilateur et une brique, presque toutes les suggestions du groupe IA se regroupaient autour du même concept, plusieurs participants nommant même leur jouet « Build-a-Breeze Castle » (Kreminski, M. et al., “Homogenization Effects of Large Language Models on Human Creative Ideation”, Proceedings of the 16th Conference on Creativity & Cognition, ACM, 2024). L’homogénéisation n’est pas un bug, c’est une propriété émergente de systèmes entraînés à prédire la complétion la plus probable.

Mais dès que l’artiste refuse cette réduction, dès qu’il change délibérément de forme pour ne pas se laisser fixer, pour échapper à la fétichisation de l’image, pour continuer à circuler sans jamais se cristalliser en style, là, le LoRA se trouve devant quelque chose d’intraduisible. L’étude de Boston sur les 53 000 artistes confirme cette intuition : la créativité en art ne se mesure pas seulement par la cohérence stylistique, mais aussi par ce qu’on appelle la « nouveauté conceptuelle ». Quand les artistes adoptent les outils d’IA générative, on observe un accroissement de la productivité créative mais aussi un risque de convergence, de nombreuses œuvres commencent à partager les mêmes traits visuels génériques (Lee & Zhou, 2024). Ceux qui refusent cette convergence sont justement ceux qui continuent à changer de forme, à ne pas se laisser circonscrire. L’essence de cette démarche réside dans ce qu’on ne voit pas, dans l’invisible du processus, dans le refus de se faire image-signe, dans la continuité du mouvement qui ne s’arrête jamais pour se faire reconnaître. Le modèle ne peut générer que la trace, la documentation, l’archive. Il confond le reflet avec la chose elle-même.

Et c’est là que réside la vraie limite de ces outils de génération. Pas leur incapacité technique à traiter certains types d’images, la mathématique du LoRA est parfaitement capable d’apprendre quasiment n’importe quel pattern, mais leur incapacité ontologique à saisir ce qui dépasse la surface. Ils sont construits pour capturer le comment, la manière, le style, la morphologie visuelle. Mais l’art qui refuse le style insiste sur le quoi et le pourquoi : qu’est-ce que cette circulation entre les formes cherche à dire ? Pourquoi ces métamorphoses incessantes, si ce n’est pour refuser précisément la réification en objet reconnaissable ?

C’est une distinction que les recherches actuelles sur l’IA et la créativité commencent à peine à formuler. Les systèmes d’IA actuels manquent précisément des capacités nécessaires pour comprendre l’art qui n’est pas réduction à la représentation : ils ne possèdent pas véritablement le sens commun, ne sont pas doués pour le raisonnement analytique, ne peuvent extraire des concepts abstraits de manière fiable, ne comprennent pas les métaphores, et ne font que rarement des inférences profondes. Comme l’écrit Gary Marcus, l’un des critiques les plus incisifs de l’IA contemporaine : « Espérer que le sens commun fiable ‘émergera’ simplement de grandes bases de données de texte et de vidéo s’est révélé irréaliste, encore et encore. […] Un composant important de la compréhension physique et conceptuelle est le raisonnement sur les entités et leurs propriétés, et les approches actuelles ont constamment échoué sur ce point » (Marcus, G. & Davis, E., “AI still lacks ‘common’ sense, 70 years later”, Substack, janvier 2025 ; voir aussi Marcus, G. & Davis, E., Rebooting AI, Pantheon, 2019).

Cette absence de sens commun explique pourquoi les modèles génératifs excellent à interpoler entre deux points de données, produisant des variations infinies sur un thème donné, mais échouent dès qu’il s’agit de comprendre pourquoi un artiste a choisi de ne pas se répéter. L’interpolation nouvelle que personne n’a jamais faite est triviale pour ces machines ; comprendre l’intentionnalité derrière un refus de style leur est structurellement inaccessible.

Ce que le LoRA capture avec ses matrices de basse-rang, c’est la structure statistique récurrente des images d’entraînement. Quand vous entraînez un LoRA sur vingt à cent images d’un même style, selon la documentation technique publiée sur Replicate et CivitAI, le modèle apprend à reproduire les motifs, les palettes de couleurs, les compositions, les textures. C’est extrêmement efficace pour l’art stylistique. Mais c’est aussi profondément limité : c’est une cristallisation de la surface, une fixation de ce qui justement ne devrait pas être fixé quand on a affaire à l’art qui vit du mouvement, de la transformation, de l’émergence continuée de nouvelles formes.

C’est d’ailleurs ce que révèle une série d’expériences menées par le chercheur Steven Messer auprès de 560 participants. Quand on compare l’authenticité perçue, les artistes qui divulguent un processus créatif très impliquant, comme l’entraînement du modèle sur leurs propres images curées, sont jugés plus crédibles que ceux qui utilisent simplement des outils commerciaux pré-entraînés. L’étude montre que l’art co-créé avec l’IA est généralement moins apprécié et reconnu, surtout quand l’IA a été utilisée dans la phase d’implémentation plutôt que dans la phase d’idéation. Bien que l’art co-créé soit perçu comme plus « nouveau », il manque d’authenticité créative, et cette authenticité exerce une influence dominante sur l’évaluation. Les résultats montrent également que les artistes eux-mêmes souffrent de ce processus de co-création : ceux qui co-créent sont moins admirés parce qu’ils sont perçus comme moins authentiques (Messer, S., “Co-creating art with generative artificial intelligence: Implications for artworks and artists”, Computers in Human Behavior: Artificial Humans, 2(1), 2024).

Mais cette authenticité ne peut exister que si le processus lui-même était créatif, ce qui suppose une profondeur que le prompt engineering ne peut pas atteindre. Pour les artistes qui refusent la signature figée, cette question d’authenticité ne se pose même pas, car il n’y a rien à authentifier, le refus du style stable est lui-même l’authenticité.

L’enquête auprès de 459 artistes menée par des chercheurs de Northeastern University confirme cette tension : 61,87% des artistes interrogés considèrent que les modèles IA représentent une menace pour les travailleurs de l’art, tandis que 80,17% estiment que les créateurs de modèles devraient être tenus de divulguer en détail quelles œuvres ont été utilisées pour l’entraînement. Mais fait révélateur, 44,88% considèrent également l’IA comme un développement positif pour le champ artistique, et 22% maintiennent simultanément ces deux positions apparemment contradictoires (Jiang, H. et al., “Foregrounding Artist Opinions: A Survey Study on Transparency, Ownership, and Fairness in AI Generative Art”, arXiv, 2024). Cette ambivalence reflète précisément la ligne de partage que trace le LoRA : pour certains artistes, l’IA est un outil parmi d’autres ; pour d’autres, elle représente l’aboutissement d’une logique extractiviste qui réduit l’art à sa surface reproductible.

Pourtant, ce n’est pas une condamnation du LoRA. C’est plutôt un diagnostic sur ce que la technique peut et ne peut pas faire. Elle peut capturer la représentation. Elle ne peut pas capturer la circulation. Elle peut cloner la signature. Elle ne peut pas générer l’absence délibérée de signature. Il y a une forme d’acceptation à cultiver ici, une humilité face à ce que les outils font bien et à ce qu’ils laissent échapper.

Les LoRA fonctionnent admirablement quand la surface est l’œuvre, quand la signature est l’identité commerciale de l’artiste, quand on a accepté de se laisser épingler dans les catégories de reconnaissance que les algorithmes peuvent apprendre. Ils deviennent curieusement mutiques quand l’œuvre existe dans le refus de se fixer, dans la circulation permanente, dans l’esquive de toute morphologie qui pourrait se cristalliser.

L’étude de Liège apporte ici une nuance importante : les trois experts sollicités divergent significativement dans leurs évaluations, avec l’un d’entre eux jugeant 59% des images générées comme « mauvaises » et 32% comme « stéréotypes », tandis qu’un autre est nettement plus satisfait (61% « acceptables », 21% « excellentes »). Cette variabilité inter-experts rappelle que le jugement stylistique reste intrinsèquement subjectif, et que la question de savoir si un modèle « capture » ou non un style dépend aussi de ce qu’on attend de cette capture (Deliège et al., 2025). Mais précisément : cette subjectivité est ce que l’algorithme ne peut pas encoder. Il produit une moyenne là où l’art vit de singularités irréductibles.

La géographie secrète de l’art contemporain

Et tandis que certains y voient une opportunité de reproduire infiniment le style, d’autres, ceux qui ont décidé que leur liberté créative dépendait du refus du style, y reconnaissent une confirmation involontaire : la technique LoRA est incapable de capturer les artistes qui ont refusé d’être capturables. C’est une liberté offerte par la technique elle-même, qui révèle ses propres limites.

Cela signifie aussi qu’il existe une géographie de l’art contemporain qui s’ignore elle-même, une partition silencieuse entre ceux qui ont accepté de travailler avec la représentation fétichisée et ceux qui ont choisi de la dépasser. Les premiers peuvent être clonés, répliqués, intégrés aux générations infinies des modèles de diffusion, et c’est d’ailleurs ce qui se produit massivement, créant cette homogénéité que les chercheurs observent dans les galeries en ligne depuis l’adoption massive des outils d’IA (Lee & Zhou, 2024 ; Patterns, 2025). C’est un risque que ces artistes ont, consciemment ou non, accepté en fixant leur pratique sur une morphologie stable et reconnaissable.

Les seconds restent libres de cette captation, non pas par supériorité morale, mais parce que la nature même de leur entreprise artistique, l’esquive permanente, la métamorphose, le refus du style comme outil de reconnaissance, la met hors de portée du langage que les pixels parlent, hors de la géométrie de l’espace latent où le LoRA opère ses petites décompositions.

Une revue systématique récente de la littérature sur l’authenticité dans l’art généré par IA propose le concept de « semi-aura » pour penser cette situation, une reformulation du concept benjaminien d’aura à l’ère de la génération algorithmique. Les études sceptiques suggèrent que les œuvres générées par IA manquent de la profondeur émotionnelle et de l’unicité que porte souvent l’art créé par l’humain, tandis que les études optimistes soulignent le potentiel de démocratisation de la créativité (« From aura to semi-aura: reframing authenticity in AI-generated art », AI & Society, juin 2025). Mais cette dichotomie optimisme/scepticisme rate peut-être l’essentiel : ce n’est pas que l’IA manque d’aura en général, c’est qu’elle ne peut capturer l’aura que des œuvres qui ont déjà renoncé à une certaine forme d’aura en acceptant de devenir signature reproductible.

Et la vraie question n’est peut-être pas celle-ci : pourquoi certains artistes se laissent capturer et d’autres non ? Mais celle-ci : qu’est-ce qu’on a envie de devenir quand on utilise une image comme identité ? Accepte-t-on de se laisser circonscrire, fixer, encoder dans les structures de reconnaissance des algorithmes ? Ou refuse-t-on cette réduction, acceptant de disparaître du visible pour continuer à exister dans le mouvement ?

C’est une question que chaque artiste devra se poser face à ces outils qui se multiplient, qui deviennent plus accessibles, plus puissants. Car ce n’est pas la technique elle-même qui est neutre. C’est le choix qu’on fait face à elle, le consentement ou le refus qu’on oppose à sa capacité d’encoder ce que nous faisons. Et ce choix, il se joue exactement là : dans la décision de se laisser simuler ou de continuer à circuler hors des images qui peuvent être reproduites.


Références bibliographiques

  • Deliège, A., Marlot, J., Van Droogenbroeck, M., & Dondero, M. G. (2025). How Good Is the Machine at the Imitation Game? On Stylistic Characteristics of AI-Generated Images. Journal of Imaging, 11(12), 429. https://doi.org/10.3390/jimaging11120429
  • Dondero, M. G. (2024). Sur quelques problèmes de composition et de style dans les modèles d’intelligence artificielle générative. Séminaire international de sémiotique, Paris.
  • Jiang, H. et al. (2024). Foregrounding Artist Opinions: A Survey Study on Transparency, Ownership, and Fairness in AI Generative Art. arXiv:2401.15497.
  • Kreminski, M. et al. (2024). Homogenization Effects of Large Language Models on Human Creative Ideation. Proceedings of the 16th Conference on Creativity & Cognition, ACM. https://doi.org/10.1145/3635636.3656204
  • Lee, D. K. & Zhou, E. (2024). Generative artificial intelligence, human creativity, and art. PNAS Nexus, 3(3), pgae052. https://doi.org/10.1093/pnasnexus/pgae052
  • Manovich, L. (2024). From Representation to Prediction: Theorizing the AI Image. In Artificial Aesthetics: Generative AI, Art and Visual Media, chapitre 5.
  • Marcus, G. & Davis, E. (2019). Rebooting AI: Building Artificial Intelligence We Can Trust. Pantheon.
  • Marcus, G. (2025). AI still lacks “common” sense, 70 years later. Substack.
  • Meincke, L., Terwiesch, C., & Nave, G. (2025). Does AI Limit Our Creativity? Knowledge at Wharton.
  • Messer, S. (2024). Co-creating art with generative artificial intelligence: Implications for artworks and artists. Computers in Human Behavior: Artificial Humans, 2(1), 100024. https://doi.org/10.1016/j.chbah.2024.100024
  • Meyer, R. (2023). The New Value of the Archive: AI Image Generation and the Visual Economy of ‘Style’. IMAGE. Zeitschrift für Interdisziplinäre Bildwissenschaft, 19, 100-111.
  • Patterns/Cell (2025). Autonomous language-image generation loops converge to generic visual motifs. https://doi.org/10.1016/j.patter.2025.101234
  • Porquet, J., Wang, S., & Chilton, L. B. (2025). Copying style, Extracting value: Illustrators’ Perception of AI Style Transfer and its Impact on Creative Labor. CHI Conference on Human Factors in Computing Systems, ACM.
  • « From aura to semi-aura: reframing authenticity in AI-generated art—a systematic literature review » (2025). AI & Society. https://doi.org/10.1007/s00146-025-02361-3

There is a moment when everything happens as if technology begins to speak for itself, where the tools we build start to reveal what, in reality, was previously invisible. This is what is happening with LoRA, these small mechanisms for lightly adapting diffusion models which, by succeeding in capturing certain artists and failing with others, trace an underground fault line at the heart of contemporary art itself. This line is not primarily a technical one, although it is manifested in the code, in the data, and in the network weights. It is a line that separates two irreconcilable visions of what a work of art is and what it could become.

To understand LoRA technically is first to understand a bold hypothesis: the idea that the changes necessary to adapt a model to a new task possess a low-rank structure, meaning they can be represented with a drastically reduced number of parameters. Initially proposed by Microsoft researchers in 2021, LoRA works by “freezing” the weights of a pre-trained model and injecting small, low-rank decomposed matrices into the layers of the Transformer architecture. What seems to be a simple mathematical technique—representing weight changes by the product of two lower-rank matrices—actually has considerable scope. In practice, this means that where a full fine-tuning of a giant model like GPT-3 with its 175 billion parameters would require modifying every weight in the network, LoRA reduces the number of trainable parameters by a factor of ten thousand, while simultaneously reducing the required GPU memory by a factor of three. For image generation with Stable Diffusion, the difference is even more striking: a LoRA trained on a small set of images produces a file of only a few megabytes, whereas a fully fine-tuned model would weigh several gigabytes.

But this technical efficiency hides something much more revealing. LoRA reveals a truth about the intrinsic structure of creative fields: certain forms of artistic expression are “compressible” in the mathematical sense of the term. This compressibility is not a neutral property; it draws a boundary between what can be reduced to reproducible statistical patterns and what resists this reduction. A recent study conducted by Deliège and colleagues at the University of Liège precisely measured this phenomenon by submitting images generated by Midjourney to the evaluation of three experts in art history and visual semiotics, based on nine formal criteria derived from Greimas’s plastic categories and Wölfflin’s stylistic oppositions (Deliège, A., Marlot, J., Van Droogenbroeck, M., & Dondero, M. G., “How Good Is the Machine at the Imitation Game? On Stylistic Characteristics of AI-Generated Images”, Journal of Imaging, 11(12), 2025). The results are telling: the model frequently produces “stereotypical” versions of the artistic movements studied—Impressionism, Cubism, Surrealism, Expressionism, Abstract Art—characterized by narrower intervals of variation than the actual historical production. In other words, the algorithm compresses stylistic diversity towards a statistical center, eliminating the margins, exceptions, and deviations that precisely constitute the richness of an artistic movement.

Compressible Art

When a LoRA is trained on an artist like Banksy or KAWS, an strange and almost perfect phenomenon is observed. The data converges, the patterns align, the forms repeat with a constancy that allows the model to construct a signature, a manageable visual grammar. The black and white of the stencil, the political figure in various forms, the character with X-eyes, the materiality of vinyl—all of this is encoded with remarkable efficiency. Recent research on Stable Diffusion also confirms that style-dedicated LoRAs perform better than those intended to capture faces, revealing that pictorial nature and formal recurrence are the ideal conditions for low-rank adaptation. LoRA then becomes what it always intended to be: a style distiller, a machine that extracts the surface to make it infinitely reproducible.

There is something seductive about this efficiency, something that seems to confirm a certain idea of art: the idea that art is primarily a matter of visual signature, repetition, and instant recognition. The image is the final and complete product. It is self-sufficient. This conception finds empirical confirmation in the observations of the Liège study: experts noted that Midjourney tends to accentuate left-right symmetry in historically asymmetrical compositions, produces hazy effects with sharp contours that fail to reproduce the characteristic instability of pictorial blur, and generates brushstrokes that are often more pronounced than in the original works but lack true relief (Deliège et al., 2025). These observations reveal that the algorithm does capture something, but this something is precisely the surface, the most immediately recognizable feature, to the detriment of what constitutes the depth of an artistic practice.

This reduction of style to an extractable pattern is part of a broader logic that media theorist Lev Manovich identified as the “house style” of generative models, a standardized visual identity that systematically appears in the absence of specific instructions (Manovich, L., “From Representation to Prediction: Theorizing the AI Image”, in Artificial Aesthetics: Generative AI, Art and Visual Media, 2024). But as semiotician Maria Giulia Dondero points out, this explanation remains too simple: AI style is not defined by opposition, as in art history, but rather by subtraction. It is by testing the reproduction of institutionalized styles that the “hand of the machine”—what resists imitation and constitutes AI’s own signature—is revealed by contrast (Dondero, M. G., “Sur quelques problèmes de composition et de style dans les modèles d’intelligence artificielle générative”, Séminaire international de sémiotique, Paris, 2024).

This phenomenon of stylistic compression was spectacularly demonstrated by a recent study published in the journal Patterns. Researchers constructed autonomous iterative loops between Stable Diffusion XL (image generation) and LLaVA (image description), forming text → image → text → image cycles without human intervention. The results are striking: across 700 trajectories with various prompts and 7 different temperature settings over 100 iterations, all runs converged towards nearly identical visuals, which the researchers call “visual elevator music.” Quantitative analysis revealed only 12 dominant motifs with a “commercially safe” aesthetic: lighthouses in a storm, palatial interiors, twilight landscapes (“Autonomous language-image generation loops converge to generic visual motifs”, Patterns/Cell, December 2025). This convergence persisted regardless of the models used, indicating structural limitations in cross-modal AI creativity.

The effect mirrors that of human cultural transmission, where iterative learning amplifies cognitive biases, but here, diversity entirely collapses as AI loops gravitate towards high-probability attractors in the training data. The researchers conclude that “these findings expose homogenizing tendencies hidden in current architectures and highlight the need for anti-convergence mechanisms and sustained human-AI interaction to preserve creative diversity” (Patterns, 2025).

This convergence is not a technical accident; it reveals something fundamental about the very functioning of these systems. A large-scale study conducted by researchers at Boston University and published in PNAS Nexus analyzed over 4 million works from more than 53,000 artists on one of the largest art-sharing platforms. The results show that while the adoption of generative AI significantly increases creative productivity (by 25%) and the perceived value of works (measured in favorites per view, increased by 50%), it simultaneously produces a contradictory double movement: “content novelty” at the top (the most original ideas) increases, but average novelty declines, suggesting an expanding but inefficient idea space. Even more revealing: there is a constant reduction in “visual novelty”—pixel-level stylistic elements—both at the top and on average (Lee, D. K. & Zhou, E., “Generative artificial intelligence, human creativity, and art”, PNAS Nexus, 3(3), 2024).

This distinction between “content novelty” and “visual novelty” is crucial for understanding what LoRA captures and what it misses. Researchers define content as the focal objects and their relationships (the conceptual “what”), while visuals concern pixel-level stylistic elements (the formal “how”). AI excels at reproducing the “how”—textures, palettes, compositions—but contributes to impoverishing the average “what” while allowing for some peaks of conceptual originality. This is exactly what LoRA reveals: a machine optimized for the surface that allows depth to escape.

The Impossible Capture of Art Without Style

But here’s the thing: all it takes is posing the same technical question to artists who have refused to crystallize into an identifiable style, who deliberately move from one form to another, who change mediums like one changes clothing, and everything collapses. The model doesn’t know what to do with this reality that refuses to be fixed. A video installation, then a performance, then a textual work, then something without a name, something that escapes categorization—these are not images that converge toward a signature. They are gestures that diverge, that transform, that multiply their forms. When LoRA is trained on this type of artist, it captures nothing. Or rather, it only captures the documentation, the archive, the narrative gaze of the observer, not what sustains the artistic process, not that perpetual movement that refuses to be immobilized as a signature. LoRA encounters an impossibility that is not a technical limitation but a revelation: this absence of identifiable style is not a weakness, it is…

…a “set of fixed and decontextualized statistical patterns.” This reduction follows “extractivist logics” already present in the creative industries, devaluing artistic work by allowing clients to generate images from a simple text description (Porquet, J., Wang, S., & Chilton, L. B., “Copying style, Extracting value: Illustrators’ Perception of AI Style Transfer and its Impact on Creative Labor”, CHI Conference on Human Factors in Computing Systems, 2025). As theorist Roland Meyer summarizes: “‘style’ ceases to be a historical category and becomes a pattern of visual information to be extracted and monetized” (Meyer, R., “The New Value of the Archive: AI Image Generation and the Visual Economy of ‘Style’”, IMAGE. Zeitschrift für Interdisziplinäre Bildwissenschaft, 19, 2023).

The Algorithm’s Commercial Hypothesis

What this impossibility of LoRA reveals is that the algorithm operates on a fundamentally commercial hypothesis of what art is: it assumes that art can be reduced to a visual signature, an identifiable morphology, a surface that can be encoded and recognized. This hypothesis works admirably when art accepts this condition, when it consents to be reduced to a commodity-image, a communication-image. This is the world of Banksy, KAWS, and all the artists who have built their practice on the repetition of a strong, recognizable, immediately communicable visual signature. They know what they are doing: they produce a surface that will circulate, reproduce, become a meme, a logo, a visual identity. LoRA understands this perfectly. This is also why it works: because the work has already offered itself to the language that pixels speak; it has already accepted becoming a surface, an image-sign, an object of recognition. Their ease of simulation is not a flaw; it is the very proof of the internal consistency of this aesthetic and commercial choice.

Empirical data confirms this reading. A study conducted at Wharton showed that when participants use ChatGPT for creative ideation tasks, they collectively produce significantly less diverse ideas than those using other methods: “only 6% of the ideas generated with AI were considered unique, compared to 100% in the human group.” As Christian Terwiesch, co-director of the Mack Institute, explains: “If you rely on ChatGPT as your only creative advisor, you will soon run out of ideas, because they are too similar to each other” (Meincke, L., Terwiesch, C., & Nave, G., “Does AI Limit Our Creativity?”, KnowledgeSubstack, January 2025; see also Marcus, G. & Davis, E., Rebooting AI, Pantheon, 2019).

This lack of common sense explains why generative models excel at interpolating between two data points, producing infinite variations on a given theme, but fail when it comes to understanding why an artist chose not to repeat themselves. Novel interpolation that no one has ever done is trivial for these machines; understanding the intentionality behind a refusal of style is structurally inaccessible to them.

What LoRA captures with its low-rank matrices is the recurrent statistical structure of the training images. When you train a LoRA on twenty to one hundred images of the same style, according to the technical documentation published on Replicate and CivitAI, the model learns to reproduce the motifs, color palettes, compositions, and textures. This is extremely effective for stylistic art. But it is also profoundly limited: it is a crystallization of the surface, a fixation of what precisely should not be fixed when dealing with art that thrives on movement, transformation, and the continued emergence of new forms.

This is also what a series of experiments conducted by researcher Steven Messer with 560 participants reveals. When comparing perceived authenticity, artists who disclose a highly involved creative process, such as training the model on their own curated images, are judged more credible than those who simply use pre-trained commercial tools. The study shows that co-created art with AI is generally less appreciated and recognized, especially when AI was used in the implementation phase rather than the ideation phase. Although co-created art is perceived as more “novel,” it lacks creative authenticity, and this authenticity exerts a dominant influence on evaluation. The results also show that artists themselves suffer from this co-creation process: those who co-create are less admired because they are perceived as less authentic (Messer, S., “Co-creating art with generative artificial intelligence: Implications for artworks and artists”, Computers in Human Behavior: Artificial Humans, 2(1), 2024).

But this authenticity can only exist if the process itself was creative, which implies a depth that prompt engineering cannot achieve. For artists who reject the fixed signature, this question of authenticity does not even arise, because there is nothing to authenticate—the refusal of a stable style is authenticity itself.

The survey of 459 artists conducted.the authenticity itself. It is a gesture that refuses the statistical pattern, a practice that thrives in the interstitial space where the LoRA performs its small decompositions.

A recent systematic review of the literature on authenticity in AI-generated art proposes the concept of “semi-aura” to understand this situation, a reformulation of the Benjaminian concept of aura in the age of algorithmic generation. Skeptical studies suggest that AI-generated works lack the emotional depth and uniqueness often carried by human-created art, while optimistic studies highlight the potential for democratizing creativity (“From aura to semi-aura: reframing authenticity in AI-generated art”, AI & Society, June 2025). But this optimism/skepticism dichotomy may miss the essential point: it is not that AI lacks aura in general, but that it can only capture the aura of works that have already relinquished a certain form of aura by agreeing to become a reproducible signature.

And the real question may not be this: why do some artists allow themselves to be captured and others not? But this: what do we want to become when we use an image as an identity? Do we agree to be circumscribed, fixed, encoded in the recognition structures of algorithms? Or do we refuse this reduction, agreeing to disappear from the visible to continue existing in movement?

This is a question that every artist will have to ask themselves in the face of these tools, which are multiplying, becoming more accessible, and more powerful. Because it is not the technology itself that is neutral. It is the choice we make regarding it, the consent or the refusal we oppose to its capacity to encode what we do. And this choice is made exactly there: in the decision to allow oneself to be simulated or to continue circulating outside of the images that can be reproduced.