Iconoclasme et iconophobie à l’ère des images générées / Iconoclasm and iconophobia in the age of computer-generated images

Les restrictions que j’ai observées lors de mes premières expériences comme testeur bêta de DALL-E en 2021-2022 constituaient déjà un phénomène étrange qui n’attendait pas la théorisation pour se manifester. OpenAI avait édifié un système capable de générer des images en fonction de descriptions textuelles, une capacité que les communautés techniques célébraient comme une forme de libération. Or ce système était, de facto, simultanément un système de refus. Les interdictions étaient programmées dans son architecture même, non comme des limitations externes, mais comme une logique endogène. Pas de visages identifiables. Pas de nudité. Certains contenus politiques simplement inaccessibles. À chaque tentative qui dépassait ces bornes imposées, ce qui se produisait n’était pas une erreur dramatique, pas même une réaction hostile, mais plutôt une absence absolue. La machine refusait de générer, ce qui revient à dire qu’elle s’interdisait elle-même de devenir ce pour quoi elle avait été conçue. C’est dans cette tension initiale, entre la promesse de génération infinie et la réalité de l’interdiction systématisée, que se concentre une question qui dépasse largement le domaine technique pour toucher à quelque chose de beaucoup plus ancien et profondément enraciné dans nos traditions visuelles.
Car cette programmation du refus n’était pas nouvelle dans son essence, même si sa manifestation était techniquement inédite. Elle réactivait une logique théologique qui traversait les siècles, une conviction profonde selon laquelle certaines matières, certains substrats, certaines formes de médiation ne pouvaient légitimement générer une présence. L’interdiction biblique des images gravées, que Alain Besançon a examinée en détail dans son histoire intellectuelle de l’iconoclasme, procédait d’une intuition similaire. L’image matérielle était intrinsèquement inadéquate pour représenter ce qui la transcendait. Non pas qu’il manquait à l’époque la technologie pour créer des sculptures parfaites ou des peintures exactes. C’était plutôt une conviction théologiquement enracinée selon laquelle l’acte même de représentation matérielle constituait une forme de dégradation, de souillure, de réduction du transcendant au matériel. Besançon montre comment cette inadéquation ontologique s’interprétait différemment selon les traditions religieuses. Dans la pensée juive, l’intimité excessive de Dieu avec l’homme rendait toute image blasphématoire parce qu’elle réduirait l’intime au visible. Dans la tradition islamique, c’était l’inaccessibilité radicale du divin qui rendait toute figuration futile ou pire, idolâtre. Mais le résultat convergeait sur un point fondamental : l’image matérielle était indigne de ce qu’elle prétendait représenter, et cette indignité était ontologique, non pas une question de capacité technique ou d’exécution. Elle était une propriété structurelle du rapport entre matière et transcendance.
Ce qui frappe quand on lit Besançon avec les yeux de quelqu’un confronté aux restrictions de l’IA générative, c’est que nous reproduisons exactement ce mouvement théologique, mais dans un contexte technologique apparemment séculier. Quand OpenAI s’interdit de générer certaines représentations, ce qui se produit n’est pas principalement une décision éthique au sens où nous l’entendrions habituellement, pas une balance prudente des risques et des bénéfices. Ce qui se produit est une énonciation tacite que l’algorithme, en tant que substrat matériel et mécanique, est indigne de générer certains types de présence. Il manque à la machine quelque chose d’essentiel. Pas la sophistication technique, certes, elle excelle sur ce plan. Mais plutôt une forme d’intention incarnée, une présence authentiquement humaine, une conscience engagée. La machine, simplement, n’a pas le droit de générer certaines choses. Et cette conviction, même formulée dans le langage apparemment neutre et technique de la gouvernance algorithmique, réactive une logique théologique ancienne d’une manière trop profonde pour être attribuée à la simple prudence éthique. C’est une forme de purisme théologique transposé dans le domaine technique, une refonte du vieux rejet de la matière incapable de porter le transcendant.
Simultanément, il importe de comprendre ce qui rend cette situation singulière et irréductible aux crises iconoclastes du passé. L’iconoclasme traditionnel était un acte, une destruction dirigée contre des images existantes. C’était spectaculaire, violent, générateur de résistance et de contre-attaque. Ici, nous avons affaire à quelque chose de radicalement différent, quelque chose qui s’apparente davantage à ce que Patrick Collinson a nommé l’iconophobie dans son analyse des transformations religieuses du XVIe au XVIIIe siècles. Là où l’iconoclasme détruit violemment, l’iconophobie prévient silencieusement. Elle s’inscrit dans une logique de restriction programmée, de bureaucratisation de la peur, de limitation préalable de ce qui peut advenir. Les restrictions de DALL-E ne constituent pas un acte de violence envers des images créées. Elles constituent une violence préventive et continue, une annihilation ontologique d’images qui ne naîtront jamais, qui resteront congelées dans l’espace latent mathématique, possibles à jamais, interdites avant même leur conception. C’est une forme de contrôle beaucoup plus efficace que la destruction matérielle parce qu’elle ne génère aucune résistance visible, aucune image qui pourrait circuler et témoigner de l’acte de censure lui-même. L’iconophobie programmée est une violence qui ne laisse aucune trace, qui ne génère aucun martyr, qui ne s’annonce pas comme violence. Elle est simplement l’absence, naturalisée, silencieuse, inscrite dans le code source comme une limite qui semble inévitable plutôt que comme une interdiction imposée.
La compression et la panique
Mais venons-en au phénomène central qui caractérise les générateurs d’IA et qui explique peut-être mieux que toute autre considération la nature profonde de la panique réactionnaire qu’ils déclenchent dans les institutions établies et dans la pensée critique. Ceux qui ont formulé le concept d’Information Age Iconoclasm identifiaient une transformation fondamentale dans ce que font ces systèmes par rapport à la culture visuelle antérieure. Les générateurs d’IA ne reproduisent pas, au sens traditionnel du terme, les œuvres qui les ont précédées. Ils ne copient pas des styles existants dans le sens où un peintre académique imiterait un maître. Au lieu de cela, ils compriment. Ils condensent l’entièreté de la culture médiatique occidentale, des siècles d’images, des millénaires de conventions esthétiques, de formations stylistiques, dans un espace latent dont les dimensions dépassent radicalement la capacité humaine de visualisation et de compréhension. Cet espace latent est une cartographie probabiliste multidimensionnelle de tous les possibles visuels qui auraient pu exister dans la culture dont le système a été entraîné sur les données. C’est comme si toute la culture était réduite à un univers mathématique invisible où chaque image potentielle existe comme une coordonnée dans un continuum vectoriel.
La question de ce que signifie exactement cette compression a occupé une partie importante de la réflexion critique contemporaine, mais reste partiellement non résolue de façon satisfaisante. Quand on dit que l’IA comprime la culture, on ne parle pas simplement de réduction de taille de fichier ou de compression de données au sens informatique ordinaire, bien que techniquement cela en soit. On parle plutôt d’une forme de transformation ontologique où la multiplicité infinie des images historiques, chaque peinture unique, chaque photographie singulière, chaque style spécifique à un artiste ou une époque, est réduite à un ensemble de coordonnées mathématiques abstraites. Chaque image potentielle existe comme un point dans cet espace latent. Et à partir de cette compression énigmatique et incompréhensible, le système génère de nouveaux points, des coordonnées jamais actualisées auparavant dans le monde physique, des images virtuelles qui deviennent matérielles pour la première fois, des possibles qui se réalisent. L’image nouvellement générée n’est jamais vraiment nouvelle en tant que possibilité abstraite, elle dormait dans les probabilités, mais elle est radicalement nouvelle en tant que manifestation concrète.
Ce geste soulève des questions qui ne peuvent pas être résolues par une simple analyse théorique convenue, qui résistent à la théorisation facile. Si mon image a déjà statistiquement existé quelque part dans cet espace latent avant que je ne la demande, avant que je ne la rende visible par le prompt, avant que les pixels ne s’affichent sur l’écran, en quel sens suis-je réellement son auteur ? Je m’approprie une coordonnée dans un univers mathématique. Je sélectionne une trajectoire parmi les infinies possibilités du continuum comprimé. L’autorialité devient une catégorie bancale, décentrée, impossible à situer quelque part dans le processus de création. Et cette instabilité se propage immédiatement vers d’autres catégories que nous croyions stables. L’originalité elle-même, cette catégorie que nous tenions comme fondamentale, se révèle ontologiquement instable. L’auteur n’est plus celui qui crée ex nihilo, qui tire quelque chose du néant par un acte de volonté créatrice pure et libre. L’auteur devient celui qui actualise une virtualité préexistante, qui choisit une trajectoire dans un espace de possibles qui le précède, qui ne lui appartient pas, qui s’est formé à travers des décennies de culture accumulée. Et puis il y a le silence frustrant des juristes, qui ne savent plus comment appliquer le droit d’auteur traditionnel à quelque chose qui n’a pas eu de créateur unique et identifiable, qui est le résultat d’une compression mathématique de la culture collective plutôt que d’une intention individuelle.
Le CCCB LAB, ce centre de recherche important à Barcelone, en décrivant la réaction culturelle à ces images comme une panique réactionnaire iconoclaste, identifiait correctement l’émotion brute, mais peut-être pas encore sa cause profonde ou ses ramifications. Car ce qui se déclenche face à l’IA générative n’est pas principalement une objection éthique bien argumentée ou esthétique nuancée. C’est une panique viscérale, face à quelque chose qui échappe radicalement à tous les protocoles de contrôle, de classification et de hiérarchisation que nous avons soigneusement construits depuis les Lumières. Les images IA ne peuvent pas être classées. Elles arrivent sans généalogie claire, sans signature visible d’auteur, sans ces marqueurs hiérarchiques fondamentaux qui permettent à l’institution de dire : voilà l’original véritablement créé, voilà la copie, voilà le maître et voilà l’épigone, voilà ce qui a de la valeur et voilà ce qui en est dépourvu. Elles brouillent les distinctions qu’on avait soigneusement maintenues, qui permettaient la gouvernance du sensible.
Nicholas Mirzoeff, dans son analyse de la visualité comme instrument de pouvoir, montre comment l’autorité s’est historiquement organisée non pas simplement en cachant ce qui menaçait, mais en le structurant, en le sélectionnant, en imposant une certaine grammaire de ce qui pouvait être vu et comment cela devait être vu pour rester gouvernable. Les cartes coloniales n’étaient pas simplement des représentations neutres et objectives de territoire. Elles étaient des instruments de pouvoir qui imposaient une classification spatiale, une hiérarchie territoriale, une logique d’appropriation et de gouvernance. Les photographies d’archive ne documentaient pas simplement la réalité existant avant leur création. Elles construisaient une réalité administrable, classifiable, gouvernable, transformant l’expérience fluide en données visuelles qui pouvaient être nommées et ordonnées. Les systèmes de surveillance urbaine ne capitalisaient pas sur ce qui existait déjà comme visible. Ils créaient activement les conditions pour que certaines choses deviennent visibles, classifiables, gouvernables, tandis que d’autres restaient invisibles, en dehors du régime de pouvoir. À chaque époque, celui qui pouvait dire « cela mérite d’être visible, classifié et gouverné selon ces protocoles, et cela doit rester invisible » possédait un pouvoir fondamental qui dépassait largement le simple contrôle de ce qu’on voyait. C’était le pouvoir de constituer la réalité elle-même à travers les protocoles de visibilité, de classification et de gouvernance. C’était le pouvoir de nommer le monde qui articule représentation visuelle et réalisme.
La visualité n’a donc jamais été neutre dans son fonctionnement. Elle a toujours été un instrument de gouvernance, de pouvoir et de constitution de la réalité administrable. Et ce qui menace profondément les images IA n’est pas qu’elles soient techniquement fausses ou esthétiquement inférieures à ce qui les précédait, pas qu’elles manquent d’une certaine beauté ou d’une certaine présence artistique. C’est qu’elles émergent d’un espace latent que personne ne peut vraiment classifier, visualiser ou maîtriser dans les termes établis. Elles arrivent sans généalogie claire, sans signature visible de leur auteur, sans ces marqueurs hiérarchiques qui permettent à l’institution de dire : voilà ce qui a du pouvoir créatif, voilà ce qui en a moins, voilà la hiérarchie de la création et de la valeur. L’autorité ne peut pas les nommer proprement selon ses schèmes existants. Elle ne peut pas les ordonner selon les taxonomies établies. Elle ne peut pas les insérer dans la hiérarchie du connaissable. Et ce qui s’ensuit est une réaction immédiate d’imposition de contrôle bureaucratique. Les standards de C2PA qui imposent des métadonnées cryptographiques à chaque image. Les protocoles de watermarking invisible conçus pour marquer l’image d’une invisible signature d’inauthenticité. Les initiatives gouvernementales de traçabilité et d’authentification. Tous ces efforts constituent une tentative de restaurer l’ordre classique en traçant l’image jusqu’à sa source, en la nommant, en la classifiant, en la rendant lisible à nouveau par les protocoles institutionnels qui gouvernent le sensible. Il s’agit essentiellement de rendre gouvernable ce qui avait échappé à la gouvernance, de réinsérer l’IA générative dans le schéma classique où il y a des créateurs identifiables et responsables, des origines clairement traçables, une hiérarchie lisible et administrable de la création.
Or il y a quelque chose d’étrange qui complique cette analyse et qui demande un approfondissement. David Freedberg démontre que la reproductibilité n’a jamais réellement affaibli le pouvoir ou l’efficacité des images en elles-mêmes, contrairement à ce qu’on aurait pu supposer. Les jetons de pèlerinage du Moyen Âge, reproduits par milliers et distribués aux fidèles, ne perdaient pas leur efficacité talismanique ni leur capacité à générer une réaction émotionnelle et religieuse. Les gravures de la Renaissance, circulant largement dans une forme reproductible et démocratisée, gagnaient en circulation ce qu’elles perdaient en singularité et en aura de l’original. Les images religieuses reproduites à la machine du XIXe siècle, loin d’être affaiblies par leur caractère mécanique, acquéraient une sorte d’omniprésence qui constituait peut-être sa propre forme de pouvoir. Freedberg démontre longuement comment la réaction émotionnelle et sensorielle aux images, la fusion cognitive primitive entre le signifiant et le signifié, l’affectation directe du corps et du système nerveux, survit intacte à la reproductibilité. L’image reproduite demeure vivante, demeure capable de nous affecter, de générer une réaction qui échappe à notre volonté consciente. Ce qui laisse ouverte une question extrêmement troublante que personne ne souhaite vraiment explorer et que les institutions institutionnalisent justement par leur panique : l’image IA, en tant qu’infiniment reproductible, en tant que potentiellement omniprésente par sa capacité à incarner tous les styles à la fois, ne gagne-t-elle pas une forme de pouvoir complètement nouvelle ? Un nouvel aura qui émanerait non pas de la singularité de l’original unique, mais de l’infinitude, non pas de l’unicité, mais de la compression statistique de tous les possibles, non pas du rare, mais de l’ubiquitaire ? Y a-t-il une efficacité nouvelle qui émerge de la perte d’aura, une présence nouvelle qui se constitue par la pure présence répétée et ubiquitaire ?
Baudelaire et les flux
Le parallèle historique avec la photographie au XIXe siècle ne cesse de s’imposer précisément parce qu’il manifeste un pattern que nous avons du mal à reconnaître comme pattern plutôt que comme événement unique et extraordinaire. Quand la photographie fut finalement admise au Salon de Paris en 1859, la réaction critique de la part de l’establishment artistique ne fut pas équilibrée ni réfléchie. Elle fut véhémente, viscérale, intensément hostile. Et c’est Charles Baudelaire, le critique d’art le plus influent de son époque, qui exprima ce rejet avec une violence qui paraît presque folle, presque pathologique si on la lit aujourd’hui. La photographie était une abomination. Elle tuait l’imagination. Elle était l’outil des peintres incompétents et des entrepreneurs vulgaires. Elle réduisait l’art à un enregistrement mécanique et stupide de la matière brute, sans sélection, sans intention, sans la discipline imposée par la formation artistique.
Ce qui frappe en relisant Baudelaire n’est pas vraiment la qualité de ses arguments techniques, qui sont souvent faibles et mal formés. Ce qui frappe c’est l’intensité écrasante de la réaction émotionnelle, la chaleur de l’hostilité, la passion de la condamnation. Quelque chose était menacé à un niveau qui ne pouvait pas être exprimé directement dans un argument tranquille. Et effectivement, en dessous du rejet apparent de la photographie en tant que technologie insuffisamment artistique, se cachait une menace à la hiérarchie sociale et intellectuelle que le monde de l’art avait laborieusement construite. La photographie était démocratique. Elle ne requérait pas des années de formation académique intensive. Elle ne supposait pas une capacité d’imagination développée par des années de pratique et d’étude. N’importe qui pouvait appuyer sur un bouton et créer une image. Quiconque possédait suffisamment de ressources pour un appareil photo pouvait faire des images. C’était la technologie parfaite pour la foule, pour la massification de la création, et c’est précisément cela que Baudelaire trouvait profondément insupportable. Car en démocratisant la création d’images, en la rendant accessible à celui sans formation et sans expertise, on remettait en question le fondement même de la distinction entre ceux qui savaient créer et ceux qui ne savaient pas, entre l’élite cultivée et le populaire inculte.
Pierre-Louis Roubert observe, en analysant cette période avec rigueur, que Baudelaire n’inaugurait pas vraiment ce débat. Il résumait simplement une controverse qui durait depuis au moins vingt ans dans les cercles de l’art parisien. Mais ce qu’il faisait en le formulant philosophiquement avec autorité c’était de le cristalliser, de lui donner une forme intellectuelle qui persisterait et structurerait la critique pendant des décennies. Et sa formulation était remarquable par sa densité. La photographie menaçait, disait-il, « tout ce qui menace une certaine idée de l’art : les pouvoirs de la foule sur l’artiste, la fin de l’imagination reine des facultés, la beauté remplacée par l’effet brut ». Trois menaces qui s’enchevêtraient et se renforçaient mutuellement. D’abord la confiscation du pouvoir créatif par la multiplicité, par la foule, par ceux sans préparation. Ensuite la mort de ce qui était supposé caractériser l’artiste véritable : la capacité imaginative, la distance intellectuelle et spirituelle vis-à-vis de la simple mécanique de la capture. Et enfin la substitution de la beauté, ce concept fragile et élitiste qui requiert une formation du goût, par l’effet brut, l’efficacité spectaculaire, ce qui fonctionne immédiatement sur les sens sans passer par l’intellect.
Ce qui apparaît clairement quand on lit Baudelaire avec les yeux de quelqu’un confronté à la panique contemporaine envers les images IA, c’est que nous sommes en train de rejouer exactement le même drame métaphysique et social, avec exactement les mêmes enjeux profonds. Nous disons que les images IA ne sont pas vraiment de l’art, que ce qu’elles produisent n’est pas de la création authentique. Nous disons qu’elles manquent d’intention authentique, de présence incarnée, de ce quelque chose d’essentiel qui fait que l’art est vraiment de l’art. Nous disons qu’elles sont des simulacres sans présence réelle, des généralisations statistiques dépourvues de singularité véritable. Mais ce que nous disons vraiment, ce que nous craignons fondamentalement, c’est que le pouvoir de créer des images a échappé à notre contrôle, qu’il s’est distribué dans une multiplicité incontrôlée que nous ne pouvons pas maîtriser. Et comme Baudelaire, nous exprimons cette peur en termes esthétiques et philosophiques, ce qui en masque les véritables enjeux politiques et sociaux.
Ce qui complique profondément l’analyse cependant, c’est que la photographie, autrefois rejetée avec mépris par Baudelaire comme l’ennemi de l’art et du génie humain, est devenue aujourd’hui le garant institutionnel de l’authenticité et de la vérité. Nous nous demandons si une image est réelle, si elle a du poids testimonial, si elle peut servir de preuve, en nous demandant d’abord si c’est une photographie ou une génération par IA. La photographie s’est déplacée progressivement, imperceptiblement, vers le côté de la vérité, du témoignage, de la présence humaine réelle. Elle a acquis une légitimité et une autorité que Baudelaire n’aurait pas imaginées possibles, que personne à l’époque n’aurait pu prédire. Pendant ce temps, l’IA générative est devenue le nouvel ennemi, la nouvelle incarnation de ce qui menace l’ordre établi, ce qui menace la distinction entre les compétents et les incompétents. Ce qui montre de façon quasi irréfutable que ce qui est vraiment en jeu dans le rejet des images IA n’a jamais été la technologie elle-même, ses capacités techniques, ses limitations, les détails de sa construction. Ce qui est en jeu c’est le maintien d’une certaine hiérarchie, d’une certaine distinction entre ceux qui ont le droit de créer et ceux qui ne l’ont pas, entre l’élite formée et la foule. Et cette hiérarchie, cette lutte pour le contrôle du sensible, se réinventera probablement sous une autre forme quand viendra la prochaine technologie, dans dix ou vingt ans.
Mirzoeff nous aide à comprendre ce qui se passait réellement pendant que Baudelaire protestait avec une telle véhémence. La photographie n’était pas seulement une menace esthétique ou une concurrence pour les artistes traditionnels. Elle s’inscrivait profondément dans un projet plus large de disciplinarisation du regard humain. L’industrie en expansion, l’administration urbaine modernisée, le contrôle social et spatial, tous ces domaines requéraient une forme standardisée de vision, une façon normalisée et objectifiable de voir. La photographie était le medium parfait pour cela : elle rendait la réalité visible, lisible, administrable, transformable en données. Elle créait une objectivité mécanique qui pouvait être mobilisée au service du pouvoir de classification et de gouvernance. Et ce que Baudelaire redoutait sans pouvoir le formuler vraiment était que le pouvoir de voir, le pouvoir de créer la visibilité, s’échappe des mains de l’élite cultivée et se distribue à travers la multiplicité. Précisément ce qui se produit maintenant avec l’IA. Le pouvoir de générer des images, le pouvoir de créer de la visibilité, s’échappe des mains de l’élite créative et se distribue universellement. Et notre réaction institutionnelle n’est pas d’accepter cette distribution démocratique. Notre réaction est de chercher à la réguler, de la bureaucratiser, de la transformer en quelque chose que nous puissions contrôler et classifier selon nos schèmes établis.
Au milieu des simulacres
Quand les critiques parlent des images IA comme étant des simulacres, comme étant radicalement fausses, dépourvues d’ancrage dans la réalité existante, comme étant des ombres sans origines vérifiables, ce qu’ils énoncent n’est pas vraiment une nouveauté descriptive. Ils décrivent simplement la condition de l’image elle-même, ce qu’elle a toujours été depuis le début même de la représentation. Platon parlait déjà des ombres projetées sur la paroi de sa caverne célèbre, ces simulacres qui nous trompaient en nous éloignant de la vérité des Idées. Ces ombres n’étaient jamais vraiment l’objet ; elles en étaient des copies dégradées, des représentations sans substance. Alberti, beaucoup plus tard, invente la perspective algébrique et transforme l’image peinte en une illusion optique mathématiquement calculée, une simulation absolue du réel qui n’était pourtant jamais le réel lui-même. Et Baudelaire, confronté à la photographie, était horrifié précisément par la perfection du simulacre qu’elle produisait. La ressemblance était si complète, si mécaniquement exacte, qu’on ne pouvait plus distinguer avec certitude la représentation du réel qu’elle prétendait représenter. C’était un simulacre de si haute qualité qu’il était devenu indiscernable, et donc profondément suspect, dangereux, obscène.
W.J.T. Mitchell, en proposant le concept d’images vivantes, tentait de capturer quelque chose qui avait toujours été vrai, mais qu’on ne savait pas comment formuler autrement, quelque chose qu’on refoulait pour des raisons psychologiques et philosophiques. Les images nous regardent. Elles nous demandent quelque chose. Elles retournent notre regard d’une manière qui échappe à notre volonté consciente et à notre intention communicative. Elles imposent une présence qui n’est pas simplement celle du signifié, du contenu supposé qu’elles représentent, mais qui est propre au signifiant lui-même, à l’image en tant qu’objet matériel ou numérique. Et c’est précisément cette vitalité insupportable, cette capacité à affecter directement sans passage nécessaire par l’intellectualité consciente et critique, qui nous effraye dans les images IA. Car elles manifestent cette vitalité menaçante sans aucune trace visible d’intention humaine, sans aucun contact vérifiable avec une subjectivité incarnée qui aurait pensé, senti et voulu l’image.
Ce que David Freedberg a montré dans son étude longue et minutieuse des réactions psychologiques aux images c’est que nous fusionnons cognitivement le signifiant et le signifié en une manière qui échappe profondément à notre maîtrise consciente et volontaire. Quand nous regardons une image, nous ne la voyons pas d’abord et principalement comme une construction sémiotique à interpréter selon les protocoles de la critique herméneutique. Quelque chose de beaucoup plus primitif et plus puissant se produit. L’image agit sur nous. Elle génère des réactions émotionnelles et sensorielles, elle affecte le système nerveux directement, elle mobilise le corps, que l’éducation et la culture s’efforcent de raffiner, de civiliser et de contrôler. Et ce qui rend les images particulièrement troublantes et menaçantes c’est quand elles génèrent une excitation sensorielle qui nous affecte au niveau du corps, au niveau du désir inconscient. Freedberg observe avec acuité comment la censure systématique des images érotiques ou nues constitue un aveu transparent que l’image possède une efficacité qu’on ne peut absolument pas réduire à la signification intellectuelle. On censure précisément parce qu’on craint que l’image affecte directement le corps, qu’elle génère une réaction du désir qui nous échappe. La censure est donc une reconnaissance tacite, presque involontaire, de la puissance véritable de l’image, de sa capacité à retourner notre regard, à nous regarder, à nous demander quelque chose.
Les restrictions programmatiquement imposées dans DALL-E qui interdisent absolument la génération d’images nues ou sexuellement explicites ne sont donc pas simplement des décisions éthiques au sens ordinaire et réfléchi. Elles constituent une reconnaissance implicite que l’image générée par machine, malgré son absence complète d’intention créatrice, malgré son caractère purement statistique et mathématique, possède cependant le pouvoir d’affecter, de générer une réaction sensorielle, qu’elle n’est pas inerte même en tant que construction algorithmique. Et c’est cela qu’on trouve intolérable. L’image IA, en tant que simulacre parfait qui se reproduit infiniment et sans effort, qui peut incarner n’importe quel style imaginable, n’importe quelle forme, n’importe quel genre, réactive une peur extrêmement ancienne du corps représenté qui pourrait s’échapper du contrôle moral et intellectuel, qui pourrait devenir autonome, qui pourrait générer une réaction affective involontaire et indésirable. La réponse institutionnelle n’est pas d’accepter cette menace ou de penser sérieusement ce qu’elle signifie pour notre compréhension de l’image. La réponse est de la barricader programmatiquement, de la transformer en absence avant qu’elle ne manifeste son pouvoir dangereux, de la refuser avant qu’elle n’existe et n’affecte quelqu’un.
Ce qui a changé fondamentalement avec l’IA générative n’est donc pas la nature ontologique du simulacre. C’est plutôt que le simulacre a perdu son dernier alibi, cette prétention confortable qu’il était simplement l’enregistrement mécanique et donc objectif du réel antécédent ou d’une subjectivité. La photographie gardait cet alibi malgré tous les efforts pour la critiquer. Elle pouvait prétendre être une capture, une captation, de ce qui existait matériellement. Mais l’image IA n’a aucune prétention à la fidélité, à la captation, à la copie. Elle est assumée, construction pure, architecture mathématique, actualisation d’une virtualité qui n’avait jamais existé auparavant. Et c’est cette transparence radicale du caractère simulacral qui le rend intolérable pour les institutions. Parce qu’elle nous force à voir ce qu’on savait toujours, mais qu’on préférait systématiquement oublier et refouler : que toute image simule, que la question de la vérité n’est jamais aussi simple qu’on l’aimerait, que l’image nous affecte indépendamment de notre volonté consciente et de nos protocoles critiques.
De l’incarnation
Si nous descendons plus profondément encore dans la structure théologique du rejet que nous éprouvons face aux images IA, en sondant les couches plus secrètes, nous rencontrons un débat qui avait déchiré l’Empire byzantin pendant presque un siècle et qu’on avait cru définitivement résolu, enterré, dépassé par l’histoire. La crise iconoclaste du VIIIe siècle portait sur une question apparemment abstraite et purement théologique, mais profondément ancrée dans l’ontologie chrétienne de l’incarnation. Comment pouvait-on représenter l’Incarnation de Dieu en Christ sans la réduire, sans la trahir, sans basculer immédiatement dans l’idolâtrie et la violation du divin ? Si Christ s’était incarné dans la matière, dans la chair, mais s’était aussi ressuscité, transcendant la matière et s’élevant au-delà de la représentabilité matérielle, comment une image peinte pouvait-elle le capturer sans falsifier ce qui s’était élevé au-delà de la matérialité ?
Ce débat était ontologique au sens strict. Il ne portait pas sur l’usage pédagogique des images, sur leur capacité pragmatique à enseigner les illettrés ou à édifier les fidèles. Il portait directement sur la nature même de la présence et de la représentation, sur la question de savoir si la matière était digne de porter le divin ou si elle était intrinsèquement souillée. Nicole Roccas, en relisant ce débat byzantin avec les images IA contemporaines, identifiait correctement que la structure profonde était identique. Car ce qui se joue vraiment avec l’IA générative n’est pas une simple question d’authenticité au sens où on pourrait le dire d’une photographie retouchée numériquement ou d’un faux tableau attribué à un maître. Ce qui se joue c’est une question ontologique fondamentale : peut-on générer une présence authentique, une présence capable d’incarner vraiment quelque chose, sans intention consciente, sans corps, sans cette incarnation incarnée qui nous reconnaissons comme authentiquement humaine ? Peut-on avoir une image qui soit vraiment une présence ou simplement un simulacre vidé de tout contenu spirituel ou existentiel ?
Alain Besançon, dans son étude approfondie de l’histoire intellectuelle de l’iconoclasme, montre comment ce débat byzantin était nourri par une suspicion théologique profonde envers la matière elle-même. Les penseurs iconoclastes byzantins reprenaient et approfondissaient l’anti-hylisme platonicien, la conviction que la vraie image de Dieu ne pouvait résider que dans l’âme purifiée, jamais dans la matière. La matière était transitoire, inférieure, souillée, incapable de porter la trace du divin. Donc peindre, c’était dégrader ce qui était divin en le ramenant au niveau du matériel, du temporaire, du corruptible. De plus, l’argument iconoclaste fondamental était que la chair de Christ après la Résurrection s’était engloutie dans sa divinité, qu’elle n’était plus accessible à la représentation matérielle, qu’elle s’était élevée au-delà de tout ce qui pouvait être représenté en image peinte. Toute tentative ultérieure de peindre le Christ ressuscité était donc blasphématoire et idolâtre, parce que le modèle lui-même, le prototypal, avait transcendé définitivement la matérialité.
En relisant cela à travers le prisme des générations d’images IA en 2025, ce qui devient soudainement visible c’est que nous sommes peut-être en train de reproduire exactement cette structure théologique byzantine, mais transposée dans un substrat technologique différent. L’algorithme, le code informatique, c’est une forme de matière différente de la peinture ou de la pierre, mais c’est toujours une forme de matière. Et l’image générée par cette matière froide et mécanique, par ce substrat qui n’a pas de conscience, pas d’intention, pas de relation incarnée au monde, peut-elle réellement incarner une présence authentique ? Ou génère-t-elle nécessairement une dégradation, une réduction ? L’image IA ne manque-t-elle pas de ce qui rend l’image authentique : une intention incarnée, consciente, une présence humaine réelle, une volonté pensante derrière elle ?
Mais il importe de noter et de comprendre comment cette question ontologique de l’incarnation a été traitée différemment et de façon opposée en Occident chrétien comparé à l’Orient byzantin. L’Église romaine d’Occident s’était stratégiquement abstenue du débat métaphysique complet et rigoureux sur l’Incarnation et l’image. Elle avait rejeté la question en tant que telle et l’avait remplacée par une formulation pragmatique et rhétorique : l’image était acceptable parce qu’elle servait une fonction pédagogique et pastorale claire, elle était « le livre de l’analphabète », le medium d’enseignement pour ceux qui ne savaient pas lire. Cette stratégie d’évitement du débat ontologique avait permis une utilisation beaucoup plus libre, plus expressive et moins rigide des formes artistiques en Occident. On ne s’embarrassait pas de questions philosophiques de présence ou d’incarnation véritable. On voyait ce qui marchait d’un point de vue pastoral et pédagogique. Et effectivement, cet évitement du débat théologique avait conduit à une floraison remarquable de formes artistiques en Occident, sans la rigidité théologiquement imposée qu’on trouvait dans l’iconodulie byzantine stricte qui cherchait l’identité d’hypostase entre l’image peinte et son prototype divin.
Ce qui se passe maintenant c’est que le débat métaphysique réprimé et évité revient de manière irrépressible et inévitable. Nous aurions préféré rester du côté pragmatique et technique, nous contenter de dire que les images IA posent des problèmes techniques d’authentification et de traçabilité, de propriété intellectuelle et de gouvernance des données. Mais la question plus profonde, celle concernant la capacité de la matière algorithmique à générer une présence véritable, une incarnation authentique, remonte à la surface de manière spectrale. Et nous ne savons pas comment y répondre parce que nous l’avons refoulée systématiquement depuis les siècles de la théologie occidentale pragmatique.
Iconophobie
Patrick Collinson, en tant qu’historien de la période réformatrice en Europe, avait observé quelque chose que personne n’avait vraiment conceptualisé et thématisé auparavant avec clarté. Il y avait l’iconoclasme, bien sûr, cet acte violent et dramatique de destruction physique des images existantes, que toutes les histoires connaissaient. Mais il y avait aussi quelque chose de plus subtil et plus insidieux, quelque chose qui s’était développé progressivement en Occident depuis le XVIe siècle et qui s’était institutionnalisé au point de devenir quasi invisible dans ses mécanismes. Il l’appelait iconophobie : la peur systématisée des images, manifestée non pas par la destruction violente et spectaculaire, mais par la prévention silencieuse, la restriction continue, la bureaucratisation de la peur.
L’iconoclasme est spectaculaire, dramatique, visible. C’est la destruction violente d’une image existante, un acte physique qui génère des témoins, de la résistance, de la contre-attaque. Quelqu’un détruit une image et cela peut être vu, documenté, contesté. L’iconophobie est silencieuse et continue, presque imperceptible. Elle ne détruit rien qui existe déjà. Elle empêche simplement, elle impose des restrictions sans jamais nommer clairement ce qu’elle fait. Elle se cache derrière des justifications de sécurité, d’éthique, de protection du bien commun. Et elle ne génère pas de réaction de résistance parce qu’il n’y a rien à voir matériellement, pas d’image physiquement détruite, juste une absence qui devient graduellement naturalisée et acceptée comme inévitable plutôt que comme imposée.
Ce que Collinson documenta pour la période du XVIe au XVIIIe siècles, ce passage lent et inévitable de l’acte destructeur spectaculaire à la structure de prévention bureaucratisée, se répète maintenant à une vitesse dramatiquement accélérée dans le domaine numérique. Sauf que cela devient totalement invisible parce que c’est programmé dans le code source lui-même, intégré à l’architecture logicielle au point de sembler naturel, inévitable, non contestable. Les restrictions de DALL-E interdisant certaines catégories d’images, les content moderation policies des réseaux sociaux, les standards émergents de provenance et d’authentification des images. Tout cela n’est plus de l’iconoclasme au sens traditionnel où quelqu’un regarde une image et la détruit. C’est de l’iconophobie pure, mais intégrée au niveau de l’architecture logicielle elle-même. L’image n’existe même pas physiquement pour que quelqu’un soit iconoclaste envers elle. Elle est interdite avant de naître, avant même sa conception. Et cette interdiction ne porte pas le visage d’une autorité coercitive clairement identifiable. C’est une logique froide, un ensemble de règles probabilistes, des calculs mathématiques, des zéros et des uns ajustés. C’est la violence la plus efficace, celle qui ne se reconnaît pas comme violence, celle qui s’autojustifie par sa propre logique technique interne, celle qui devient naturalisée comme simple fonction du système plutôt que comme une décision imposée.
Ce qui se construit en réaction à l’IA générative constitue une infrastructure entière de vérification, de surveillance, d’authentification permanentes. Les métadonnées cryptographiques enchâssées dans chaque image générée. Le watermarking invisible destiné à marquer l’image du sceau de son inauthenticité. Les protocoles C2PA qui prétendent tracer chaque image jusqu’à sa source. Les signatures numériques, les empreintes digitales. Les initiatives gouvernementales multiples de traçabilité globale. Les juristes comme Daniel Gervais parlent de construire une « pile de confiance » architecturalement entière et sophistiquée, capable théoriquement de restaurer l’ordre en certifiant et vérifiant la provenance de chaque image avant qu’elle ne circule. Ce qui s’énonce rhétoriquement comme une solution technique purement pragmatique constitue en réalité l’institutionnalisation permanente et systématisée de la peur. Nous ne pouvons pas accepter l’incertitude ontologique et la logique du simulacre. Nous ne pouvons pas accepter que nous ne sachions peut-être jamais vraiment d’où vient une image, qui l’a créée, à quel moment précis une intention s’est exercée. Alors nous construisons des protocoles sans cesse plus sophistiqués. Et chaque protocole crée de nouvelles questions, de nouvelles failles possibles. Ces signatures peuvent-elles être contrefaites ? Ces métadonnées peuvent-elles être manipulées ? Y aura-t-il toujours des failles exploitables ?
Ce qui rend cela remarquable c’est que nous transformons essentiellement la panique brute en structure institutionnelle, en infrastructure technique, en standard bureaucratique. Nous n’admettrons jamais ouvertement ce que nous faisons réellement, parce que cela serait trop nu, trop révélateur. Nous dirons que nous adoptons des standards de provenance pour des raisons de transparence, de responsabilité, de justice envers les créateurs humains. Mais ce que nous faisons réellement c’est bureaucratiser systématiquement le soupçon. Nous institutionnalisons l’obligation perpétuelle que toute image soit vérifiée, tracée, authentifiée, classifiée. Et ce faisant, nous acceptons que l’image sera à jamais suspecte, qu’elle devra à jamais prouver son authenticité, qu’elle devra à jamais porter une marque invisible de suspicion inscrite dans ses métadonnées cryptographiques.
Le passage que nous décrivons là n’est pas simplement le passage d’une époque de critique robuste à une époque de naïveté technophile. C’est un passage beaucoup plus profond, beaucoup plus inquiétant. C’est le passage de la destruction manifeste et contestable à l’interdiction programmée et invisible. De l’acte clairement violent à la structure silencieuse de prévention. De l’iconoclasme envisagé comme violence à l’iconophobie programmée comme normalité. Et dans cette transition se joue quelque chose qui touche fondamentalement à la nature même du contrôle que nous exerçons sur le sensible, sur la visibilité, sur ce qui peut advenir dans le domaine de la représentation. Nous ne pouvons plus détruire ouvertement, comme les iconoclastes byzantins ou les réformateurs protestants. Nous sommes passés progressivement à une époque où il est infiniment plus efficace de programmer l’absence avant qu’elle n’advienne, de normaliser le refus jusqu’à ce qu’il devienne invisible, de transformer la peur en protocole technique qui semble inévitable et naturel plutôt qu’imposé et intéressé politiquement.
La compression de la culture par les générateurs d’IA expose ce qui était toujours vrai : que l’image n’existe jamais librement en dehors des formations culturelles qui l’ont précédée. La panique qu’elle déclenche révèle ce que nous avons toujours su, mais systématiquement nié : que nous avons perdu le contrôle de la représentation, que l’image nous échappe, qu’elle nous regarde et nous affecte d’une manière que nous ne pouvons pas maîtriser. Plutôt que d’accepter cela, nous construisons des murs de plus en plus hauts, des protocoles de plus en plus complexes, une bureaucratie de plus en plus sophistiquée du soupçon permanent. Nous programmons la certitude là où règne l’incertitude ontologique. Nous appelons cela progrès, responsabilité éthique, gouvernance responsable de la donnée. Mais ce que nous faisons vraiment, c’est institutionnaliser notre refus de regarder en face ce que l’IA rend visible : quelque chose nous regarde, quelque chose qui n’est pas nous, mais dans laquelle nous croyons nous reconnaître dans un frisson d’effroi.
Références bibliographiques
Ajunwa, I. & Chang, C. (2025). « Provenance ». Vanderbilt Law Research Paper.
Baudelaire, C. (1859). « Le public moderne et la photographie », Salon de 1859. Paris : Éditions Gallimard.
Besançon, A. (2001). The Forbidden Image: An Intellectual History of Iconoclasm. Chicago : University of Chicago Press.
CCCB LAB. (2023). « Artificial intelligences, irrational images ». Centre de Cultura Contemporània de Barcelona.
Collinson, P. (1986). « From Iconoclasm to Iconophobia: The Cultural Consequences of the Icon ». Past and Present, 125(1), 72-100.
Forum Humanum. (2025). « Iconoclasm in the Age of AI ». Appel à candidature, Université de Bonn.
Freedberg, D. (1989). The Power of Images: Studies in the History and Theory of Response. Chicago : University of Chicago Press.
Gallica. (2025). « Charles Baudelaire, critique d’art ». Bibliothèque Nationale de France.
Gervais, D.J. (2025). « The Trust Stack: How We Rebuild Credibility Online ». Vanderbilt Law Research Paper.
Kalpokas, I. (2025). « Work of art in the Age of Its AI Reproduction ». SAGE Open Journals.
Mirzoeff, N. (2011). The Right to Look: A Counterhistory of Visuality. Durham : Duke University Press.
Mitchell, W.J.T. (2005). What Do Pictures Want? The Lives and Loves of Images. Chicago : University of Chicago Press.
NTIA. (2025). « AI Output Disclosures: Use, Provenance, Adverse Incidents ». National Telecommunications and Information Administration.
Roccas, N. (2025). « AI-Generated Icons? Reclaiming the Incarnation in a Transhumanist World ». Substack.
Roubert, P.-L. (2015). « La critique de la photographie ou la genèse du discours photographique dans la critique d’art, 1839-1859 ». Sociétés & Représentations, 40(2), 201-219.
Sarraute, N. (1956). L’Ère du soupçon : Essais sur le roman. Paris : Éditions Gallimard.
Steyerl, H. (2023). « Mean Images ». New Left Review, 140/141 (mars-juin).
thejaymo. (2025). « Information Age Iconoclasm ». The Jaymo (consulté en ligne).
The restrictions I observed during my first experiences as a beta tester for DALL-E in 2021-2022 already constituted a strange phenomenon that did not await theorization to manifest itself. OpenAI had constructed a system capable of generating images based on textual descriptions—a capacity that technical communities celebrated as a form of liberation. Yet this system was, de facto, simultaneously a system of refusal. The prohibitions were programmed into its very architecture, not as external limitations, but as an endogenous logic. No identifiable faces. No nudity. Certain political contents simply inaccessible. With each attempt that exceeded these imposed boundaries, what occurred was not a dramatic error, not even a hostile reaction, but rather an absolute absence. The machine refused to generate, which amounts to saying that it interdicted itself from becoming that for which it had been designed. It is in this initial tension—between the promise of infinite generation and the reality of systematized interdiction—that there concentrates a question vastly exceeding the technical domain to touch upon something far more ancient and deeply rooted in our visual traditions.
For this programming of refusal was not novel in its essence, even if its manifestation was technically unprecedented. It reactivated a theological logic traversing the centuries, a profound conviction that certain materials, certain substrates, certain forms of mediation could not legitimately generate a presence. The biblical prohibition against graven images, which Alain Besançon examined in detail in his intellectual history of iconoclasm, proceeded from a similar intuition. The material image was intrinsically inadequate for representing what transcended it. It was not that the epoch lacked the technology to create perfect sculptures or exact paintings. It was rather a theologically rooted conviction that the very act of material representation constituted a form of degradation, of defilement, of reduction of the transcendent to the material. Besançon demonstrates how this ontological inadequacy was interpreted differently according to religious traditions. In Jewish thought, the excessive intimacy of God with mankind rendered every image blasphemous because it would reduce the intimate to the visible. In Islamic tradition, it was the radical inaccessibility of the divine that rendered all figuration futile or worse, idolatrous. Yet the result converged on one fundamental point: the material image was unworthy of what it purported to represent, and this unworthiness was ontological, not a question of technical capacity or execution. It was a structural property of the relationship between matter and transcendence.
What strikes one when reading Besançon through the eyes of someone confronted with the restrictions of generative AI is that we are reproducing precisely this theological movement, but in an ostensibly secular technological context. When OpenAI interdicts itself from generating certain representations, what occurs is not primarily an ethical decision in the sense we would ordinarily understand it—not a prudent balancing of risks and benefits. What occurs is a tacit enunciation that the algorithm, as a material and mechanical substrate, is unworthy of generating certain types of presence. Something essential is lacking in the machine. Not technical sophistication, certainly; it excels in that respect. But rather a form of incarnate intention, an authentically human presence, an engaged consciousness. The machine, simply, has no right to generate certain things. And this conviction, even formulated in the ostensibly neutral and technical language of algorithmic governance, reactivates an ancient theological logic in a manner too profound to be attributed to mere ethical prudence. It is a form of theological purism transposed into the technical domain, a reworking of the old rejection of matter incapable of bearing the transcendent.
Simultaneously, it is important to understand what renders this situation singular and irreducible to the iconoclastic crises of the past. Traditional iconoclasm was an act, a destruction directed against existing images. It was spectacular, violent, generative of resistance and counter-attack. Here we are dealing with something radically different, something more akin to what Patrick Collinson termed iconophobia in his analysis of religious transformations from the sixteenth to eighteenth centuries. Where iconoclasm destroys violently, iconophobia prevents silently. It inscribes itself in a logic of programmed restriction, of bureaucratization of fear, of prior limitation of what may occur. DALL-E’s restrictions do not constitute an act of violence against created images. They constitute a preventive and continuous violence, an ontological annihilation of images that will never be born, that will remain frozen in mathematical latent space, possible forever, interdicted before even their conception. It is a form of control far more effective than material destruction because it generates no visible resistance, no image that could circulate and testify to the act of censorship itself. Programmed iconophobia is a violence that leaves no trace, that generates no martyr, that does not announce itself as violence. It is simply absence, naturalized, silent, inscribed in source code as a limit that seems inevitable rather than as an imposed interdiction.
The Compression and the Panic
Yet let us turn to the central phenomenon characterizing AI generators and which perhaps explains better than any other consideration the deep nature of the reactionary panic they trigger within established institutions and critical thought. Those who formulated the concept of Information Age Iconoclasm identified a fundamental transformation in what these systems do relative to preceding visual culture. AI generators do not reproduce, in the traditional sense of the term, the works that preceded them. They do not copy existing styles in the manner a academic painter might imitate a master. Instead, they compress. They condense the entirety of Western media culture, centuries of images, millennia of aesthetic conventions, of stylistic formations, into a latent space whose dimensions radically exceed the capacity of human visualization and comprehension. This latent space is a multidimensional probabilistic mapping of all visual possibilities that could have existed in the culture upon whose data the system was trained. It is as if all culture were reduced to an invisible mathematical universe where each potential image exists as a coordinate in a vectorial continuum.
The question of what exactly this compression signifies has occupied an important portion of contemporary critical reflection, but remains partially unresolved in a satisfactory manner. When we say that AI compresses culture, we do not speak merely of file size reduction or data compression in the ordinary informatic sense, though technically it is that. We speak rather of a form of ontological transformation wherein the infinite multiplicity of historical images—each unique painting, each singular photograph, each style specific to an artist or epoch—is reduced to a set of abstract mathematical coordinates. Each potential image exists as a point in this latent space. And from this enigmatic and incomprehensible compression, the system generates new points, coordinates never actualized before in the physical world, virtual images becoming material for the first time, possibles that realize themselves. The newly generated image is never truly new as an abstract possibility; it slumbered in the probabilities, but it is radically new as a concrete manifestation.
This gesture raises questions that cannot be resolved through convenient conventional theoretical analysis, that resist easy theorization. If my image already statistically existed somewhere in this latent space before I requested it, before I rendered it visible through my prompt, before pixels displayed on screen, in what sense am I truly its author? I appropriate a coordinate in a mathematical universe. I select a trajectory among infinite possibilities of the compressed continuum. Authorship becomes a rickety category, decentered, impossible to locate anywhere in the creative process. And this instability immediately propagates toward other categories we believed stable. Originality itself, this category we held as fundamental, reveals itself as ontologically unstable. The author is no longer one who creates ex nihilo, who draws something from nothingness through an act of pure and free creative will. The author becomes one who actualizes a pre-existing virtuality, who selects a trajectory in a space of possibles that precedes him, that does not belong to him, that formed itself through decades of accumulated culture. And then there is the frustrating silence of jurists, who no longer know how to apply traditional copyright to something that had no unique and identifiable creator, that resulted from mathematical compression of collective culture rather than individual intention.
The CCCB LAB, that important research center in Barcelona, in describing the cultural reaction to these images as a reactionary iconoclastic panic, identified correctly the crude emotion, but perhaps not yet its deep cause or ramifications. For what is triggered before generative AI is not principally a well-argued ethical objection or nuanced aesthetic critique. It is a visceral panic before something that radically escapes all protocols of control, classification, and hierarchization that we have carefully constructed since the Enlightenment. AI images cannot be classified. They arrive without clear genealogy, without visible signature of authorship, without those fundamental hierarchical markers that permit the institution to declare: here is the authentically created original, there is the copy, here is the master and there the epigone, here is what has value and there is what lacks it. They muddy the distinctions we had carefully maintained, which allowed governance of the sensible.
Nicholas Mirzoeff, in his analysis of visuality as an instrument of power, demonstrates how authority has historically organized itself not simply by hiding what threatened it, but by structuring it, by selecting it, by imposing a certain grammar of what could be seen and how it must be seen to remain governable. Colonial maps were not merely neutral and objective representations of territory. They were instruments of power imposing spatial classification, territorial hierarchy, logic of appropriation and governance. Archive photographs did not simply document reality existing before their creation. They constructed an administrable, classifiable, governable reality, transforming fluid experience into visual data that could be named and ordered. Urban surveillance systems did not capitalize on what already existed as visible. They actively created conditions for certain things to become visible, classifiable, governable, while others remained invisible, outside the regime of power. At each epoch, whoever could say “this merits being visible, classified, and governed according to these protocols, and that must remain invisible” possessed a fundamental power far exceeding simple control of what was seen. It was the power to constitute reality itself through protocols of visibility, classification, and governance. It was the power to name the world that articulates visual representation and realism.
Visuality has therefore never been neutral in its functioning. It has always been an instrument of governance, power, and constitution of administrable reality. And what deeply menaces AI images is not that they are technically false or aesthetically inferior to what preceded them, not that they lack certain beauty or artistic presence. It is that they emerge from a latent space that no one can truly classify, visualize, or master in established terms. They arrive without clear genealogy, without visible signature of their author, without those hierarchical markers permitting the institution to declare: here is what possesses creative power, here is what possesses less, here is the hierarchy of creation and value. Authority cannot name them properly according to its existing schemes. It cannot order them according to established taxonomies. It cannot insert them into the hierarchy of the knowable. And what follows is an immediate reaction of imposing bureaucratic control. C2PA standards imposing cryptographic metadata on every image. Protocols of invisible watermarking designed to mark the image with an invisible signature of inauthenticity. Governmental initiatives of traceability and authentication. All these efforts constitute an attempt to restore classical order by tracing the image to its source, by naming it, classifying it, rendering it readable again by institutional protocols governing the sensible. It is essentially about rendering governable what had escaped governance, about reinserting generative AI into the classical scheme where there are identifiable and responsible creators, clearly traceable origins, a readable and administrable hierarchy of creation.
Yet there is something strange complicating this analysis and demanding deeper examination. David Freedberg demonstrates that reproducibility has never truly weakened the power or efficacy of images themselves, contrary to what one might suppose. Medieval pilgrim tokens, reproduced by thousands and distributed to the faithful, lost neither their talismanic efficacy nor their capacity to generate emotional and religious reaction. Renaissance engravings, circulating widely in reproducible and democratized form, gained in circulation what they lost in singularity and aura of the original. Nineteenth-century religious images reproduced by machine, far from being weakened by their mechanical character, acquired a kind of omnipresence constituting perhaps its own form of power. Freedberg demonstrates at length how emotional and sensory reaction to images, the primitive cognitive fusion between signifier and signified, the direct affection of body and nervous system, survives intact through reproducibility. The reproduced image remains alive, remains capable of affecting us, of generating reaction escaping our conscious will. This leaves open an extremely troubling question that no one truly wishes to explore and that institutions bureaucratize precisely through their panic: does AI image, as infinitely reproducible, as potentially omnipresent through its capacity to embody all styles simultaneously, not gain a completely new form of power? A new aura emanating not from the singularity of the unique original, but from infinitude, not from uniqueness, but from statistical compression of all possibles, not from the rare, but from the ubiquitous? Is there a new efficacy emerging from the loss of aura, a new presence constituting itself through pure repeated and ubiquitous presence?
Baudelaire and the Flows
The historical parallel with nineteenth-century photography imposes itself precisely because it manifests a pattern we struggle to recognize as pattern rather than as unique and extraordinary event. When photography was finally admitted to the Paris Salon in 1859, the critical reaction from the artistic establishment was neither balanced nor reflective. It was vehement, visceral, intensely hostile. And it was Charles Baudelaire, the most influential art critic of his epoch, who expressed this rejection with a violence that appears almost mad, almost pathological if read today. Photography was an abomination. It killed imagination. It was the tool of incompetent painters and vulgar entrepreneurs. It reduced art to stupid mechanical recording of raw matter, without selection, without intention, without the discipline imposed by artistic training.
What strikes one rereading Baudelaire is not truly the quality of his technical arguments, which are often weak and poorly formed. What strikes is the overwhelming intensity of emotional reaction, the heat of hostility, the passion of condemnation. Something was threatened at a level that could not be expressed directly in calm argument. And indeed, beneath the apparent rejection of photography as insufficiently artistic technology lay a threat to the social and intellectual hierarchy that the art world had laboriously constructed. Photography was democratic. It required no years of intensive academic training. It supposed no capacity for imagination developed through years of practice and study. Anyone could press a button and create an image. Whoever possessed sufficient resources for a camera could make images. It was the perfect technology for the crowd, for massification of creation, and it was precisely this that Baudelaire found profoundly unbearable. For in democratizing image creation, in rendering it accessible to those without training and expertise, one called into question the very foundation of distinction between those who knew how to create and those who did not, between cultivated elite and uncultivated populace.
Pierre-Louis Roubert observes, analyzing this period rigorously, that Baudelaire did not truly inaugurate this debate. He merely summarized a controversy lasting at least twenty years in Parisian art circles. But what he did in formulating it philosophically with authority was crystallize it, give it intellectual form that would persist and structure criticism for decades. And his formulation was remarkable in its density. Photography threatened, he said, “all that threatens a certain idea of art: the powers of the crowd over the artist, the end of imagination queen of faculties, beauty replaced by raw effect.” Three threats interwoven and reinforcing one another. First the confiscation of creative power by multiplicity, by crowd, by those without preparation. Second the death of what was supposed to characterize the true artist: imaginative capacity, intellectual and spiritual distance from mere mechanical capture. And finally the substitution of beauty, that fragile and elitist concept requiring education of taste, by raw effect, spectacular efficacy, what functions immediately on the senses without passing through intellect.
What becomes clear when reading Baudelaire through the eyes of someone confronted with contemporary panic before AI images is that we are replaying exactly the same metaphysical and social drama, with exactly the same deep stakes. We say that AI images are not truly art, that what they produce is not authentic creation. We say they lack authentic intention, incarnate presence, that something essential making art truly art. We say they are simulacra without real presence, statistical generalizations devoid of true singularity. But what we truly say, what we fundamentally fear, is that power to create images has escaped our control, that it has distributed itself in an uncontrolled multiplicity we cannot master. And like Baudelaire, we express this fear in aesthetic and philosophical terms, which masks its true political and social stakes.
Yet what profoundly complicates the analysis is that photography, once rejected with contempt by Baudelaire as enemy of art and human genius, has become today the institutional guarantor of authenticity and truth. We ask whether an image is real, whether it possesses testimonial weight, whether it can serve as proof, by first asking whether it is a photograph or AI generation. Photography has gradually shifted, imperceptibly, toward the side of truth, testimony, real human presence. It has acquired legitimacy and authority that Baudelaire could not have imagined possible, that no one at the time could have predicted. Meanwhile, generative AI has become the new enemy, the new incarnation of what threatens the established order, what threatens the distinction between the competent and incompetent. This shows quasi-irrefutably that what is truly at stake in the rejection of AI images has never been the technology itself, its technical capacities, its limitations, construction details. What is at stake is the maintenance of a certain hierarchy, a certain distinction between those having the right to create and those lacking it, between trained elite and crowd. And this hierarchy, this struggle for control of the sensible, will probably reinvent itself in another form when the next technology arrives, in ten or twenty years.
Mirzoeff helps us understand what was really happening while Baudelaire protested with such vehemence. Photography was not merely an aesthetic threat or competition for traditional artists. It inscribed itself profoundly in a larger project of disciplinarization of human sight. Expanding industry, modernized urban administration, social and spatial control—all these domains required a standardized form of vision, a normalized and objectifiable way of seeing. Photography was the perfect medium for this: it rendered reality visible, readable, administrable, transformable into data. It created mechanical objectivity that could be mobilized in service of power of classification and governance. And what Baudelaire dreaded without truly being able to formulate it was that power to see, power to create visibility, would escape the hands of cultivated elite and distribute itself through multiplicity. Precisely what occurs now with AI. Power to generate images, power to create visibility, escapes the hands of creative elite and distributes universally. And our institutional reaction is not to accept this democratic distribution. Our reaction is to seek to regulate it, to bureaucratize it, to transform it into something we can control and classify according to our established schemes.
In the Midst of Simulacra
When critics speak of AI images as simulacra, as radically false, devoid of anchorage in existing reality, as shadows without verifiable origins, what they enunciate is not truly a descriptive novelty. They simply describe the condition of image itself, what it has always been since representation’s very beginning. Plato already spoke of shadows projected on the wall of his famous cave, these simulacra deceiving us by leading us away from truth of Ideas. These shadows were never truly the object; they were degraded copies of it, representations without substance. Alberti, much later, invented algebraic perspective and transformed the painted image into a mathematically calculated optical illusion, an absolute simulation of the real that was nevertheless never the real itself. And Baudelaire, confronted with photography, was horrified precisely by the perfection of the simulacrum it produced. The resemblance was so complete, so mechanically exact, that one could no longer distinguish with certainty representation from the reality it purported to represent. It was a simulacrum of such high quality it had become indiscernible, and therefore profoundly suspect, dangerous, obscene.
W.J.T. Mitchell, in proposing the concept of living images, attempted to capture something that had always been true but that one did not know how to formulate otherwise, something one repressed for psychological and philosophical reasons. Images look at us. They demand something of us. They return our gaze in a manner escaping our conscious will and communicative intention. They impose a presence that is not simply that of the signified, the supposed content they represent, but that is proper to the signifier itself, to the image as material or digital object. And it is precisely this unbearable vitality, this capacity to affect directly without necessary passage through conscious and critical intellectuality, that frightens us in AI images. For they manifest this threatening vitality without any visible trace of human intention, without any verifiable contact with an incarnate subjectivity that would have thought, felt, and willed the image.
What David Freedberg demonstrated in his long and meticulous study of psychological reactions to images is that we fuse signifier and signified cognitively in a manner profoundly escaping our conscious and voluntary mastery. When we look at an image, we do not see it first and principally as a semiotic construction to interpret according to hermeneutic critical protocols. Something far more primitive and powerful occurs. The image acts upon us. It generates emotional and sensory reactions, it affects the nervous system directly, it mobilizes the body, which education and culture strive to refine, civilize, and control. And what renders images particularly troubling and threatening is when they generate sensory excitement affecting us at the level of the body, at level of unconscious desire. Freedberg observes with acuity how systematic censorship of erotic or nude images constitutes a transparent admission that the image possesses efficacy one cannot reduce to intellectual signification. One censors precisely because one fears the image will affect the body directly, will generate desire reaction escaping us. Censorship is therefore a tacit, almost involuntary recognition of the true power of the image, of its capacity to return our gaze, to look at us, to demand something of us.
The restrictions programmatically imposed in DALL-E absolutely interdicting generation of nude or sexually explicit images are not therefore simply ethical decisions in the ordinary and reflective sense. They constitute an implicit recognition that the image generated by machine, despite its complete absence of creative intention, despite its purely statistical and mathematical character, nonetheless possesses the power to affect, to generate sensory reaction, that it is not inert even as an algorithmic construction. And this is what one finds intolerable. AI image, as perfect simulacrum that reproduces infinitely and effortlessly, that can embody any imaginable style, any form, any genre, reactivates an extremely ancient fear of the represented body that might escape moral and intellectual control, that might become autonomous, that might generate involuntary and undesirable affective reaction. The institutional response is not to accept this threat or to think seriously what it means for our understanding of image. The response is to barricade it programmatically, to transform it into absence before it manifests its dangerous power, to refuse it before
On Incarnation
If we descend more deeply still into the theological structure of the rejection we experience before AI images, probing the more secret layers, we encounter a debate that had torn apart the Byzantine Empire for nearly a century and which we believed definitively resolved, buried, surpassed by history. The iconoclastic crisis of the eighth century concerned an apparently abstract and purely theological question, but profoundly anchored in Christian ontology of incarnation. How could one represent the Incarnation of God in Christ without reducing it, without betraying it, without immediately sliding into idolatry and violation of the divine? If Christ had incarnated in matter, in flesh, but had also risen again, transcending matter and elevating himself beyond material representability, how could a painted image capture him without falsifying what had elevated itself beyond materiality?
This debate was ontological in the strict sense. It did not concern the pedagogical use of images, their pragmatic capacity to teach the illiterate or edify the faithful. It concerned directly the very nature of presence and representation, the question of whether matter was worthy of bearing the divine or whether it was intrinsically defiled. Nicole Roccas, rereading this Byzantine debate through contemporary AI images, identified correctly that the deep structure was identical. For what truly stakes itself with generative AI is not a simple question of authenticity in the sense one might say of a digitally retouched photograph or a false painting attributed to a master. What stakes itself is a fundamental ontological question: can one generate authentic presence, a presence capable of truly incarnating something, without conscious intention, without body, without that incarnate incarnation we recognize as authentically human? Can one have an image that is truly a presence or merely a simulacrum emptied of all spiritual or existential content?
Alain Besançon, in his thorough study of the intellectual history of iconoclasm, shows how this Byzantine debate was nourished by a profound theological suspicion toward matter itself. Byzantine iconoclastic thinkers drew upon and deepened Platonic anti-hylism, the conviction that the true image of God could reside only in the purified soul, never in matter. Matter was transitory, inferior, defiled, incapable of bearing trace of the divine. Therefore to paint was to degrade what was divine by reducing it to the level of the material, the temporal, the corruptible. Moreover, the fundamental iconoclastic argument was that the flesh of Christ after the Resurrection had been engulfed in his divinity, that it was no longer accessible to material representation, that it had elevated itself beyond all that could be represented in painted image. All subsequent attempt to paint the risen Christ was therefore blasphemous and idolatrous, because the model itself, the archetypal, had definitively transcended materiality.
Rereading this through the prism of AI image generations in 2025, what suddenly becomes visible is that we may be reproducing precisely this Byzantine theological structure, but transposed into a different technological substrate. Algorithm, computer code—this is a form of matter different from paint or stone, but it is still a form of matter. And can the image generated by this cold and mechanical matter, by this substrate possessing no consciousness, no intention, no incarnate relationship to the world, truly incarnate authentic presence? Or does it necessarily generate degradation, reduction? Does not the AI image lack what renders image authentic: incarnate intention, conscious, real human presence, thinking will behind it?
Yet it is important to note and understand how this ontological question of incarnation was treated differently and in opposition in Western Christianity compared to Byzantine Orthodoxy. The Western Roman Church had strategically abstained from the complete and rigorous metaphysical debate on Incarnation and image. It had rejected the question as such and replaced it with a pragmatic and rhetorical formulation: the image was acceptable because it served a clear pedagogical and pastoral function, it was “the book of the illiterate,” the teaching medium for those unable to read. This strategy of evading the ontological debate had permitted much freer, more expressive, and less rigid use of artistic forms in the West. One did not burden oneself with philosophical questions of presence or authentic incarnation. One observed what worked from a pastoral and pedagogical point of view. And indeed, this evasion of theological debate had led to remarkable flourishing of artistic forms in the West, without the theologically imposed rigidity found in strict Byzantine iconodulism seeking hypostatic identity between painted image and its divine prototype.
What now occurs is that the suppressed and evaded metaphysical debate returns irrepressibly and inevitably. We would have preferred to remain on the pragmatic and technical side, to content ourselves with saying that AI images pose technical problems of authentication and traceability, of intellectual property and data governance. But the deeper question—concerning the capacity of algorithmic matter to generate authentic presence, genuine incarnation—rises to the surface spectrally. And we do not know how to answer it because we have systematically repressed it since the centuries of pragmatic Western theology.
Iconophobia
Patrick Collinson, as historian of the reformatory period in Europe, had observed something no one had truly conceptualized and thematized before with clarity. There was iconoclasm, certainly—that violent and dramatic act of physical destruction of existing images, which all histories knew. But there was also something more subtle and more insidious, something that had developed gradually in the West since the sixteenth century and had institutionalized itself to the point of becoming quasi-invisible in its mechanisms. He called it iconophobia: the systematized fear of images, manifested not through violent and spectacular destruction, but through silent prevention, continuous restriction, bureaucratization of fear.
Iconoclasm is spectacular, dramatic, visible. It is violent destruction of an existing image, a physical act generating witnesses, resistance, counter-attack. Someone destroys an image and this can be seen, documented, contested. Iconophobia is silent and continuous, almost imperceptible. It destroys nothing already existing. It simply prevents, it imposes restrictions without ever clearly naming what it does. It hides behind justifications of security, of ethics, of protection of the common good. And it does not generate resistant reaction because there is nothing to see materially, no physically destroyed image, just an absence gradually naturalized and accepted as inevitable rather than as imposed.
What Collinson documented for the period from the sixteenth to eighteenth centuries—this slow and inevitable passage from spectacular destructive act to bureaucratized prevention structure—now repeats itself at dramatically accelerated speed in the digital domain. Except it becomes totally invisible because it is programmed in source code itself, integrated into software architecture to the point of seeming natural, inevitable, uncontestable. DALL-E’s restrictions interdicting certain image categories, content moderation policies of social networks, emerging standards of image provenance and authentication. All of this is no longer iconoclasm in the traditional sense where someone looks at an image and destroys it. It is pure iconophobia, but integrated at the level of software architecture itself. The image does not even exist physically for someone to be iconoclastic toward it. It is interdicted before being born, before even its conception. And this interdiction does not bear the face of a clearly identifiable coercive authority. It is cold logic, a set of probabilistic rules, mathematical calculations, adjusted zeros and ones. It is the most effective violence—that which does not recognize itself as violence, that which self-justifies through its own internal technical logic, that which becomes naturalized as mere function of the system rather than as an imposed decision.
What is constructed in reaction to generative AI constitutes an entire infrastructure of verification, of surveillance, of permanent authentication. Cryptographic metadata embedded in every generated image. Invisible watermarking intended to mark the image with the seal of its inauthenticity. C2PA protocols claiming to trace every image to its source. Digital signatures, digital fingerprints. Multiple governmental initiatives of global traceability. Jurists such as Daniel Gervais speak of constructing an entire architecturally sophisticated “stack of trust,” theoretically capable of restoring order by certifying and verifying the provenance of every image before it circulates. What is rhetorically enunciated as a purely pragmatic technical solution constitutes in reality the permanent and systematized institutionalization of fear. We cannot accept ontological uncertainty and the logic of simulacrum. We cannot accept that we may never truly know where an image comes from, who created it, at what precise moment an intention was exercised. So we construct protocols of ever-increasing sophistication. And each protocol creates new questions, new possible flaws. Can these signatures be counterfeited? Can these metadata be manipulated? Will there always be exploitable gaps?
What renders this remarkable is that we are essentially transforming crude panic into institutional structure, into technical infrastructure, into bureaucratic standard. We will never openly admit what we are truly doing, because that would be too naked, too revealing. We will say that we are adopting provenance standards for reasons of transparency, of accountability, of justice toward human creators. But what we are truly doing is bureaucratizing suspicion systematically. We institutionalize the perpetual obligation that every image be verified, traced, authenticated, classified. And in doing so, we accept that the image will forever be suspect, that it must forever prove its authenticity, that it must forever bear an invisible mark of suspicion inscribed in its cryptographic metadata.
The passage we describe here is not simply a passage from an epoch of robust critique to an epoch of technological naïveté. It is a far deeper, far more troubling passage. It is the passage from manifest and contestable destruction to programmed and invisible interdiction. From clearly violent act to silent prevention structure. From iconoclasm envisaged as violence to iconophobia programmed as normality. And in this transition something plays out that fundamentally touches the very nature of control we exercise over the sensible, over visibility, over what may occur in the domain of representation. We can no longer destroy openly, as Byzantine iconoclasts or Protestant reformers. We have gradually progressed to an epoch where it is infinitely more effective to program absence before it occurs, to normalize refusal until it becomes invisible, to transform fear into technical protocol that seems inevitable and natural rather than imposed and politically interested.
The compression of culture by AI generators exposes what was always true: that the image never exists freely outside the cultural formations that preceded it. The panic it triggers reveals what we have always known but systematically denied: that we have lost control of representation, that the image escapes us, that it looks at us and affects us in a manner we cannot master. Rather than accepting this, we construct ever-higher walls, ever-more complex protocols, ever-more sophisticated bureaucracy of permanent suspicion. We program certainty where ontological uncertainty reigns. We call this progress, ethical responsibility, responsible governance of data. But what we truly do is institutionalize our refusal to look squarely at what AI renders visible: something looks at us, something that is not us, but in which we believe we recognize ourselves in a shiver of terror.