Ceci n’est pas / This is not

Le salut nazi d’Elon Musk a mené à diverses interprétations sur lesquelles je ne reviendrais pas car à peine souhaite-t-on déterminer la vérité phénoménologique de ce geste qu’on se doit de fournir des preuves contextuelles qui finissent par s’épuiser dans une liste auquel une contre-liste répondra inévitablement. Comment un tel geste, qui il y a quelques années aurait provoqué un séisme, est-il devenu acceptable, défendable et pour tout dire indifférent pour certains dans le contexte politique où il a été fait ?
Pour normaliser ce salut, on a vu apparaître sur les réseaux sociaux d’autres images représentant divers personnages historiques, dont Martin Luther King, le bras tendu. C’est en opérant une décontextualisation et une comparaison avec d’autres documents que la spécificité du geste de Musk a disparu selon une procédure analogue à ce qui se passe dans l’espace latent d’une IA. En effet, on pourrait fournir à celle-ci des milliers d’images de salut nazi et, en les comparant statistiquement, elle transformerait ces documents discrets (des fichiers JPG) en vecteurs statistiques continus permettant de générer ce qui, au minimum et au maximum, est un tel salut pour nous. Peu lui importe le contexte, c’est-à-dire le monde auquel ce geste appartient et se réfère, seul compte l’automatisation de la ressemblance. Finalement, avec un tel traitement de l’information, le logiciel serait capable de générer une image attribuant un salut nazi à n’importe qui, neutraliserait par là même la portée significative d’un tel geste en le diluant dans l’infinité des images générées.

Si, pour comprendre une image, certains font entrer celle-ci dans une série d’images c’est que nous sommes passés de l’image comme copie dans le cadre de la reproductibilité technique héritée de la révolution industrielle à l’image comme production d’un flux statistique, dont il n’est qu’une itération possible. De sorte que les images, plus même qu’avant, ne sont pas des preuves, mais les hallucinations d’un modèle statistique auquel nous n’avons pas accès.

À quel moment faire remonter cette relation entre image et hallucination ? Aussi loin que l’histoire occidentale ? On peut souligner que cette relation s’est transformée radicalement des images de l’assassinat de Kennedy à Dallas jusqu’au 11 septembre en passant par le Web où la pareidolie, c’est-à-dire la capacité à voir dans le bruit visuel des formes inexistantes, semble devenir la nouvelle norme esthétique qui domine intégralement aujourd’hui avec les logiciels de surveillance et de génération de médias.
C’est sans doute qu’en espérant trouver dans les images des traces ontologiques, c’est-à-dire des preuves, permettant de constituer un accès à la réalité, on se trouve dans l’obligation d’halluciner cet accès en ajoutant à l’image des choses qui n’y sont pas. En effet, l’ontologie se définit précisément par quelque chose qui m’excède. C’est pourquoi l’image comme accès ontologique contient toujours plus qu’elle-même excède son indicialité en passant de la trace (d’une lumière sur une surface photosensible) à un signe et finalement à une transcendance (inexistence). Il en est de cette image de Musk comme de l’interprétation des icones religieuses qui ne se suffisent pas de leur apparence.
On comprend mieux les raisons de cette cavalcade des images et des arguments qui s’y enchaînent : aucune ne se suffit à elle-même non seulement de manière externe (comparaison et sérialisation), mais interne (passage de la trace au signe). La conséquence elle-même hallucinante de cette accélération est que le geste d’Elon Musk est devenu normal, insignifiant, c’est un signe parmi d’autres vecteurs dans l’immensité des possibilités de l’espace latent qu’est devenue notre réalité.

Que le caractère excessif de la signification des images comme accès ontologique dilue toute signification profite bien sûr au carbofascisme contemporain, terme désignant l’alliance entre l’autoritarisme politique et les intérêts des industries fossiles, et sert les desseins orchestrés par Steve Bannon à une échelle internationale. Mais cet excès pourrait aussi devenir un espace vide accordé aux regardeurs : comme avec David Lynch, une image est ce qui pourrait être au monde, produisant fascination et terreur, délice croisé du sublime, excédant le monde factuel, en structurant la signification et le monde en tant que celui-ci excède notre horizon (le monde c’est tout ce qui il y a autour, tout ce qui borde l’expérience).
L’acceptation de ce geste n’est donc pas un événement accidentel et passager. Il est le symptôme de la mise en relation entre les images et la réalité, relation qui constitue la signification parce qu’une image et qu’une réalité n’ont pas de signification en elles-mêmes. L’IA, en tant que nouvelle manière de produire des images (des textes, des sons et des vidéos), bouleverse cette relation et notre conception même de la réalité : plus rien n’existe qu’à titre de possibilité. Ce régime du possible comme ontologie peut mener à différents destins. Le signe de Musk n’en étant qu’un.
Elon Musk’s Nazi salute has led to various interpretations, which I won’t go into here. How did such a gesture become acceptable, defensible and, to put it bluntly, indifferent to some in the context in which it was made?
To normalize this salute, other images have appeared depicting various historical figures, including Martin Luther King, with his arm outstretched. It was through decontextualization and comparison with other images and signs that the specificity of Musk’s gesture disappeared, in a procedure analogous to what happens in the latent space of an AI. Indeed, we could provide it with thousands of images of Nazi salutes and, by comparing them statistically, it would transform these discrete documents (JPG files) into continuous vectors enabling it to generate what at the very least and at the very most is such a salute for us. It doesn’t care about the context, i.e. the world to which this gesture belongs, only the automation of the resemblance. Finally, with this kind of information processing, the software would be able to generate an image attributing a Nazi salute to anyone, thereby neutralizing the meaningful significance of such a gesture.
If, in order to understand an image, some people include it in a series of images, it’s because we’ve moved on from the image as a copy within the framework of the technical reproducibility inherited from the industrial revolution, to the image as the production of a statistical flow, of which it is only one possible iteration. So images, even more than before, are not evidence, but the hallucinations of a statistical model to which we have no access.
How far back can we trace this relationship between image and hallucination? As far back as Western history? It’s worth pointing out that this relationship accelerated from the images of Kennedy’s assassination in Dallas to September 11, via the Web, where pareidolia – the ability to see non-existent forms in visual noise – seems to have become the new aesthetic norm, dominated by surveillance and generative software.
This is undoubtedly because, in the hope of finding ontological traces in images that can provide access to reality, we find ourselves obliged to hallucinate this access by adding things to the image that aren’t there, because ontology is defined precisely by something that exceeds me. This is why the image, as ontological access, always contains more than itself, exceeding its indiciality by passing from a trace (of light on a photosensitive surface) to a sign, and finally to transcendence (non-existence).
We can better understand the reasons for this cavalcade of images, none of which is sufficient in itself, not only externally (comparison and serialization), but also internally (passage from trace to sign). The hallucinatory consequence of this acceleration is that Elon Musk’s gesture has become normal, insignificant, one sign among many vectors in the immensity of possibilities of the latent space that our reality has become.
That the excessive significance of images as ontological access dilutes all meaning of course benefits contemporary carbofascism and serves Steve Bannon’s orchestrated designs on an international scale. But this excess could become an empty space left to the viewer: as with David Lynch, an image is what could be in the world, producing fascination and terror, crossed delight of the sublime, exceeding the factual world, structuring meaning and the world insofar as it exceeds our horizon (the world is everything around, everything that borders experience).
Acceptance of this gesture is not, then, an accidental, fleeting event. It is a symptom of the relationship between images and reality, a relationship that constitutes meaning, because an image and a reality have no meaning in themselves. AI, as a new way of producing images, disrupts this relationship and our very conception of reality: nothing exists any more except as a possibility. This regime of possibility as ontology can lead to different fates.