Statistical / Hallucinations / statistiques

On peut remarquer que la plupart des articles de presse sur les IA génératives prennent la forme de tribunes solutionnistes ou critiques, et de mode d’emploi pour obtenir l’image ou le texte que l’on souhaite. On conseille le grand public pour que chacun puisse utiliser ces technologies. Ceci suppose qu’une certaine idée de ce qu’on recherche est antérieure à l’usage de l’IA qui ne sera évaluée qu’au regard de sa convergence avec ce point de départ qui forme un projet. L’IA serait donc une technique, au sens classique du terme, un instrument qui est à notre service et qui doit répondre à nos ordres et à nos désirs : est-elle capable de produire ce que j’ai en tête ? Il faut la dompter et la maîtriser, en prendre les commandes…

Or, il est frappant de remarquer la médiocrité des résultats ainsi obtenus qui témoignent moins des limitations des IA que de la nullité de la demande de départ. Les textes sont d’une platitude qui, au mieux, constitue un pastiche de textes déjà connus (dont la forme ultime est un one liner de PowerPoint), et les images ont ce caractère pâteux et cette luminosité fluffy propre à MidJourney qui fait artistique au sens de la manière dont une agence de communication conçoit ce qui est « arty ». On croit que chatGPT produit du texte et que Dall-E génère des images, sans comprendre que ce qu’ils produisent est du bruit structuré que nous interprétons comme du texte auquel nous affectons une signification plus ou moins grande et des images que nous estimons plus ou moins convaincantes.

S’il est courant d’interpréter l’IA inductive comme une hallucination contrôlée et une pareidolie généralisée depuis les travaux d’Andy Clark et l’apparition de Deep Dream à l’été 2015, on peut aussi considérer la manière dont les êtres humains hallucinent les statistiques inductives afin d’en faire des signes. Cette approche permet d’éviter d’affecter des facultés anthropologiques aux machines sans prendre en compte les conditions de cette attribution et d’éviter de ne parler d’IA qu’avec des concepts inconsistants comme l’intelligence ou la conscience. Ceci permet aussi de ne pas considérer un texte ou une image comme une chose en soi qui est simplement reçue a posteriori, mais comme une co-construction selon une orientation sémio-pragmatique (Roger Odin).

On génère par exemple une série d’images grâce à des prompts variables produisant une quasi-infinité de possibilités dans un univers cohérent hérité de la cohérence linguistique des instructions, et on va tirer de cette série une narration possible. Celle-ci n’est pas encore structurée, mais grâce à un effort de surinterprétation (c.-à-d. de pareidolie voyant dans le bruit statistique des signes), ces éléments épars vont être envisagés comme les fragments d’un tout à venir, jamais réalisé et seulement promis. Cette totalité n’est pas fermée, elle reste fragile. Ainsi, dans la série des cartes postales pour le Havre, il m’est sincèrement difficile de distinguer ce que l’IA a proposé et les choix que j’ai opérés. Une forme violette est apparue par hasard sur une des images et j’ai surjoué celle-ci en l’introduisant dans l’instruction textuelle parce qu’elles rejoignaient mon univers esthétique. J’ai tiré ce fil pour étendre les paramètres de l’espace latent dont elle était l’indice. Regardant les 25 000 images j’y hallucine un univers doté de sa logique et de sa cohérence, j’architecture un possible en hallucinant le bruit inductif de la culture.

Dans cette surinterprétation narratologique des statistiques bruitées, une zone grise émerge où il devient difficile de distinguer clairement ce qui vient du calcul automatique et ce qui vient de l’interprétation humaine, les deux pouvant s’influencer. L’être humain influence la génération par l’apprentissage d’un dataset, par ses prompts, etc. La machine influençant l’être humain par ses propositions qui demandent à être accueillies et transformées herméneutiquement. Les statistiques se performent dans l’interprétation. C’est cette zone grise qu’il s’agit d’explorer, car elle se comporte comme un être-au-monde-possible dans la mesure où des signes contingents sont organisés et prennent sens dans un monde qui prend sens et s’organise par ces signes. Cette incertitude, il faut l’approfondir. Car si le sens commun (que nous lisons par les articles de presse) présuppose toujours les facultés humaines comme déjà constituées (nous serions intelligents et aurions autorité à discriminer ce qui l’est et ce qui ne l’est pas), pour notre part, l’expérimentation de l’IA est l’occasion d’un nouveau doute. Le miroir que nous tend l’IA est troublant tant il questionne nos subjectivités, le sentiment d’être un sujet propre. L’incertitude anthropotechnologique dont l’hallucination est l’opérateur, met en jeu les conditions mêmes de nos facultés, c.-à-d. la question transcendantale qui devient dépendante d’une infrastructure technique et qui est donc a posteriori, alors que normalement le transcendantal est a priori. On passe du transcendantal comme condition possibilités, au transcendantal comme architecture des simulacres. L’art à venir consiste à retourner à la perversion interne qui disloque le sujet et à halluciner les statistiques qui nous hallucinent et qui sont la forme calculable de l’accumulation des données numériques à laquelle nous participons tou.te.s.

Most press articles on generative AI take the form of solutionist or critical articles, with instructions on how to obtain the image or text you want. The general public is advised to use these technologies. This assumes that a certain idea of what we’re looking for predates the use of AI, which will only be assessed in terms of its convergence with this starting point, which forms a project. AI would thus be a technique, in the classical sense of the term, an instrument at our service that must respond to our orders and desires: is it capable of producing what I have in mind? We have to tame and master it, take control of it…

Yet it is striking to note the mediocrity of the results obtained, which bear witness less to the limitations of AI than to the nullity of the initial request. The texts are of a platitude that, at best, constitutes a pastiche of already known texts (the ultimate form of which is a PowerPoint one-liner), and the images have that pasty character and fluffy luminosity peculiar to MidJourney that makes them artistic in the sense of how a communications agency conceives of what is “arty”. We believe that chatGPT produces text and Dall-E generates images, without understanding that what they produce is structured noise that we interpret as text to which we assign greater or lesser meaning, and images that we find more or less convincing.

While it has been common to interpret inductive AI as controlled hallucination and generalized pareidolia since the work of Andy Clark and the appearance of Deep Dream in the summer of 2015, we can also consider the way in which human beings hallucinate inductive statistics in order to make signs out of them. This approach avoids assigning anthropological faculties to machines without taking into account the conditions of this attribution, and avoids talking about AI only in terms of inconsistent concepts such as intelligence or consciousness. This also makes it possible to consider a text or an image not as something in itself that is simply received a posteriori, but as a co-construction.

For example, we generate a series of images using variable prompts, producing a near-infinite number of possibilities in a coherent universe inherited from the linguistic coherence of the instructions, and we draw a possible narrative from this series. This is not yet structured, but thanks to an effort of over-interpretation (i.e., of pareidolia seeing through the statistical noise of signs), these scattered elements will be envisaged as fragments of a whole to come, never realized and only promised. This totality is not closed, but remains fragile. In the series of postcards for Le Havre, for example, it’s genuinely difficult for me to distinguish between what the AI proposed and the choices I made. A