La doublure / The lining

Peut être faut-il revenir aux lignes tracées dans les grottes pour comprendre qu’elles suivaient les circonvolutions minérales et, en quelque sorte, les poursuivaient comme si les êtres humains avaient observé dans celles-ci leur possibilité.

La pareidolie, cette capacité à voir des formes inexistantes (ou absentes) dans d’autres formes, est une fonction fondamentale du cortex visuel qu’on ramène trop aisément à une hallucination alors qu’il s’agit de doubler la réalité par la mémoire en voyant dans quelque chose autre chose qui n’est plus là. Ce déplacement d’une mémoire dans une forme qui ne lui correspond pas, mais qui lui ressemble est peut-être le premier mouvement de la représentation permettant de mettre en relation la réalité factuelle avec une réalité possible et ainsi en doublant la première par la seconde de scinder la réalité en fragments.

Les supports matériels de mémoire représentée, qui forment notre réalisme dans son historicité, émergent de cette doublure ontologique comme si la réalité appelait à elle une réalité absente, devenant progressivement possible et pouvant ainsi se déplacer d’une forme à une autre, puis affecter la forme elle-même, qui en serait le support, pour constituer les différentes formes d’abstraction langagière, conceptuelle, mathématique, physique et économique : la réalité devient l’expression des signes. C’est parce que les circonvolutions minérales pouvaient être le point de départ de lignes exprimant la mémoire d’un passé révolu que la doublure conceptuelle a pu émerger.

Il s’agit à présent d’analyser les productions de l’IA à la hauteur de cette histoire de la représentation pour les contextualiser correctement. Nous sommes donc passés de formes « naturelles » qui semblaient appeler à elles d’autres formes de mémoire de celles-ci, à une autonomisation de ces formes secondaires sur des supports préparés, tels que des murs, des papyrus ou des canevas, puis à une industrialisation hypermnésique où la quantité de représentations n’a cessé à partir du XIXe siècle de s’accélérer dans son autonomisation.

La numérisation de ces médias a constitué un tournant fondamental de leur histoire en accentuant encore plus, en changeant la nature, de l’autonomisation des supports puisque l’ensemble de ces médias utilisaient dorénavant le même langage constitué de 0 et de 1. Cette unité langagière en permettait la tra(ns)duction, c’est-à-dire la traduction formelle en mettant de côté la différence entre des médias tels l’image, le texte ou le son, tout en gardant un air de famille, une tonalité, un tempo qui s’élevaient au-dessus de la représentation mimétique pour donner l’atmosphère mimétique en général : tout à commencé à se ressembler.

Ce monde immense des médias accumulés et convertis de manière binaire a ouvert une nouvelle époque sous la forme d’une mise en statistique vectorielle généralisée pour nourrir l’apprentissage des IA. L’abstraction a été un pas de plus avec cet espace bayésien qui permettait non plus de considérer chaque média séparément des autres, fût-ce avec un langage binaire commun, mais d’en calculer la probabilité rassemblée sous forme de paramètres. Ainsi, un ensemble d’images numérisées plus vectorisées et probabilisées, étaient rassemblées parce qu’elles partageaient les mêmes motifs, sous la forme d’une régularité : la régularité est devenue l’autonomie de la ressemblance. Non seulement cela permettait d’observer de nouveaux phénomènes et de les ramener à cette mémoire probable, c’est l’autonomisation de la reconnaissance. Mais, de surcroît, il devenait possible de calculer de nouvelles occurrences ressemblant à celles connues, mais suffisamment différentes pour avoir leur autonomie. Nous sommes donc entrés dans une nouvelle et fondamentale phase de la représentation comme mémoire qui n’est ni primaire, ni secondaire, ni tertiaire, mais quaternaire, si nous reprenons les divisions de Stiegler.

C’est bien ce qui lie l’automation et l’autonomisation qui forme ici la problématique de l’histoire des représentations et des supports matériels comme si le réalisme ne cessait d’être dans sa doublure, non pas parce que dialectiquement la réalité serait dans sa négation, mais parce que tout se passe comme si elle appelait à elle d’autres formes, comme si elle ne cessait de s’aliéner, de tenter de sortir d’elle-même.

L’IA est une étape aussi importante que l’apparition de la photographie parce qu’elle modifie en profondeur la relation entre les formes, la mémoire et la production du réalisme. Elle n’est pas seulement un problème culturel ou technique, mais elle est le symptôme d’un changement dans l’ontologie même, c’est-à-dire dans la manière dont nous faisons tenir de l’altérité devant nous. C’est pourquoi il faut la lier avec les nouveaux régimes de discours, la contrefactualité généralisée dont le destin est ambivalent, inextricablement anti-scientifique et néo-artistique, pouvant provoquer des politiques fascistes ou une affirmation radicale des simulacres.


Il faut savoir parcourir en amont et en aval le fil historique, ici simplifié, reliant les lignes minérales dans les grottes et les réseaux récursifs de neurones pour comprendre les transformations successives et la pulsion fondamentale de doublure ontologique qui s’y réfugie toujours.


Perhaps we need to go back to the lines drawn in the caves to understand that they followed the mineral convolutions and, in a way, pursued them as if human beings had observed their possibility in them.

Pareidolia, the ability to see non-existent (or absent) forms in other forms, is a fundamental function of the visual cortex, all too easily reduced to hallucination, when in fact it’s a question of doubling reality through memory, by seeing in something something else that’s no longer there. This displacement of a memory into a form which does not correspond to it, but which resembles it, is perhaps the first movement of representation, enabling us to relate factual reality to a possible reality, and thus, by doubling the former with the latter, to split reality into fragments.

The material supports of represented memory, which form our realism in its historicity, emerge from this ontological doubling, as if reality were calling to itself an absent reality, gradually becoming possible and thus able to move from one form to another, then affecting the form itself, which would be its support, to constitute the various forms of linguistic, conceptual, mathematical, physical and economic abstraction: reality becomes the expression of signs. It was because the mineral convolutions could be the starting point for lines expressing the memory of a bygone past that the conceptual lining was able to emerge.
We now need to analyze AI’s productions in the light of this history of representation, in order to contextualize them correctly. We have thus gone from “natural” forms that seemed to call upon other forms of memory, to an autonomization of these secondary forms on prepared supports such as walls, papyrus or canvas, and then to a hypermnesic industrialization in which the quantity of representations has continued to accelerate in its autonomization since the 19th century.

The digitization of these media represented a fundamental turning point in their history, further accentuating and changing the nature of their autonomy, since all these media now used the same language of 0s and 1s. This linguistic unity enabled tra(ns)duction, i.e., formal translation, putting aside the difference between media such as image, text or sound, while retaining a family resemblance, a tonality, a tempo that rose above mimetic representation to give the mimetic atmosphere in general: everything began to resemble each other.

This immense world of accumulated and binary-converted media ushered in a new era in the form of generalized vector statistics to feed AI learning. Abstraction was taken a step further with this Bayesian space, which made it possible not to consider each media separately from the others, even if with a common binary language, but to calculate its probability gathered in the form of parameters. In this way, a set of digitized images, more vectorized and probabilized, were brought together because they shared the same patterns, in the form of a regularity: regularity became the autonomy of resemblance. Not only did this make it possible to observe new phenomena and bring them back to this probable memory: it was the autonomization of recognition. But, in addition, it became possible to calculate new occurrences resembling those known, but sufficiently different to have their own autonomy. We have thus entered a new and fundamental phase of representation as memory, which is neither primary, nor secondary, nor tertiary, but quaternary, if we take up Stiegler’s divisions.

It is indeed the link between automation and empowerment that forms the problematic of the history of representations and material supports, as if realism never ceased to be in its double, not because dialectically reality would be in its negation, but because everything happens as if it called upon other forms, as if it never ceased to alienate itself, to try to get out of itself.

AI is a milestone as important as the advent of photography, because it profoundly alters the relationship between form, memory and the production of realism. It is not just a cultural or technical problem, but a symptom of a change in ontology itself, i.e. in the way we hold otherness before us. That’s why we need to link it with the new regimes of discourse, the generalized counterfactuality whose fate is ambivalent, inextricably anti-scientific and neo-artistic, capable of provoking fascist politics or a radical affirmation of simulacra.

The simplified historical thread linking mineral lines in caves and recursive neural networks must be traversed upstream and downstream to understand successive transformations and the fundamental impulse to ontological doubling that always takes refuge there.