L’imagination “DE” l’espace latent / The imagination “OF” the latent space

L’imagination de l’espace latent attribue l’imagination à un complexe anthropotechnologique : elle est une imagination qui provient (« de ») de l’espace latent, entendu comme produit statistique d’un apprentissage logiciel. Elle est aussi une imagination humaine qui tente de se représenter et de percevoir cet espace latent dont le décompte est impossible parce qu’il est dans le régime d’abstraction et de la possibilité, non de la virtualité.


Ces deux imaginations ne sont pas identiques. Elles se précèdent et se suivent selon un réseau complexe qui permet l’émergence des images. Ainsi l’espace latent machinique est constitué à partir de données humaines, le dataset, et en produit donc une trace au second degré. L’imagination humaine tente de son côté de s’orienter et de ressentir l’espace latent qui dépasse ses capacités et qui constitue donc un monde, c.-à-d. un horizon qui est au-delà de son ouverture.


La constitution anthropotechnologique de l’imagination n’est pas nouvelle, comme l’a démontré Stiegler, dans la mesure où son humanité est dépendante de supports matériels d’inscription. Mais avec les réseaux de neurones artificiels, la relation devient plus intriquée et semble se présenter explicitement. L’un et l’autre dialoguent, échangent leur place, tentent de se mimer et croisent leur aliénation, tant et si bien qu’on peine à pouvoir les définir sans partir de leur relationnalité différentielle.

De là, on tire l’hypothèse d’une déconstruction radicale de l’autonomie, c.-à-d. de la possibilité de définir préalablement ces éléments pour les mettre ensuite en relation. C’est bien cette dernière qui permet de les individualiser dans un second temps. Cette hétéronomisation change les coordonnées du problème de l’IA. On ne pourra plus estimer qu’en comprenant des causes techniques, en définissant le fonctionnement des RNN, GAN ou Diffusion, on en comprendra les conséquences, car ces causes sont métabolisées dans des contextes complexes comprenant des êtres humains et des infrastructures dont la transformation est incalculable. De la même manière, croire qu’il suffit d’analyser la manière dont nous imaginons l’IA pour en comprendre les opérations est inconsistant parce qu’on suppose là encore des éléments autonomes.
L’imagination DE l’espace latent nous fait donc plonger dans les flux anthropotechnologiques, dans leurs déchirures et dans nos dépendances hétéronomes. 

The imagination of the latent space attributes the imagination to an anthropotechnological complex: it is an imagination that comes (“from”) the latent space, understood as statistical product of a software learning. It is also a human imagination that tries to represent and to perceive this latent space whose counting is impossible because it is in the regime of abstraction and of possibility, not of virtuality.

These two imaginations are not identical. They precede and follow each other according to a complex network that allows the emergence of images. Thus the latent machine space is constituted from human data, the dataset, and thus produces a trace in the second degree. The human imagination tries on its side to orient itself and to feel the latent space which exceeds its capacities and which constitutes therefore a world, i.e. a horizon which is beyond its opening.

The anthropotechnological constitution of the imagination is not new, as Stiegler has demonstrated, insofar as its humanity is dependent on material supports of inscription. But with artificial neural networks, the relationship becomes more intricate and seems to present itself explicitly. The one and the other dialogue, exchange their place, try to mimic each other and cross their alienation, so much so that we hardly can define them without starting from their differential relationality.

From there, we draw the hypothesis of a radical deconstruction of autonomy, i.e. of the possibility to define beforehand these elements to put them in relation. It is indeed the latter which allows to individualize them in a second time. This heteronomization changes the coordinates of the AI problem. One can no longer estimate that by understanding technical causes, by defining the functioning of RNN, GAN or Diffusion, one will understand the consequences, because these causes are metabolized in complex contexts including human beings and infrastructures whose transformation is incalculable. In the same way, believing that it is enough to analyze the way we imagine AI to understand its operations is inconsistent because we assume autonomous elements.
The imagination of the latent space makes us dive into the anthropotechnological flows, in their tears and in our heteronomous dependences.