Monde(s) de l’artificiel

L’explosion de la bombe A en 1945 a transformé notre être-au-monde, les conditions mêmes de la connaissance et la vérité. En effet, c’est en comprenant la structure de la matière que la possibilité d’une telle explosion a été rendue possible. La compréhension de ces briques élémentaires libérait une énergie destructrice et plus encore pour comprendre la matière il fallait donc la détruire. À la même période, la « découverte » de l’ADN peut être appréhendée d’une façon analogue : comprendre les briques de la vie consiste à les diviser (la règle de l’analyse cartésienne) en partie et à libérer une énergie qui dépasse nos capacités et dont la biologie de synthèse pourrait être le signe le plus avancé.

Ces deux événements scientifiques modifient de part en part notre relation au monde parce que la compréhension de celui-ci présuppose une transformation et/ou une destruction. Tout se passe comme si pour comprendre quelque chose nous devions décomposer, recomposer et produire un événement outrepassant nos capacités. On passe ainsi de la science comme compréhension distante du monde à la technologie comme mobilisation totale de ce monde. La connaissance ne consiste plus seulement à analyser le monde sans l’affecter, mais à le transformer de part en part, de sorte que notre dynamique cognitive a un impact matériel et global. C’est cet impact qui implique une « fin du monde » humain.

Je souhaiterais ajouter à cette séquence l’IA, ce terme fut-il contestable comme je l’ai à de multiples reprises signalé, sous la forme de la vectorisation dont procèdent les réseaux de neurones artificiels (RNN). Cet ajout ne signifie pas une causalité entre la bombe A, la génétique et l’IA, mais est une manière de comprendre notre époque en tant que ce qui nous arrive et ce par quoi un monde est configuré par la connaissance techno-scientifique. Car que font les RNN si ce n’est appliquer la même méthode de compréhension-destructrice à nos rétentions tertiaires, c’est-à-dire aux artefacts de nos mémoires que sont les données accumulées de façon exponentielle avec le Web 2.0 ? Et en se nourrissant de ces données qu’ils vectorisent sur un plan large, ces RNN ne produisent-ils pas des représentations dont le mimétisme veut aussi bien dire une différence qu’une répétition par rapport à une série préexistante ? Qu’on me comprenne bien, si les RNN ont initialement comme objectif de reconnaître des formes depuis le Perceptron (1957), nous avons compris, avec les recherches de Google et Facebook publiées pendant l’été 2015, qu’ils ne pouvaient le faire qu’en générant des images alternatives. Ceci veut dire que pour reconnaître un oiseau, je dois nourrir un logiciel d’une base de données d’oiseaux et qu’à partir de cette série il peut produire de nouveaux oiseaux qui pourraient appartenir à la même base de données, mais qui n’y sont pas déjà.

La séquence bombe A, ADN et RNN témoigne d’une modification importante dans la relation entre connaissance et ontologie parce que la première peut affecter la seconde et cette affection est sa limite que nous sommes en train de franchir. Les RNN appliquent aux supports matériels de la mémoire la compréhension destructive en opérant une représentation. Le réalisme, dans le sens d’une relation entre réel et vérité, est automatisé. Le monde n’est pas seulement configuré (Heideger), il est produit et détruit (à mettre en relation avec Ontologie de l’accident de Catherine Malabou).

PS Dans ce contexte, on peut se demander si la différence ontologique est autre chose qu’un concept appartenant à l’histoire de la philosophie. On comprend aussi beaucoup mieux le caractère stratégique du remplacement du concept d’IA par celui d’ImA : l’imagination est mémoire et fantasme.