Du code numérique au bruit statistique
L’informatique n’est pas une technologie parmi les autres. Elle s’est infiltrée tant et si bien dans nos existences qu’elle en a modifié les conditions les plus intimes et réflexives. Elle n’est pas un moyen parmi d’autres parce qu’elle est un métaoutil, une machine universelle qui change de fonction selon le logiciel tout en gardant la même forme et matière, affectant ce qu’être au monde veut dire.
Le récit qui a été majoritairement fait de sa domination semble soutenir celui de la modernité occidentale et d’une critique des excès de la raison entrepris depuis la CRP de Kant : il s’agit de voir comment la raison, moteur de la connaissance, peut produire des effets inverses si elle ne sait pas s’auto-borner. Ainsi, l’informatique conduirait à un réductionnisme excessif, réduisant toute chose au calculable, pire encore à des 0 et 1, oubliant les variations continues, les subtilités analogiques et l’inadéquation entre ce qui est et le pensable. Ce réductionnisme finirait par s’appliquer à l’être humain lui-même devenant une variable dans une économie dont l’attention serait une des valeurs de capture.
Cette critique de la raison conçue comme une réduction par rapport à la diversité insubsumable du réel, comme un désir de dompter l’infinie richesse du monde qui nous entoure en le réduisant à nos catégories est partagé par un champ hétérogène de personnes, allant de l’école de Francfort à Heidegger. Ils partagent l’hypothèse suivant laquelle le désir de comprendre le monde suppose la mise en place de modèles hypothético-déductifs qui, s’ils sont dans une certaine mesure utiles, finissent par réduire tout à leur mesure, inversant l’intériorité et l’extériorité, arraisonnant l’un à l’autre. C’est moins la raison qui est critiquée que la rationalisation comme tendance excessive à soumettre toute chose à la compréhension.
Or, cette analyse de l’excessif reste superficielle, car elle ne voit pas que le code excède la règle de l’hypothético-déductif. En effet, pour pouvoir traiter toute chose selon le calcul universel, il a fallu tout échantillonner, c’est-à-dire convertir des courbes continues en unités discrètes exprimables sous forme binaire. Cette binarité a permis de calculer toutes choses, une espèce de langage universel où toutes les entités sont traduisibles les unes dans les autres et calculables de façon homogène selon des tableaux constitués de lignes et de colonnes. De sorte, que cela a produit une immense quantité de signes asignifiants binaires qu’il a été possible ensuite de comparer les uns aux autres en effectuant des regroupements de motifs (patterns) afin de définir des ressemblances, des proximités et des différences. Ces regroupements ont une étrange proximité avec nos modes de fonctionnement. Alors que le code binaire asignifiant devrait rester hors du sens, il devient, par le traitement statistique, une nouvelle manière d’être au monde.
Le nombre de données accumulées est devenu si grand qu’il fut impossible d’y appliquer une logique hypothético-déductive et qu’on revint à l’induction en utilisant le code binaire pour calculer des statistiques. De sorte que l’évolution actuelle de l’IA, qui est l’orientation la plus fondamentale de l’informatique comme externalisation de la faculté qui a commandé sa conception, ne consiste pas dans les systèmes experts, qui sont paradigmatiques d’une approche déductive et réglée, mais dans l’induction statistique. C’est la paradoxale et anachronique victoire du bruit sur le code, de Lucrèce sur le mécanisme qui l’effaça des sciences modernes.
Croire que l’informatique soumet le monde à un code logique et programmé, c’est-à-dire à quelques formules préétablies et modélisées par des esprits réductionnistes, revendiquer la richesse inépuisable de la réalité (« on est bien peu de choses »), c’est occulter que le fonctionnement de l’induction statistique ne permet pas de produire de telles règles, mais simplement d’en susciter le sentiment en sachant reconnaître et anticiper des motifs statistiquement possibles. Ce n’est donc plus la rigueur de l’algorithme, les statistiques créant des formes beaucoup plus floues, bruitées, nuageuses, hésitantes permettant d’embraser le minima et le maxima d’une forme reconnaissable : l’oiseau-statistique est un oiseau à la William Turner, pris dans le brouillard d’un bruit profond, formes hésitantes à la limite de sa disparition et de son apparition, fragile possible laminaire qui allie la reconnaissance à la génération, l’entendement à l’imagination sans que la raison ne fasse la médiation vers l’unité du sensible. C’est bien plutôt l’imagination, comme faculté de faire (image), qui est l’orientation.
On peut en conclure que l’échantillonnage du continu, nécessaire à sa calculabilité universelle a donné des résultats fort différents que ceux qu’on aurait pu logiquement anticiper : non pas l’extension toujours plus grande des catégories humaines sur la réalité, la réduction de celle-ci à notre volonté de puissance, l’Arraisonnement généralisé de tous les étants à des fonds calculables, exploitables, mais (aussi) le bourdonnement d’un bruit, la proximité entre l’informe et la forme, les tourbillons, les météores, la noise, le flux et le reflux. Les formes n’émergent que de la rencontre hasardeuse entre ces bruits binaires et ces autres bruits que nous sommes. Les imaginations artificielles n’imaginent rien sans nous et nous sans elles. L’imagination est le nom de cette dépendance impaire.
Avec l’induction statistique, la machine ne produit plus des règles, des formes déterminées et identifiées, mais le bruit de possibilités qui seront prises ou déprises, vues ou restant hors de portée. C’est un changement radical dans le récit de la modernisation et de la rationalisation qui pourrait bien produire des effets différents que ce que nous aurions pu attendre de son processus logique : nous ne voyons plus le monde comme un ensemble de règles logiques auxquelles les phénomènes devraient correspondre, mais comme un espace bayésien bruité où chaque regroupement de motifs peut se plier indifféremment sur n’importe quel autre point de l’espace latent. Les règles pourront toujours exister en sortie pour les êtres humains, elles seront elles-mêmes générées à partir des statistiques vectorisées, de ces nuées mouvantes.
Le programme modélisé par un esprit humain n’était pas le dernier mot de l’informatique, car celle-ci poursuit le projet célibataire d’une externalisation de ce qui l’a produit. Nous revenons au bruit, parce que le code n’était pas celui qu’on croyait : il n’était pas seulement la mise en logique du mode selon des formules mathématiques, mais aussi, comme sa condition de possibilité, l’échantillonnage du continu. Cette simplicité idiote du binaire a créé des signes hors sens, un flux bruité, une noise si proche de l’indétermination de nos existences. C’est sans doute la raison de la beauté un peu obscène des images produites par un GAN, métamorphique, pareidolique, nous ramenant à une métaphysique animiste où chaque chose se mue en une autre, où toutes les formes sont instables, traversées par un souffle étrange. Peut être viendra-t-il le temps où le fait même de programmer du code ne sera plus affaire d’une connaissance humaine, mais où l’informaticien, qui semblait le détenteur de cette connaissance suprême de la machine, deviendra à son tour obsolète parce que les programmes sauront coder sous les instructions de chacun en langage naturel. La multiplicité de ces instructions ne sera plus du code (même s’il en produira), mais le bruit des multitudes, la multitude des esprits, les esprits devenus ghosts du Geist machinique.