Le code hors sens (ENSAD, Paris)
Une personne parle du code informatique, de son extension dans la biologie, la sociologie et l’ontologie, de l’idéologie de maîtrise et d’équivalence généralisée qui lui est sous-jacente.
Il revient à la première cybernétique et à la machine universelle, il tente de retracer sa genèse inapparente, son idéologie. Il explique que le code n’est pas uniquement mathématique. Il y a du signal, des flux et des cascades, des turbulences et des bruits, clinamen, une noise qui gronde.
Une machine écoute le narrateur, elle reconnaît certains de ses mots, cherche sur Internet de quoi lui répondre et l’interrompt de manière imprévisible. Elle prononce un mot, une phrase, parfois plusieurs. Parfois, ce que dit la voix synthétique est en rapport avec le propos de la conférence, parfois la relation est inexistante. Deux soliloques se suivent sans se toucher.
labex-arts-h2h.fr/19eme-conference-hybride-gregory-673.html
LA COUPURE
Je vais tenter ce soir une expérience que je n’ai jamais faite. Je vais essayer de parler avec une machine. Elle va m’écouter, reconnaître bien ou mal les mots que je vais prononcer et lancer une requête sur Internet afin de trouver une séquence de mots identiques. La machine va donc me couper tout le temps la parole, elle va déranger mon discours et le flux de ma pensée.
J’ai prévu de parler pendant environ une heure, mais je ne sais pas combien de temps cela durera, je ne peux pas prévoir quand la machine m’interrompra et pendant combien de temps. Sans doute je vais être mis en échec et je ne pourrais pas mener jusqu’à son terme mon discours.
Ce sera comme une conférence traduite par une personne se trouvant sur la scène avec moi et auquel je dois laisser de la place. Je vais devoir prendre son rythme, synchroniser ma respiration par rapport à elle, et penser à ses côtés. La machine ne va pas traduire mes mots, mais va les déplacer sur le Web, sur le réseau des intensités existentielles.
Je me souviens de discussions animées avec des amis où chacun tentait de couper la parole de l’autre au moindre suspens, à la moindre respiration, par passion du langage, parce que l’amitié était alors sans précaution.
Ici nulle contreverse, mon propos sera coupé par la machine de façon asémantique. Elle est seulement obstinée. Elle poursuit un programme. Sans doute, son intervention fera du sens pour certains et moins pour d’autres, parfois vous penserez avec elle au-delà même de ce que j’ai voulu prononcer. Je voudrais que cette conférence soit une occasion pour ce qui n’a pas été pensé.
Le protocole est expliqué. Je peux commencer.
INTRODUCTION
VAPORWARE
Le futur est un marché prometteur que les entreprises essayent de s’approprier pour capturer notre imagination, c’est-à-dire la structure fondamentale de notre attention. Le rythme des annonces s’est accéléré ces derniers mois, comme si au bord du précipice, on essayait de sauter plus loin pour le surpasser, pour l’oublier. Hier l’intelligence artificielle et le big data, aujourd’hui la Singularité et l’imagination des réseaux de neurones. Chacun de ces vaporwares a son histoire, le 17 décembre j’analyserais précisément la logique sous-jacente de Deepdream. Ce soir j’aimerais porter mon regard sur la promesse de cette intelligence artificielle qui pourrait nous submerger. Comme si les spéculations de la science-fiction allaient se réaliser à coup sûr. J’aimerais vous proposer que derrière ce grand récit et l’accélération d’une intelligence surpuissante (que les pros et les antis agitent avec enthousiasme), il y a un code dénué de sens et que c’est cette idiotie qui loin de le limiter en permet la puissance spéculative et performative. C’est cette idiotie qui ouvre la possibilité à venir de la technè, son opérabilité.
Les théories du code ont été, après la première cybernétique, des théories platoniciennes et théologiques. J’aimerais vous proposer une théorie strictement athée et matérialiste du code en remontant à ses origines.
LE DÉFAUT DE LA CYBERNÉTIQUE
Les débats entre Neumann, Turing, Wiener et Shannon permettent de réfuter certains récits contemporains qu’on peut définir comme un absolu numérique dont les caractéristiques principales sont l’immatérialité, l’immunité et l’intelligence du code. En effet, dès les années 50 des questions fondamentales sont posées et loin d’être résolues, elles restent structurellement ambivalentes entre le code et le signal, le feeback et le bruit, l’intelligence et l’idiotie.
Code/Signal
Sans doute est-ce la conception immatérialiste du digital qui reste dominante. Le cloud et le wireless sont des symptômes de cette idéologie estimant le numérique n’est rien de matériel et flotte dans le ciel à la manière de Formes idéales. La raison en est simple : la notion d’information a été justement élaborée pour s’abstraire des problèmes posés par la dégradation matérielle du signal dans la transmission sur des réseaux à longue distance. Le propre des premiers réseaux (télégraphique puis téléphonique, AT&T) était leur passivité. Une fois le signal envoyé, il n’est plus modifié de façon volontaire. N’étant pas amplifié, le signal se dégrade au fur et à mesure que la distance de la communication s’accroît. L’onde électrique apparaît comme la conséquence directe de l’onde sonore de la voix. Le réseau qui demeure passif ne fait que transporter le signal qui, du fait de l’imperfection du réseau, de la résistance de la ligne qui augmente avec la longueur, s’atténue jusqu’à disparaître dans le bruit. Le bruit est alors l’ennemi de la transmission du signal. La notion d’information apparaît quand le réseau n’est plus conçu comme la transmission d’un courant électrique, mais comme le vecteur d’un transport de messages. On abandonne le modèle énergétique et analogique, pour considérer la finalité, c’est-à-dire le signal dans son autonomie en tant qu’onde dont on peut étudier et reproduire les caractéristiques.
Cette dématérialisation conceptuelle du signal en information passe par l’échantillonnage (numérisation) qui consiste à représenter un signal analogique et continu sous une forme discrète, c’est-à-dire à le découper régulièrement au fil du temps pour établir une liste de valeurs numériques permettant de recomposer une variation rapprochée en tirant des lignes entre ces points. Le présupposé de cette numérisation est l’immunité de la traduction : si on découpe quelque chose en entrée, on pourra en sortie le reconstituer en associant les produits de ce découpage.
Pendant la seconde Guerre, afin de lire les codes secrets de l’ennemi (Enigma), on ne va plus s’occuper des propriétés physiques des systèmes de transmission, mais seulement des propriétés statistiques des sources du message (« E »). Tout ce qui relève de la signification et de la matérialité est alors mis entre parenthèses. Le message est une suite de symboles dénués de sens et l’information indique seulement la quantité d’ordre ou de désordre dans cette suite de symboles. En effet, on part d’un message incompréhensible dans lequel on va retrouver le sens en supposant que celui-ci émerge d’un ordre statistique. Cette conception forme le destin de l’Occident : derrière le désordre, il y a un ordre et celui-ci est mathématique et probabiliste. La théorie de Shannon repose sur une double abstraction : le symbole n’est plus relié par le haut à un concept ou à une signification, et il n’est plus relié par le bas à une matérialité. On ne considère plus dans le symbole que la pure relation de référence dénuée de tout objet (plus de signification) et de tout fondement (plus d’inscription matérielle).
Toutefois, il ne faut pas croire que ce platonisme est le dernier mot de ce que fut la cybernétique. Il y a un clivage entre la conception de Shannon, et celle de Wiener qui conçoit le code comme un signal, c’est-à-dire comme l’expression d’un agencement matériel. Il y a dès les origines de l’informatique, une tension fondamentale, qui marque encore tous nos rapports affectifs aux machines, entre l’idéalité et la matérialité. Or il importe de souligner que cette conception du code est aussi une ontologie : le monde est en même temps une matière qu’il faut réduire, faisant du vivant une machine, de la pensée un calcul, du sens un jeu de codes, et il y a en lui quelque chose d’immatériel, qui échappe aux étants, qui ne les touche pas et qui n’est pas touché par eux. Ce qui fait être n’est rien d’étant, l’Être ne revient pas à lui-même. Von Neumann montre que la numérisation ne peut être absolue parce qu’en arrondissant les valeurs, on produit une erreur irréductible. Si la numérisation était complète, son coût serait infini : le scan 3D d’un objet épuiserait l’univers. Ce qui est mis par là en cause est la neutralité de la numérisation, c’est-à-dire la capacité à transformer un flux en valeurs discrètes sans transformation fondamentale du référent. C’est la possibilité de fonder une ontologie sur des valeurs mathématiques qui s’effondre. Le monde n’est pas doublé à l’identique par la numérisation, il est produit.
Feed-back/Bruit
Le feed-back fut élaboré pour détruire les missiles envoyés par l’ennemi pendant la Seconde Guerre mondiale : l’observation permet de construire une prévision qui elle-même définit un possible impact défensif. Or, tout ceci ne dure que quelques minutes, parfois quelques secondes, de sorte que les tables balistiques qui étaient auparavant utilisées laissent place à un traitement automatisé beaucoup plus rapide. C’est donc pour prendre de vitesse l’ennemi et pour répondre à une urgence extrême mettant en jeu des vies humaines que les Alliés tentent d’automatiser le plus possible le fonctionnement de la défense. La vitesse devient dès lors l’argument principal de cette transformation. La guerre sera une guerre des machines contre les machines.
C’est étrangement en utilisant l’ennemi du signal, le feed-back qui peut produire du bruit, que les chercheurs tels que Wiener vont trouver une solution originale au problème de la prédiction des trajectoires. Si le feed-back est une boucle dans un même dispositif, lorsqu’il est contrôlé, il permet, comme l’écrivent en 1943 Rosenblueth, Wiener et Bigelow, « Le comportement d’un objet [qui] est contrôlé par la marge d’erreur à laquelle l’objet se situe à un moment donné en référence à un but relativement spécifique. »1 Par exemple, l’objectif est la destruction d’une bombe. Pour cela on observe sa trajectoire ainsi que d’autres paramètres à un moment T. On prévoit le point auquel elle devrait se retrouver à un moment T’. On observe réellement l’objet à ce moment. On fait la différence entre le T’observé et le T’ calculé, et on en tire l’impact probable de l’objet à un autre moment. Le feed-back permet d’intégrer dans le modèle de prévision, le présent factuel, et il réussit le tour de force de digérer l’erreur, la marge d’indétermination, le bruit dans le modèle lui-même, en supposant qu’ils sont réguliers. On pourrait dire que la machine vérifie d’elle-même la corrélation entre le noumène (le modèle) et le phénomène.
Si la machine antimissile de Wiener ne fut pas retenue du fait de sa trop grande fragilité, Stibitz, qui était présent lors d’un premier test en grandeur nature, se souvient d’avoir eu « l’impression que la machine pouvait lire dans son esprit. »2 Cette lecture de l’esprit n’est pas sans rapport avec un des ressorts profonds de la cybernétique3. Le feed-back modifie considérablement l’une des thèses d’Aristote qui distingue dans le livre 2 de la Physique, deux types de mouvement selon leur finalité : la tekhnè et le vivant. Le vivant porterait sa finalité en lui-même, il n’a pas à être agit du dehors, alors que la technique aurait besoin d’une cause efficiente, elle est instrumentale. D’une certaine manière, la notion de feed-back intensifie la crise copernicienne de l’anthropocentrisme. Les êtres humains ne sont plus les seuls à être capables de comportement finalisé.
Intelligence/Idiotie
Le projet de la mécanisation des processus mentaux n’est pas une nouveauté4 il est lié à l’identification de ces processus avec la capacité rationnelle poussée jusqu’à son état ultime, le calcul. Nous pourrions conclure par anticipation que le projet de la cybernétique consistant à doter une machine numérique d’une intelligence a pour l’instant échoué, toutefois, comme nous le verrons, il faut comprendre ce qu’Alan Turing entendait réellement par une telle machinisation et quel était le protocole pour vérifier la pertinence de celle-ci.
C’est sur le concept même de preuve que Turing va troubler nos croyances. Tout d’abord, la machine de Turing n’est pas matérielle, elle n’est pas particulière, elle n’a pas vraiment de plan. Comme il l’écrit lui-même, c’est une machine « de papier »5, une machine abstraite, l’idée d’une machine spéculative, rien de plus. Il s’agit d’un pari6 qui commence par la réduction de l’intelligence à une preuve, c’est-à-dire à une perception convaincante de celle-ci dans l’esprit d’un interlocuteur dont on présuppose l’intelligence, ce qui le rendrait capable de reconnaître celle-ci hors de lui.
« Étant donné une position dans une partie d’échecs, on peut faire que la machine liste toutes les “combinaisons gagnantes” sur une profondeur d’environ trois coups de chaque côté. […] Ceci soulève la question “une machine peut-elle jouer aux échecs ?” […] Nous avons commencé cette section en affirmant que la machine doit être traitée comme absolument dénuée d’intelligence. Il existe cependant des indications qui montrent qu’il serait possible de faire que la machine fasse preuve d’intelligence, au risque qu’elle produise à l’occasion de sérieuses erreurs. En suivant cette idée, on pourrait probablement faire que la machine joue très bien aux échecs. »7
En tant que telle la machine n’est pas intelligente, elle n’est même pas idiote, plus exactement elle n’a pas d’intelligence. Toutefois, elle peut faire preuve d’intelligence, parce que la preuve n’est pas un phénomène interne, mais une expression relationnelle qui suppose un observateur qui infirme ou qui confirme (ce pour quoi le discours et l’imaginaire sur l’IA est l’IA elle-même). La transformation de la question essentialiste « Les machines sont-elles intelligentes ? » en question pragmatique « Puis-je distinguer l’être humain et la machine ? » a mené la grande majorité des commentateurs à n’y voir qu’une tentative d’introduire une définition opérationnelle de l’intelligence8. Alan Turing ajoute :
« Je ne veux pas donner une définition de la pensée, mais si j’avais à le faire, je ne pourrai pas dire grand-chose d’autre que c’est une sorte de bourdonnement qui a lieu dans ma tête. Mais je ne crois pas du tout que nous ayons besoin de nous accorder sur une définition. Ce qui est important c’est de tracer une ligne entre les propriétés du cerveau ou de l’homme qui nous intéressent et celles qui ne nous intéressent pas. »9
En laissant sans réponse la demande d’une définition préalable, Turing contredit l’idée même d’une essence. Nous n’avons pas à nous mettre d’accord sur ce à quoi se réfère l’intelligence pour croire que telle ou telle chose (extension) est douée (dotation., donation) d’intelligence. Il suit en cela la méthode formaliste des mathématiques modernes qui après Hilbert ne s’occupent pas de définir les éléments, mais seulement les relations entre ceux-ci. Nous ne savons pas avec Turing si la machine, ou même l’être humain, sont intelligents (en effet nous ne savons pas ce qu’est l’intelligence, et cette absence de savoir est fondamentale et structurelle), nous les considérons simplement comme tels. Toute approche anthropomorphique ou essentialiste de l’intelligence artificielle est réfutée d’avance. Ce scepticisme entraîne une approche performative, car c’est l’observateur qui attribue l’intelligence à son interlocuteur, cette attribution est aussi une appropriation puisqu’ainsi il s’en croit par là même possédé. La présupposition de son intelligence, « Je pense donc je suis », produit une projection de cette intelligence, par exemple dans une machine. En ce sens, l’intelligence est une hétéroaffection : avec l’intelligence artificielle, ce qui importe est l’effet que nous procure cette « intelligence ».
C’est par la feinte que la machine accède à la pensée, ou plus exactement à l’effet de la pensée, ou encore plus exactement que l’être humain fait accéder la machine à ce qu’il nomme sa pensée. L’IA n’est-elle pas une façon de mettre en scène la foi que nous portons à notre intelligence ? Par la tromperie, la pensée devient un processus qui émerge d’un écart entre le destinataire et le destinateur. L’un anticipe la tromperie et cherche à la déceler, c’est le paradoxe du menteur, c’est le paradoxe d’une parole qui dit ce qu’elle n’est justement pas : « C’est moi la femme ! », l’autre, machine ou femme, pourrait aussi s’exclamer. L’intelligence est affaire de capacité. Alan Turing invente un cogito bourdonnant adapté à toutes les choses, et non pas seulement à la machine universelle, un cogito de la tromperie vraie : j’imite donc je suis, ou encore, cela imite donc cela est. Seconde version du test de Turing : singularisme de Kurzweil vs singularité de Turing.
LE CHANGE TECHNOLOGIQUE
Le code énergumène
La cybernétique trouble la séparation entre signal et code, finalité et bruit, intelligence et idiotie. Mais il y a encore un autre phénomène important qui est la vitesse du traitement numérique en relation avec le système nerveux, ce que je nomme le code énergumène. Le passage du 0 au 1 est si rapide qu’il devient insensible, nous ne parvenons plus à le percevoir. Nous pourrions certes ralentir l’ordinateur, observer chacun de ses changements d’état, grâce aux instructions nécessaires, composer et recomposer l’information ainsi constituée, mais un tel ralentissement à la vitesse de notre cerveau ferait perdre tout intérêt à la mécanisation du calcul. Matrix. L’opérativité informatique implique justement le dépassement de nos capacités humaines (sublime). Les opérations réalisées ne sont pas complexes, mais leur imperceptibilité entraîne des effets d’une complexité insensée. N’oublions pas que la numérisation consistait justement à découper et à simplifier en points des flux.
Non seulement les machines sont capables d’adaptation, donc de produire des résultats inanticipables et qui n’étaient pas inclus dans le projet de leur construction, mais la vitesse de traitement est telle que leur discrétion est imperceptible. L’exemple le plus frappant de ce phénomène est le débogage : s’il est toujours possible de comprendre après avoir codé comment la machine a pu arriver à tel ou tel résultat, par exemple une erreur, il est souvent difficile de l’anticiper. Ainsi Microsoft est incapable de faire un OS qui fonctionne. Les opérations suivies sont réglées, mais la vitesse est telle que le résultat n’est pas prévisible. La régulation vient après-coup. D’ailleurs, on utilise la commande « trace », permettant d’observer le processus d’une machine, pour pouvoir retracer les erreurs. Tout se passe comme si la personne qui avait écrit le programme devait ensuite en observer le résultat, en programmant l’observation elle-même dans le programme. Le débogage est en ce sens le spectre de la programmation. Cette dernière est l’inscription d’une suite causale prévisible. Après compilation, on observe le résultat et on est surpris par une erreur qui n’a pas été écrite, mais qui est le résultat du fonctionnement et des codes dénués de sens. On doit vérifier, relire son propre code pour comprendre après-coup ce qui s’est passé. La relation entre ces deux moments d’écriture témoigne du processus dans lequel le programme ne se limite pas à ce qui a été intentionnellement codé. Ce qui a été codé n’est qu’un moment qui va rencontrer les différentes traductions de la machine. Cette disparité est un produit de la vitesse de traitement qui décode et recode le code numérique. Sans doute ce décalage entre la maîtrise du code et le lâcher-prise du débogage est-il la cause du burnout de nombreux informaticiens, car tout ceci affecte les corps et les affects.
Variables, variations et variabilité
Cette vitesse digitale n’est pas seulement une accélération quantitative, elle induit un changement qualitatif. À la base de tous logiciels, la variable (1+n) est un signe dépourvu de sens auquel on applique une relation et qui va varier de valeur. Le n est indéterminé. Il peut venir d’un sous-programme, d’une interaction avec le monde extérieur ou de toute autre chose. Ce qui importe dans le n est qu’il déconnecte le moment de l’écriture du programme, le n est strictement indéterminé, à l’instant où le programme va fonctionner, le n prendra une certaine valeur. Le 1 est quant à lui déterminé, mais il est dénué de sens. Il n’est pas l’indication d’un référent extérieur. Or dans la variable, il n’y a pas d’un côté l’indéterminé et le déterminé, il y a la relation de transduction entre les deux qui échangent leur rôle en passant de la programmation au fonctionnement processuel, c’est-à-dire en passant à une ontologie du possible.
La variable devient la forme la plus simple de la contingence non quelconque qui permet, par exemple, de créer un aléatoire contraint. L’aléatoire informatique opère sur une quantité déterminée. Il peut par ailleurs, une fois le résultat obtenu, être traité par des conditions emboîtées, de la forme if… else if… À partir de connecteurs logiques en nombre restreint et d’un enchaînement temporel conditionnel, on parvient à produire des comportements complexes, c’est-à-dire inanticipables, mais non chaotiques. Ainsi la temporalité de l’écriture ne subordonne pas le déroulement du processus et c’est cette déconnexion qui rend si difficile le débogage. En programmant on produit une causalité, mais celle-ci n’est pas déterministe, en tout cas pas seulement, parce qu’on ne décrit pas, comme dans le cas du cinéma, chaque événement, on ne le représente pas. On invente une ontogenèse, une manière de faire advenir ce qui vient en s’individuant. La variable informatique, du fait même de sa simplicité formelle, ouvre la possibilité d’une complexification et constitue non plus seulement un exemple, mais un paradigme de la nécessité de la contingence. Il devient réellement possible de programmer de l’aléatoire, ce qui d’un point de vue spéculatif doit s’entendre comme la programmation de la contingence : un comportement donne lieu ou pas ou autrement à quelque chose. La logique de la variable informatique est la suspension toujours différée du possible. Par aléatoire, j’entends à présent une fonction du programme. Par contingence, j’entends la spéculation qui conçoit le résultat temporaire d’un programme comme pouvant être, ne pas être ou être autrement.
Les variables informatiques ont en effet pour conséquence de faire apparaître des variations matérielles pour l’utilisateur, par exemple des pixels sur un écran. L’un des exercices les plus simples pour rendre compte de la matérialité d’une variable consiste à écrire un programme lançant dans une direction aléatoire un pixel qui rebondit en sens inverse quand il touche un des bords de l’écran. On ne connaît pas à l’avance les positions du pixel, mais on en connaît le comportement. Ce dernier est défini comme une ouverture du possible par une contingence non quelconque : le pixel est bien aléatoire, il pourrait aller en haut ou en bas puisqu’on tire son incrémentation initiale aléatoirement, mais il ne fait pas n’importe quoi, il a des règles. De sorte que même en connaissant les règles, on ne peut pas totalement prévoir son déplacement, mais on peut en en anticiper la silhouette. Si le passage entre la variable logique et la variation matérielle devient inapparent dans notre relation quotidienne aux ordinateurs, il est pourtant riche en conséquence et constitue à lui seul un changement de paradigme. Dans l’ancien modèle industriel, la répétition matérielle de la matière était identique à elle-même. Ainsi, comme le souligne Henri Bergson (2003. 9) : « Le film pourrait se dérouler dix fois, cent fois, mille fois plus vite sans que rien ne fût modifié à ce qui se déroule ; s’il allait infiniment vite, si le déroulement (cette fois hors de l’appareil) devenait instantané, ce seraient encore les mêmes images. » Un film est identique à lui-même d’un point de vue matériel. Un programme ne se répète pas, il est itératif.
Soulignons que la variabilité esthétique face à un film et face à un programme informatique n’est pas la même. Si le film change, c’est accidentellement, alors que le programme n’est que son changement : que penserait-on d’un logiciel de traitement de texte ne permettant d’écrire qu’un seul et même texte ? On aurait beau lire et relire ce texte de façon à chaque fois différente, et sans doute avec un certain énervement, l’utilité du programme serait suspendue du fait même de cette répétition à l’identique. Le programme doit avoir une itérabilité contingente et non quelconque. Le logiciel doit me permettre d’écrire (la fonction est déterminée) le texte que je souhaite (son déroulement est contingent). Le logiciel doit ouvrir le possible (achat ordinateur). On peut parler d’une véritable esthétique de la variabilité qui détermine la fascination paradoxale que nous pouvons ressentir par rapport à un comportement programmé. Il y a une cohérence, mais nous ne pouvons anticiper les positions de chaque élément. Il y a de la sorte deux anticipations : la première est locale et impossible, la seconde est comportementale et procure un schème, c’est-à-dire une formation plutôt qu’une forme déterminée. Le code « change » au sens de Malabou.
(In)finitude
Les relations entre la variable du programme, la variation matérielle et la variabilité esthétique est la variance. On passe d’une indétermination déterminée de l’algorithme, à sa tra(ns)duction matérielle sur une interface de sortie (un écran par exemple), jusqu’à une perception et à une aperception de la variabilité comme catégorie spéculative. Nous savons que cela varie de façon déterminée, mais nous ne savons pas comment cela variera effectivement, non parce que son principe nous reste voilé du fait d’une finitude de notre connaissance (qui pourrait potentiellement être réglée), mais du fait de ses opérations internes : la décomposition numérique donne des résultats qui ne sont pas anticipativement décomposables. En ce sens, elle garde sa charge d’indétermination qui n’est pas un accident de parcours. Il y a bien variation, mais dans un spectre de possibles, ce spectre n’est pas définissable comme pourrait l’être la découpe de différents états stabilisés. Le spectre de la variance se heurte à sa propre limite. La mutabilité est limitée, mais la connaissance de cette limite est illimitée. Le programme n’est donc pas une limitation contrôlée, mais une limitation illimitée. Elle est l’imagination transcendantale, transcendantale au sens de l’exercice et l’expérience de sa propre limite.
Le sujet peut alors conjuguer finitude et infinitude pour produire de l’(in)finitude, celle-ci le constitue comme un sujet écartelé ou un ego fêlé. Si j’ai préféré dans cette conférence ne pas faire de références explicites à mon travail artistique, mais chacun pourra y déceler les nombreux sous-textes, il y a dans cette (in)finitude, une obsession toute personnelle : agencer des flux variables en trop grand nombre, dépasser les capacités d’attention et le temps disponible de l’observateur. C’est parce que le code est contingent et dénué de sens que la quantité produite est sans rapport avec le nombre de lignes de code.
« Tandis que notre devise à nous est Juste ce qu’il faut, celle de la nature est Plus qu’il ne faut, — trop de ceci, trop de cela, trop de tout. La réalité telle que James la voit, est redondante et surabondante […] Dans la vie, il se dit une foule de choses inutiles, il se fait une foule de gestes superflus. Il n’y a guère de situations nettes ; rien ne se passe aussi simplement, ni aussi complètement, ni aussi joliment que nous le voudrions ; les scènes empiètent les unes sur les autres ; les choses ne commencent ni ne finissent ; il n’y a pas de dénouement entièrement satisfaisant, ni de geste absolument décisif, ni de ces mots qui portent et sur lesquels on reste : tous les effets sont gâtés. Telle est la vie humaine. »10
Ma pratique artistique (x3) est hantée par cette quantité depuis les « films infinis » détournant les flux du réseau, jusqu’aux déplacements sans fin à la surface d’un monde glacé ou de bâtiments modernistes. Il est y souvent question d’un débordement esthétique dans lequel le visiteur ne peut tout absorber parce qu’il y a un décalage s’agrandissant entre les temps respectifs de l’objet et du sujet. Le premier est « infini », il est déterminé par les variations d’un programme qui ne cesse d’évoluer et dont on ne peut voir qu’une infime partie, de sorte que l’objet est doté d’une quasi-autonomie, nous savons qu’il excède notre faculté de perception et d’attention et nous ne pouvons le totaliser. Lorsque nous observons une image dont nous savons la transformation « infinie », c’est-à-dire dont nous concevons l’autonomie, le sans-nous, alors le temps devient un espace instaurant un décalage entre le sujet et l’objet : jamais nous n’en ferons le tour et cette limite est la possibilité même du monde. Comme l’indique Maniglier « On peut penser que si nous avons le sentiment d’un quelque chose au-delà de nos représentations, ce n’est pas parce que nos différentes sensations convergent vers un centre logique qui fonctionne comme leur “support” (l’objet transcendantal = X de Kant ou de Husserl), mais parce que nous avons conscience de ne pouvoir faire qu’un usage limité du monde, et qu’il y a forcément plus dans le possible que dans le réel. »11
Cette quantité, que je nomme l’afflux, entraîne une réévaluation du concept d’infini, non plus comme moyen pour atteindre une idéalité, mais dans sa relation structurale avec la finitude et la matérialité. Existe-t-il un infini qui ne vise pas la complétude, et qui reste, dans son mouvement même, incomplet ? Par le très grand nombre, l’infini devient indécomposable dans la mesure où le temps et le coût pour le décomposer seraient eux-mêmes infinis. Le chiffre discret se déborde par accumulation et déjoue la simple addition d’unités. Il existerait deux infinis : un premier infini de la répétition identique (industrielle et consumériste), un second de la différence intensive (transfini intotalisable, Cantor).
Que pensons-nous par cet infini alors que notre pensée ne peut pas boucler dessus ? S’agit-il encore de pensée ? Nous privilégions le possible sur le virtuel, la consistance sur l’actualisation, la matérialité (le signal) sur l’idée (le code). Il nous faut donc changer de raisonnement, passer des mathématiques à l’esthétique, de la logique au sensible, car notre problématique consiste à savoir ce qui nous pousse, en tant qu’artiste, à produire des quantités aberrantes. Une théorie esthétique est toute proche du transfini, elle est paradoxalement kantienne, c’est le sublime qui provoque une décorrélation dans la structure transcendantale12. Le sujet est confronté à du trop petit ou du trop grand et il ne parvient plus à synthétiser. Il perçoit, mais n’arrive plus à retourner sa perception dans l’aperception. Cette disproportion est une inadaptation entre ce qu’il y a à percevoir et ce que nous sommes capables de percevoir. Au cœur de la théorie kantienne, le sublime vient déjouer l’humanité de l’humain : « La finitude n’est pas la finité d’un existant privé en lui-même de sa propriété d’accomplissement, butant et tombant sur sa propre limite (sa contingence, son erreur, son imperfection, sa faute). La finitude n’est pas privation »13
LE RÉSEAU
Mondialisation
Le Web n’est pas une technologie supplémentaire à côté du code. Elle est la mondialisation, le devenir-monde du code qui porte lui-même ce destin. Internet est sans doute la pierre de touche historiale de l’édifice, il en est la forme la plus banale, la plus quotidienne et celle qui est devenue le plus inapparente. C’est dans cette banalité indifférenciée que nous pouvons ressentir l’écho assourdi du destin : nous rentrons à notre domicile, notre machine vibre, nous la sortons de son sommeil et relevons nos e-mails. Le réseau est indisponible, le flux est coupé pour une raison encore inconnue. Nous cherchons quelques secondes une solution, mais déjà nous sentons une gravité nouvelle, un isolement d’un genre inconnu. Nous sommes pourtant bel et bien seuls chez nous, avec cette coupure tout se passe comme si le monde se retirait et refluait.
Le réseau-monde n’est pas un monde alternatif à un prétendu monde naturel. Certains points en effet se recoupent et le monde, si une telle chose existe, intègre la totalité de ce qui est, dont le réseau-monde. Il constitue plutôt un principe qui mondialise le monde, c’est-à-dire qui le fait entrer dans un processus perpétuellement en cours, appliquant le « change » du code à l’ontologie elle-même.
Les liens changent, certains s’effacent, d’autres apparaissent. Ceci veut dire que la localité n’est plus une identité fixe, mais est une mondialisation : un point permet de passer à un autre point jusqu’à faire le tour du diagramme. Notre relation au document est définie par la relation, or celle-ci peut changer. Ceci offre une étrange vision du monde : il y a bien des documents en soi, mais inaccessible à partir d’un autre point, qui peuvent être rendus visibles par des liens et ceux-ci ne sont pas fixes. Cette mondialisation du monde, en tant que le réseau, touche matériellement au monde. Entre l’avoir-lieu de chaque existence humaine et la relationnalité nominative du World Wide Web, faisant que chaque document est à la mesure de son accessibilité, il y a une parenté qui explique pourquoi le Web constitue la mondialisation matérielle du code. Le réseau est pris dans un mouvement d’aller et venue incessant entre le changement et l’immobilité. C’est un monde qui change, parce que les liaisons peuvent évoluer indéfiniment, en même temps chaque chose est fixée à un moment donné dans une localité identifiée, c’est son adresse I.P.
La mondialisation topologique des réseaux semble inhérente aux machines. Comme l’écrit Simondon, « La machine complète est affranchie de l’opérateur à la fois pour l’alimentation en énergie et pour l’entrée d’information quand elle s’automatise et devient programme. Enfin, dans son dernier stade, la technicité des réseaux retrouve concrètement le milieu en devenant cœxistensive au monde, tandis que l’opérateur humain est seulement en contact avec des terminaux, qui sont aussi des initiaux. Le milieu est technicisé. »14 L’évolution technologique consiste à passer d’un stade de coupure avec le milieu, c’est-à-dire d’une autonomisation de la machine (boîte noire, Minsky), à une réintroduction dans le monde. Ce dernier est alors configuré par les machines, parcouru par elles. Les terminaux sont des interfaces et des lieux de passage entre les machines et le monde par l’intermédiaire des opérateurs humains.
Dès lors, un étrange renversement voit le jour : tout se passe comme si les êtres humains étaient des éléments d’un dispositif ontico technique. Ce n’est pas qu’ils utilisent les techniques pour accéder au monde et pour opérer dessus de façon plus efficace. C’est plutôt qu’ils sont les éléments organiques permettant de faire circuler le code entre deux réseaux. Nous entendons donc, à la suite de Simondon, le réseau comme la forme que prend le retour au milieu naturel de la matérialité technologique qui s’en était d’abord éloignée et l’avait nié selon le modèle de la « boîte noire » cybernétique. On comprend mieux comment Internet, le réseau des réseaux, recouvre non seulement le monde, mais le constitue comme tel. Le Web est un xéno-esprit. La technologie structure, texture même, le monde, elle y adhère grâce à la distance rapprochante entre les terminaux et le central, entre les ordinateurs personnels et les data centers.
Détournement
Cette mondialisation du code mis en réseau fait peur à beaucoup tant elle est totalisante, elle s’incarne dans Google. C’est pourquoi des discours critiques s’expriment, des artistes résistent et défendent un hacktivisme qui a pour objectif de détourner la domination. Or la domination et la résistance ne sont plus définies par des relations d’opposition dialectique, d’intériorité et d’extériorité, d’amitié et d’inimité, mais par un enchevêtrement fluxionnel.
Ainsi, la notion de standard, si importante dans la longue histoire de l’industrialisation et qui signifiait, produire de façon identique un même objet pour une grande quantité d’individus, prend un sens nouveau avec l’informatique. On parle de standard en tant que norme, par exemple les standards du Web sont les différentes technologies et protocoles utilisés sur la Toile, en particulier ceux définis par le W3C sous forme de recommandations. On pourrait croire que cette normalisation incarne la domination en s’imposant à chacun, toutefois il s’agit de recommandations. Une personne peut ne pas suivre ces normes, il risque alors, et c’est le seul danger, de devenir incompatible avec les autres sites et ainsi de s’isoler et de devenir un nœud sans lien pointant vers lui. Alors que la standardisation industrielle entraînait des concentrations (un seul objet pour un peuple entier), la standardisation numérique implique un réseau horizontal et déconcentré, ce qui ne veut pas dire sans domination et sans pouvoir, mais ce dernier se place dans un autre espace, il survole la surface du réseau et ne s’incarne pas dans des individus, il est inhérent aux protocoles eux-mêmes, il est le protocole des protocoles, il règne sur eux et, par voie de conséquence, sur nous.
L’ambivalence est aussi à l’œuvre dans le format des données que chacun utilise quotidiennement. Un format est une convention utilisée pour représenter des données — des informations représentant un texte, une page, une image, un son, un fichier exécutable, etc. Lorsque ces données sont stockées dans un fichier, on parle de format de fichiers. Une telle convention permet d’échanger des données entre divers programmes informatiques ou logiciels. On appelle interopérabilité cette possibilité d’échanger des données entre différents logiciels. Si le format est normatif, il est pourtant la condition de possibilité de l’individuation numérique. En effet, quand un individu travaille sur un ordinateur il ne cesse de jouer avec des formats, des protocoles, des normes, mais en jouant avec, et sans en transformer les lois, il créé quelque chose de singulier. Ainsi, quand on utilise le format JPG, on réalise à chaque fois une image différente. Le numérique permet de produire pour chacun des objets différents à la différence de l’industrialisation du siècle dernier qui unifiait le résultat. Ce qui se répète ce sont les différences (logique du meme). Il y a donc une rupture causale de la norme, l’origine des codes peut être fondée sur des lois univoques, la destination des codes peut briser cette univocité sans pour autant briser les lois qui la fondent. C’est pourquoi la domination et la résistance ne s’opposent pas simplement et que souvent ce qui apparaît comme une possibilité de libération (le logiciel libre, la production à la demande, les communs, etc.) peut se renverser en son contraire. Formater ne signifie donc plus, comme auparavant, une homogénéisation, mais l’action de libérer de l’espace, de rendre vierge celui-ci afin de permettre une action future.
On pourrait croire que le mashup et le remix permettent le détournement de la domination, qu’ils ouvrent une nouvelle topologie de la résistance qui détournant les fonctions initiales tout en gardant l’interopératibilité rend le réseau asymétrique et réagence donc la relation aux nœuds de pouvoir. Toutefois, les API sont programmés et voulus par les grands acteurs privés de la Toile parce que même le détournement est une fonction du réseau. Les virus eux-mêmes sont souvent le fait d’informaticiens qui sont ensuite engagés par des entreprises d’antivirus selon une logique du pharmakon où le poison est aussi un remède. L’exploit du hacker exploite les fissures de l’interopératibilité du réseau, mais il est aussi une exploitation et une confirmation de la logique en place.
Tout est possible : la contingence des flux
Le réseau n’est pas immatériel ou « dans les nuages », mais est constitutif de notre environnement le plus banal et quotidien, non pas seulement lorsque nous accédons à Internet, mais dans chaque recoin de notre expérience. C’est pourquoi la notion de « postdigital », dont il est difficile de retracer la genèse tant elle a provoqué des débats et de multiples appropriations15, ne signifie pas que notre époque est après le numérique, mais que celui-ci a tant irrigué notre quotidienneté, qu’il devient inapparent. Sa victoire en signe la paradoxale quasi-disparition et cette inapparence est présente partout, elle creuse notre époque, produit à son tour des réseaux qui produisent d’autres effets, tant et si bien que la cause s’éloignant de ses conséquences devient invisible.
Armin Meiwes est un informaticien allemand né le 1er décembre 1961. En 2001, il publie plusieurs annonces sur Internet, faisant part de son désir de trouver un homme voulant être mangé. Plusieurs personnes lui répondent, dont Bernd Jürgen Armando Brandes, un ingénieur berlinois. La rencontre entre les deux hommes a lieu au domicile d’Armin en mars 2001. Après avoir eu des rapports sexuels, ils décident d’un commun accord de sectionner le pénis de Bernd. Ils le cuisinent et le mangent ensemble. Toute la scène, qui dure plus de 9 heures, est enregistrée. Une fois le repas terminé, toujours avec l’accord de son hôte, Armin le tue de plusieurs coups de couteau à la gorge. Dans sa cave, il l’étripe et découpe plusieurs morceaux de chair, dont il gardera certains au congélateur pour les manger plus tard. Quelques mois plus tard, il recherche par les mêmes moyens une seconde victime consentante. Le 10 décembre 2002, il est arrêté par la police, après qu’un étudiant ait alerté les autorités.
Black friday
Au-delà du caractère macabre de ce fait divers, il importe de souligner le rôle d’Internet dans la recherche du consentement. Car ce qui est remarquable, au-delà de l’anthropophagie, est la rencontre inattendue entre une demande (manger) et une offre (être mangé), c’est-à-dire l’équilibre économique entre les deux. Tout se passe comme si sur Internet n’importe quelle demande pouvait trouver une réponse, comme si les exigences les plus absurdes, qu’elles soient sexuelles ou autres, pouvaient être accueillies par un autre. N’est-ce pas le signe que l’intercomptabilité des protocoles et l’équivalence généralisée des codes ouverte par le processus d’industrialisation dès le XIXe siècle, affectent de part en part notre être au monde, nos affects et nos désirs, nos relations et nos manques ? N’est-ce pas par cette machination entre les techniques et les existences qu’un monde, notre monde, le possible s’ouvre ?
On pense aux sites de rencontres tels qu’OKCupid qui créent un profil pour chaque participant afin de donner un pourcentage de compatibilité entre deux personnes. Le protocole se répand sur la relation interpersonnelle, elle détermine un nombre toujours grandissant de couples. La récolte de données personnelles permet de produire un flux anthropologique : être fluide c’est suivre les conseils d’un logiciel qui sait ce que vous désirez et ce que vous rejetez. Le cannibale de Rotenburg n’est pas si différent de cette économie généralisée des affects, parce que par Internet le stock disponible de réponses à nos désirs s’accroît considérablement. La couverture du monde par le réseau nous permet d’augmenter le territoire auquel nous avons accès. Les quantifications et les interfaces sont non seulement des intermédiaires entre les êtres humains, mais anticipent et forment nos attentes et produisent donc des enchaînements d’actes.
noir
Il ne s’agit pas de déshumanisation, mais d’un être non humain qui n’est pas seulement un autre extérieur à notre prétendue humanité, parce qu’elle la structure effectivement dans ses modes affectifs et de production. Le non humain ne doit pas être entendu ici comme quelque chose qui est contre l’être humain, qui est antihumaniste ou nihiliste, mais simplement comme la conséquence logique de l’équivalence généralisée. Si toute chose, n’importe quoi, la totalité du possible, doit pouvoir entrer dans une conversion énergétique et un protocole numérique, alors ceci veut aussi dire que l’humain et le non humain partagent un réseau. La résultante de la codification de toutes les choses est l’émergence d’une frontière indéconstructible entre l’humain et le non humain. Pourquoi indéconstructible ? Parce que la frontière est aussi une relation qui produit les éléments mis en jeu.