Ontologie documentaire et synthèse mimétique des données

Une certaine éthique documentaire a dominé le discours esthétique de la fin du XXè siècle. Bresson, Straub, Daney et Godard semblaient, au cœur d’une pensée complexe et parfois ambivalente articulant la fiction et le documentaire, défendre l’hypothèse que le cinématographe avait un contact privilégié avec le réel et pouvait en rendre compte d’une quelconque manière de part les caractéristiques du médium analogique. Ce discours ontologique du cinéma permettait de renvoyer les « nouveaux médias » à des simulacres dénués de fondement et donnait au média filmique un avantage certain.

« La première fois que j’ai vu Antigone, je me suis dit : Comment se fait-il que je n’ai jamais vu un nuage qui passe au cinéma et qui change la lumière de l’image ? Parce que finalement, c’est ça le réel : quand un nuage passe, ça bouge, et les choses changent, varient, se teintent. »
Philippe Lafosse (Ed.), L’Étrange cas de Madame Huillet et Monsieur Straub, Toulouse – Ivry sur Seine, Ombres – À Propos, 2007, p. 59

L’une des conséquences de l’éthique documentaire est la grande attention accordée au médium. En effet, le bruit présent sur les enregistrements documentaires serait le signe d’une contigence inhérente aux étants. De là, on privilégie des pratiques bruitées, par exemple le cinéma expérimental ou, pour le digital, le glitch. Ces bruits permettraient d’introduire une stratégie de l’inattendu et de la perte de contrôle au cœur même des outils de la domination. Or, le point aveugle de cette approche est triple: l’inattendu a ici un effet très attendu. Le grattage de la pellicule, les erreurs chimiques ou les glitches sont parfaitement reconnaissables et produisent un certain style qui place dans une position minoritaire ces pratiques puisqu’elles sont aisément catégorisables. La dichè et le détournement sont une stylistique comme une autre. Donc, ils ont l’effet inverse d’une résistance, ils signifient leur propre schématisation. Pour le glitch, on ne peut que souligner le caractère très homogène de cette prétendue erreur de sorte qu’il a été repris par le graphisme, la publicité et la mode. On en fait un plug-in. Deuxièmement, cette attention au médium est autoréférentielle et sa source est Greenberg. Or, cette autoréférentialité n’est pas sans rapport avec le capitalisme puisque non seulement on en retrouve dans les structures du consumérisme (le désir d’un désir), mais aussi dans la spéculation boursière. Enfin, le fait de bricoler le médium n’affecte pas la programmation informatique ou l’appareillage, mais seulement une de ses actualisations possibles. On sous-estime alors, pour le numérique, la puissance intégrative et de transduction du métamédia et la capacité de ce langage à intégrer l’erreur, la diversion, le bidouillage. La logique du détournement est désirée par le capitalisme, car ainsi il intègre toutes choses, dont sa prétendue extériorité. On en retrouve une expression dans les API qui ont besoin de détournement. The Exploit analyse cette forme de domination en réseau et permet de conceptualiser la norme, le standard ou le protocole comme possibilité de l’individuation et non comme homogénéisation.

Plus généralement, la notion de document a subi une transformation d’ampleur ces dernières années en passant de l’analytique au synthétique. Ainsi, la multiplication des documents par l’automatisation de leur production et la mise à contribution des internautes par le Web 2.0 a été de pair avec leur analyse de plus en plus détaillée par le biais de logiciels de reconnaissance visuelle, textuelle et sonore. Ce qu’on pourrait nommer une analytique documentaire a pour ainsi dire pris la place de la relation entre l’intuition et l’entendement selon les catégories kantiennes, dont les résultats ont nourri à leur tour des bases de données gigantesques (big data). Le document est devenu une donnée qui a été critiquée grâce à la notion de surveillance et de contrôle.

À présent, les documents ne sont plus seulement analysés, mais synthétisés. En effet, le big data s’est transformé en des ensembles de données (dataset) qui permettent de nourrir les réseaux de neurones (NN) des machines qui les vectorisent et qui produisent de nouveaux documents qui sont crédibles, c’est-à-dire qui pourraient appartenir à la même série ouvrant un possible jusqu’alors inimaginable. Cette synthèse marque une transformation essentielle dans la prétention ontologique de l’éthique documentaire. En effet, les documents peuvent être utilisés en tant que données puisqu’ils sont numérisés et perdant leur individualité dans la mesure où ils sont inscrits dans le même langage, ils servent de socle à la production d’autres documents. La synthèse des NN consiste à déléguer aux machines la faculté même de la ressemblance (mimésis), c’est-à-dire l’enchâssement, en suivant toujours la terminologie kantienne, entre l’imagination appréhensive et l’imagination créatrice.

Dès lors, la question du document change du tout au tout. L’effectif du document est un fond pour produire le possible de la ressemblance qui peut se multiplier de façon autophagique et récursive, car rien n’empêche de réintroduire le résultat d’une synthèse dans un NN afin d’en produire toujours plus. L’automatisation de la ressemblance est un défi lancé aux catégories kantiennes tant elle vient questionner son angle mort, l’imagination transcendantale. Elle donne aussi une signification a posteriori surprenante à la critique de l’image numérique et à sa capacité d’être truquée, car cette image ne s’éloignait alors pas de la vérité et de la réalité, mais entrait plus encore dans sa genèse et dans son principe de différenciation.