Il n’y a pas de boîte noire
Le concept de « boîte noire » de l’intelligence artificielle a un certain succès dans les médias, dans certaines publications scientifiques et dans des développements logiciels jusqu’à devenir un passage obligé de la réflexion. On y explique que l’intelligence artificielle est opaque et opère des choix sans que nous puissions en comprendre la causalité et les motivations. Ce qui nous manquerait ce serait le sens. Il faudrait alors réagir et se donner les moyens pour décrypter et lire ce mystère afin de ne pas être dominé par les machines. Le chercheur en sciences humaines exerce ainsi sa fonction critique et rempli son rôle social : donner de la lisibilité à ce qui en semblait dépourvu, nous apprendre à lire, nous permettre de voir derrière l’insensé la Forme Idéale.
La généalogie du concept de « boîte noire » est antérieure à la cybernétique et à Minsky, car l’idée d’une opacité de l’intériorité ou plus exactement encore l’opacité comme constitutive de l’intériorité, fut une image courante pour exprimer les mystères de l’âme humaine.
On comprend alors qu’en parlant de « boîte noire » on accrédite, sans toujours le vouloir, une certaine affectivité surdéterminée culturellement de l’intériorité et on passe alors du sens comme orientation au sens comme intentionnalité, de l’intériorité à la conscience. Ce tour de passe-passe prend toute sa force dans la mesure où on occulte la relationnalité anthropotechnologique : l’intériorité de l’un est surdéterminé par celle de l’autre dans un jeu de miroir.
Mais il n’y a pas de mystère, il n’y a pas d’illisible, il n’y a pas d’intériorité parce qu’il n’y a pas de clarté, pas de lisible et pas d’extériorité. Il y a de la relationnalité, c’est-à-dire une différence vibrante, fluxionnelle entre les uns et les autres qui les constituent secondairement comme des entités séparées.
Croire qu’on peut s’outiller pour rendre lisible les opérations de l’intelligence artificielle c’est faire plusieurs suppositions illégitimes qui ressemblent à s’y méprendre aux erreurs faites sur les lecteurs neurologiques. C’est croire qu’il y a du lisible. C’est croire que celui-ci est fondé sur une traductibilité sans effet de retour entre ce qui est lu (la machine) et celui qui lit (l’être humain). C’est croire que nous pouvons passer des processus machiniques à l’intentionnalité humaine. Bref, c’est oublier à chaque fois l’anthropotechnologie ontique, c’est-à-dire les formes concrètes de boucles rétroactives entre ces deux agents, c’est aussi occulter l’anthropotechnologie ontologique, c’est-à-dire le caractère structurel ou transcendantal de celle-ci qui devrait pourtant devenir une méthode même de pensée, sa manière de s’individuer, de se penser comme pensée et de reccueillir le jeu incessant de l’orientation et de la désorientation.
Il n’y pas de boîte noire car la relationnalité accepte le passage, sans traduction, entre l’induction statistique bruitée des RNN, CAN, GAN, et l’être humain. Elle accueille donc deux sens, parce qu’elle sait que chacun d’entre eux est désorienté et ne se constitue que de cette désorientation qui est un autre nom de leur relation originaire. Qu’il y ait une hétérogénéité entre la matérialité du fonctionnement des machines et l’idéologie que nous projetons dessus, ne doit pas nous mener à vouloir réduire cet écart, mais à l’endurer.
Il n’y a pas de boîte noire parce que l’exigence de lisibilité et de transparence a été et reste l’instrument de la critique, de l’ineffable et de la transcendance dont nous ne voulons plus. Tout es là, une présence se retire sans jugement, à la surface : la vitesse de traitement, la palpitation énergétique, la statistique, le bruit, la schize du générateur et du vérificateur, les calques réintroduisant la marge d’erreur.