Le décrochage de la causalité

Je désigne par cette formule l’hétéromorphie entre les causes et les effets, en premier lieu dans les dispositifs technologiques. Or, une grande partie de la réflexion et du sens commun sur les technologies est fondée sur l’explication des effets grâce à la découverte des causes. On tient alors une Forme Idéale tout autant qu’une explication à des phénomènes complexes, c’est-à-dire dont la causalité est pour le moins composite. Pour aborder l’informatique, on considère souvent le code qui lui est sous-jacent et on croit que c’est en lui, et en une certaine mathématicité désédimentée, que le « secret » de l’informatique est contenu. C’est pourquoi des personnes exigent l’explicabilité du code informatique comme si par elle on pouvait enfin comprendre ce dont il retourne et agir.

Un autre exemple est la notion d’intelligence artificielle qui est souvent critiquée comme injustifiée, car il n’y aurait en elle rien d’intelligent et on aurait affaire qu’à des inductions statistiques incapables de produire ladite « intelligence ». En y regardant de plus près, le présupposé déterministe d’une grande part de la pensée critique en matière de technique, est en son fond théologique, car si les effets ressemblent aux causes, c’est que cause et effet sont identiques et cette identité s’étendant de proche en proche fait que tout est contenu depuis l’origine jusqu’à une création première.

Sans doute Simondon par la transduction, l’individuation et le couple phasage-déphasage, pourrait, si nous en poursuivons le chemin, nous permettre d’ouvrir une autre compréhension de la technique. L’évaluation de l’intelligence artificielle, à supposer qu’on soit même obligé d’évaluer l’IA par ce seul critère, ne suppose pas qu’on puisse le faire en se demandant si « elle est intelligente », car ceci supposerait, sans même y penser, de reprendre en charge passivement une certaine conception historique et localisée de l’intelligence comme quelque chose d’enfermé dans une entité autonome. L’isomorphie de la causalité occulte que les facultés (imagination, entendement, raison) ne sont pas des choses en elles-mêmes et comme encapsulées ou lovées en elles, mais sont des produits relationnels. C’est pourquoi l’induction statistique peut produire l’effet de l’intelligence sans pour autant l’être, car on n’est pas intelligent, on a l’intelligence au sens où elle est le produit d’une attribution par un tiers, ce tiers fut-il la réflexivité dédoublée, la fameuse voix intérieure de la conscience.

La critique de l’IA au regard de ses causes a des présupposés naïfs, non seulement parce qu’elle suppose l’isomorphie déterministe qui suppose elle-même la séparation d’entités isolées, mais encore parce qu’elle suppose toujours une certaine compréhension de ce qu’elle critique et du critère de la critique, ici l’intelligence. Elle suppose finalement que l’intelligence est dans le sujet qui critique et qu’il peut simplement la projeter dans la technique. Bref, si elle n’attribue pas une faculté à la technique c’est parce qu’elle se l’attribue à elle-même d’avance selon un jeu de dupe où le meilleur prétendant est connu à l’avance parce qu’il est juge et parti.

Mais qu’il faille penser aujourd’hui les décrochages déterministes, c’est-à-dire la non-ressemblance entre les causes d’une entité et ses effets dans et pour un contexte donné, c’est une exigence qui implique une ontologie relationnelle où les entités sont le produit des relations plutôt qu’elles ne leur préexistent. Et cette relationnalité s’applique aussi au prétendu sujet qui pense apposer son regard critique vers d’autres entités. Il en va donc plus fondamentalement d’une pensée d’un simulacre, car une entité, selon ses relations temporaires, peut être ou ne pas être affectée à des facultés.