Le décrochage de la causalité / The stalling of causation
Je désigne par cette formule l’hétéromorphie entre les causes et les effets, en premier lieu dans les dispositifs technologiques. Or, une grande partie de la réflexion et du sens commun sur les technologies est fondée sur l’explication des effets grâce à la découverte des causes. On tient alors une Forme Idéale tout autant qu’une explication à des phénomènes complexes, c’est-à-dire dont la causalité est pour le moins composite. Pour aborder l’informatique, on considère souvent le code qui lui est sous-jacent et on croit que c’est en lui, et en une certaine mathématicité désédimentée, que le « secret » de l’informatique est contenu. C’est pourquoi des personnes exigent l’explicabilité du code informatique comme si par elle on pouvait enfin comprendre ce dont il retourne et agir.
Un autre exemple est la notion d’intelligence artificielle qui est souvent critiquée comme injustifiée, car il n’y aurait en elle rien d’intelligent et on aurait affaire qu’à des inductions statistiques incapables de produire ladite « intelligence ». En y regardant de plus près, le présupposé déterministe d’une grande part de la pensée critique en matière de technique, est en son fond théologique, car si les effets ressemblent aux causes, c’est que cause et effet sont identiques et cette identité s’étendant de proche en proche fait que tout est contenu depuis l’origine jusqu’à une création première.
Sans doute Simondon par la transduction, l’individuation et le couple phasage-déphasage, pourrait, si nous en poursuivons le chemin, nous permettre d’ouvrir une autre compréhension de la technique. L’évaluation de l’intelligence artificielle, à supposer qu’on soit même obligé d’évaluer l’IA par ce seul critère, ne suppose pas qu’on puisse le faire en se demandant si « elle est intelligente », car ceci supposerait, sans même y penser, de reprendre en charge passivement une certaine conception historique et localisée de l’intelligence comme quelque chose d’enfermé dans une entité autonome. L’isomorphie de la causalité occulte que les facultés (imagination, entendement, raison) ne sont pas des choses en elles-mêmes et comme encapsulées ou lovées en elles, mais sont des produits relationnels. C’est pourquoi l’induction statistique peut produire l’effet de l’intelligence sans pour autant l’être, car on n’est pas intelligent, on a l’intelligence au sens où elle est le produit d’une attribution par un tiers, ce tiers fut-il la réflexivité dédoublée, la fameuse voix intérieure de la conscience.
La critique de l’IA au regard de ses causes a des présupposés naïfs, non seulement parce qu’elle suppose l’isomorphie déterministe qui suppose elle-même la séparation d’entités isolées, mais encore parce qu’elle suppose toujours une certaine compréhension de ce qu’elle critique et du critère de la critique, ici l’intelligence. Elle suppose finalement que l’intelligence est dans le sujet qui critique et qu’il peut simplement la projeter dans la technique. Bref, si elle n’attribue pas une faculté à la technique c’est parce qu’elle se l’attribue à elle-même d’avance selon un jeu de dupe où le meilleur prétendant est connu à l’avance parce qu’il est juge et parti.
Mais qu’il faille penser aujourd’hui les décrochages déterministes, c’est-à-dire la non-ressemblance entre les causes d’une entité et ses effets dans et pour un contexte donné, c’est une exigence qui implique une ontologie relationnelle où les entités sont le produit des relations plutôt qu’elles ne leur préexistent. Et cette relationnalité s’applique aussi au prétendu sujet qui pense apposer son regard critique vers d’autres entités. Il en va donc plus fondamentalement d’une pensée d’un simulacre, car une entité, selon ses relations temporaires, peut être ou ne pas être affectée à des facultés.
–
e designates by this formula the heteromorphism between cause and effect, primarily in technological devices. However, much of the thinking and common sense about technologies is based on explaining effects through the discovery of causes. We then have an Ideal Form as well as an explanation for complex phenomena, i.e. whose causality is composite to say the least. In approaching computer science, we often look at the code that underlies it and believe that it is in it, and in a certain disembodied mathematicality, that the “secret” of computer science is contained. This is why some people demand the explicability of computer code as if by it one could finally understand what it is all about and act on it.
Another example is the notion of artificial intelligence, which is often criticized as unjustified, because there is nothing intelligent about it, and we are only dealing with statistical inductions that are incapable of producing the said “intelligence”. On closer examination, the deterministic presupposition of much critical thinking in the field of technology is at its theological basis, for if effects resemble causes, it is because cause and effect are the same, and this identity extending from cause to effect means that everything is contained from the beginning to a first creation.
No doubt Simondon, through transduction, individuation and the phase-phasing couple, could, if we continue along this path, allow us to open up another understanding of the technique. The evaluation of artificial intelligence, supposing that we are even obliged to evaluate AI by this criterion alone, does not suppose that we can do so by asking ourselves whether “it is intelligent”, because this would imply, without even thinking about it, passively taking over a certain historical and localized conception of intelligence as something enclosed in an autonomous entity. The isomorphy of causality obscures the fact that the faculties (imagination, understanding, reason) are not things in themselves and as encapsulated or coiled within them, but are relational products. This is why statistical induction can produce the effect of intelligence without being so, because one is not intelligent, one has intelligence in the sense that it is the product of an attribution by a third party, this third party being the duplicated reflexivity, the famous inner voice of consciousness.
The criticism of AI with regard to its causes has naive presuppositions, not only because it presupposes the deterministic isomorphy that itself presupposes the separation of isolated entities, but also because it always presupposes a certain understanding of what it criticizes and the criterion of criticism, here intelligence. Finally, it supposes that intelligence is in the subject who criticizes and that he can simply project it into the technique. In short, if it does not attribute a faculty to the technique it is because it attributes it to itself in advance according to a game of dupe where the best pretender is known in advance because he is judge and gone.
But that it is necessary to think today of deterministic disengagement, that is to say the non-similarity between the causes of an entity and its effects in and for a given context, is a requirement that implies a relational ontology where entities are the product of relations rather than pre-existing them. And this relationality also applies to the so-called subject who thinks he or she is looking critically at other entities. More fundamentally, then, it is a matter of thinking in a simulacrum, since an entity, depending on its temporary relations, may or may not be assigned to faculties.