Articiel.le.s : autonomie de l’intelligence et hétéronomie de l’imagination / Articial.s : autonomy of intelligence and heteronomy of imagination

Si on nous promet avec l’IA l’émergence d’une intelligence autonome, c’est sans doute que l’onconçoit d’avance, et sans vraiment y penser, l’intelligence humaine comme quelque chose d’autonome. En cela on suit sans doute une tradition occidentale simplifiée et mal comprise, pour ne pas dire impensée, consistant à considérer l’intelligence comme une capacité à s’extirper de la soumission à une causalité limitant la liberté. L’intelligence devient une faculté permettant de briser les chaines du déterminisme par le libre arbitre.

Or, s’il y a tout lieu de contester cette conception de l’autonomie tant elle est une figure de l’absolu dont l’expression maximale est théologique en ce qu’elle est une capacité de création pure et indéterminée et sans précédent, on doit aussi souligner que la réalité technologique de l’IA ne consiste aucunement en une autonomie, mais en une hétéronomie infinie.

En effet, l’IA actuelle n’est pas l’incorporation de règles logiques dans un logiciel à la manière d’un système expert, mais l’effectuation de statistiques sur un corpus jamais vu constitué de l’accumulation des mémoires sur le réseau. C’est la convergence entre l’induction statistique et les données massives (big data) qui a permis l’apparition de cette IA qu’il faudrait considérer comme une ImA (imagination artificielle).

Cette dernière est hétéronome, car elle est déterminée de part en part par la mémoire des anonymes que nous sommes, dressant un monument par anticipation à l’espèce que nous avons été. La capacité à anticiper relève de la surveillance, mais ne saurait s’y limiter, car elle est intrinsèquement liée à l’autonomie de la ressemblance.

On croit avoir fait le tour du problème en résumant cette hétéronomie à une reproduction à l’identique de ce qui est déjà en mémoire : le logiciel apprenant de ces mémoires ne pourrait que les reproduire. Or, c’est mal comprendre le jeu de répétitions et de différences, de cycles et de ressemblances, car c’est encore les considérer de façon autonome et fermée sur elles, alors qu’elles sont inextricablement techniques et anthropologiques. En effet, si l’hétéronomie de l’ImA existe en amont parce qu’elle est alimentée par les données massives, elle se poursuit en aval parce qu’elle est perçue et interprétée par es êtres humains, formant alors une boucle de la mémoire elle-même. Nous relisons une mémoire qui est notre mémoire, mais ce « propre » de la mémoire nous était inconnu, car du fait de la quantité accumulée nous ne pouvions y avoir accès. C’est en articulant finement la mémoire à l’artificiel qu’il sera possible d’approcher plus exactement le fonctionnement et les conséquences de ces logiciels d’apprentissage.

If we are promised with AI the emergence of an autonomous intelligence, it is undoubtedly because we conceive in advance, and without really thinking about it, human intelligence as something autonomous. In this, we undoubtedly follow a simplified and misunderstood, not to say unthought-out Western tradition, which consists in considering intelligence as a capacity to extricate oneself from submission to a causality that limits freedom. Intelligence becomes a faculty that makes it possible to break the chains of determinism through free will.

Now, while there is every reason to contest this conception of autonomy, since it is a figure of the absolute whose maximum expression is theological in that it is a capacity for pure and indeterminate creation without precedent, it must also be emphasized that the technological reality of AI does not consist in autonomy, but in infinite heteronomy.

Indeed, current AI is not the incorporation of logical rules into software in the manner of an expert system, but the performance of statistics on an unprecedented corpus made up of the accumulation of memories on the network. It is the convergence between statistical induction and big data that allowed the appearance of this AI that should be considered as an ImA (artificial imagination).

The latter is heteronomous, because it is determined throughout by the memory of the anonymous that we are, erecting a monument by anticipation to the species that we have been. The ability to anticipate is a matter of surveillance, but cannot be limited to it, as it is intrinsically linked to the autonomy of resemblance.

We believe we have gone around the problem by summarizing this heteronomy to an identical reproduction of what is already in memory: the software learning from these memories could only reproduce them. However, this is to misunderstand the interplay of repetitions and differences, cycles and similarities, because it is still considering them in an autonomous and closed way, whereas they are inextricably technical and anthropological. Indeed, if the heteronomy of ImA exists upstream because it is fed by massive data, it continues downstream because it is perceived and interpreted by human beings, thus forming a loop of memory itself. We re-read a memory which is our memory, but this “own” memory was unknown to us, because due to the accumulated quantity we could not access it. It is by finely articulating the memory to the artificial that it will be possible to approach more precisely the functioning and consequences of these learning softwares.