Création ou production de l’IA

Dans le sens commun, qui s’exprime massivement sur les réseaux sociaux et dans les médias de masse jusqu’à noyer toute réflexion, l’IA est considérée comme un secret qu’il faudrait percer selon trois explications possibles :

– Ce secret serait lisible grâce aux données qu’on fournit à l’IA. Tout dépendrait donc du dataset. C’est de cette nourriture dont tout découlerait ensuite, car une machine serait seulement capable de reproduction identique (non sexuée) et non de reproduction différencié (sexuée).

– La seconde clé du secret serait le code informatique. Pour comprendre une IA il faudrait comprendre son fonctionnement technicien et si possible de venir informaticien.

– La troisième clé considère l’IA d’un point de vue matériel et énergétique en analysant ce qu’il faut pour construire son infrastructure et ce que cette infrastructure coûte.


Ces trois manières d’envisager l’IA comme un secret et la pensée comme une clé se questionne rarement pour savoir si celle-ci est le secret de quelque chose et à quelles conditions on peut la considérer ainsi. Par ailleurs ces explications essaient de reconstituer une causalité et présupposent qu’il y a une stricte corrélation entre les causes et les effets : si on connaît les causes, on tient l’explication des effets. Enfin, elles supposent que l’explication de l’IA est autonome au sens où c’est en elle-même qu’il faut trouver ses conséquences. L’IA n’est pas reliée au-dehors, à une altérité qui pourrait l’aliéner.


Si ces trois explications sont acceptables, ce n’est que de façon partielle, car elles ne sont que des variables dans un ensemble complexe dont l’agencement est lui-même variable. La raison principale du caractère irréductible de l’explication de l’IA à une de ces variables c’est le décrochage de causalité propre à toute technologie et particulièrement prégnante avec l’IA. Ce décrochage est lié au fait que l’ordre ontologique des causes techniques n’est pas le même que l’ordre ontologique de ses conséquences factuelles parce que, par exemple, les effets d’une génération d’image sont perçus dans un agencement humain qui lui-même est porteur d’un espace latent, qu’on va nommer culturel, et qui rentre en interaction avec l’actualisation de l’espace latent du réseau de neurones. Or ce contact est incalculable du fait des boucles de rétroaction entre les deux éléments.


Ceci veut dire qu’on ne peut avoir une démarche réductionniste et explicative de l’IA en ne prenant qu’une variable. Croire que le dataset va déterminer tout le reste c’est sous-estimer le rôle de la compositionnalité, toujours dans le cadre de la génération visuelle, c’est-à-dire la capacité inductive à composer des éléments hétérogènes qui ne sont pas préexistants, mais qui sont l’expression de paramètres statistiques. On pourrait multiplier les limites à ce réductionnisme auquel le sens commun se prête souvent par rapport à l’IA. Mais le plus important me semble le fait que ce sens considère toujours cette technologie comme un secret, c’est-à-dire comme un message qui est codé dont il faut trouver la clé, à la manière du thème de la « black box ». On croit qu’il y a quelque chose qui se destine à nous et qui est lisible plutôt que d’envisager les différences de degré de compréhension et la possibilité que nous avons de traduire dans un système non humain des données humaines, et à partir du résultat de cette traduction de produire un nouveau résultat qui lui est perceptible par l’être humain, mais où le rapport de causalité entre les deux pôles humains en entrée et en sortie n’est pas déterminable. C’est toute la question du caractère imprévisible des technologies, en tant que c’est imprévisibilité nécessite non pas l’élaboration d’un raisonnement de cause à effet, mais d’une esthétique. 

In the common sense, which is massively expressed on social networks and in the mass media to the point of drowning out any reflection, AI is considered as a secret that should be pierced according to three possible explanations:

  • This secret would be readable thanks to the data provided to the AI. Everything would depend on the dataset. It is from this food that everything would then follow, because a machine would only be capable of identical reproduction (non-sexual) and not of differentiated reproduction (sexual).
  • The second key to the secret would be the computer code. To understand an AI it would be necessary to understand its technical functioning and if possible to come from a computer scientist.
  • The third key considers AI from a material and energetic point of view by analyzing what it takes to build its infrastructure and what this infrastructure costs.

These three ways of considering AI as a secret and thinking as a key rarely question whether it is the secret of something and under what conditions it can be considered as such. Moreover, these explanations try to reconstruct a causality and presuppose that there is a strict correlation between causes and effects: if we know the causes, we have the explanation of the effects. Finally, they assume that the explanation of AI is autonomous in the sense that it is in itself that one must find its consequences. AI is not linked to the outside, to an otherness that could alienate it.

If these three explanations are acceptable, it is only in a partial way, because they are only variables in a complex whole whose arrangement is itself variable. The main reason for the irreducible nature of the explanation of AI to one of these variables is the causality gap that is specific to any technology and particularly prevalent with AI. This stall is linked to the fact that the ontological order of the technical causes is not the same as the ontological order of its factual consequences because, for example, the effects of an image generation are perceived in a human arrangement which itself is the carrier of a latent space, which we will call cultural, and which enters into interaction with the actualization of the latent space of the neural network. This contact is incalculable because of the feedback loops between the two elements.

This means that we cannot have a reductionist and explanatory approach to AI by taking only one variable. To believe that the dataset will determine everything else is to underestimate the role of compositionality, still within the framework of visual generation, i.e. the inductive capacity to compose heterogeneous elements which are not pre-existing, but which are the expression of statistical parameters. One could multiply the limits to this reductionism to which common sense often lends itself in relation to AI. But the most important one seems to me to be the fact that this sense always considers this technology as a secret, i.e. as a message that is coded and whose key must be found, in the manner of the “black box” theme. We believe that there is something that is intended for us and that is readable rather than considering the differences in the degree of understanding and the possibility that we have of translating human data into a non-human system, and from the result of this translation to produce a new result that is perceptible to the human being, but where the relationship of causality between the two human poles in input and output is not determinable. It is all the question of the unpredictable character of the technologies, as this unpredictability requires not the elaboration of a reasoning of cause to effect, but of an aesthetics.