De l’algorithme à la statistique vectorielle / From algorithms to vector statistics
On interprète souvent de façon inadéquate les actuelles IA en les interprétant comme une prise de pouvoir des algorithmes et en les intégrant au récit de l’Arraisonnement de la réalité à la raison calculante. Ces algorithmes sont une méthode générale pour résoudre un type de problèmes et selon la définition proposée par Donald Knuth, ils supposent une définition précise. En d’autres termes, un algorithme est le fruit d’une modélisation : on passe d’un problème à sa résolution par un modèle numérique qui a été conçu idéalement. C’était la manière de coder traditionnellement. On traduisait une suite d’événements en code informatique par idéation.
Or les IA n’appartiennent plus à la modélisation hypothético-déductive. Elles relèvent de l’induction statistique paramétrique, seul l’alignement s’apparente encore à la logique de l’algorithme. En fournissant un stock de données au calcul, le logiciel va reconnaître des récurrences rassemblées sous forme de motifs qui vont permettre de reconnaître ces motifs (perception artificielle) en prenant en charge un certain degré de variabilité, et de générer des motifs ressemblants (imagination artificielle ou automatisation de la mimèsis). Si on parle de black box c’est pour relever la difficulté à lire ces calculs justement parce qu’à la différence des algorithmes, ils ne répondent pas à une définition idéelle préalable.
Ainsi, lorsque dans le sens commun on compare l’IA et l’IH, on confond l’induction et l’hypothético-déductif (sur lequel était fondé la génération précédente des IA, nommée système expert où on tentait de modéliser et traduire en code informatique les connaissances humaines). Mais encore, on croit qu’il y a une identité entre les causes et les effets. C’est cette croyance en un déterminisme technique (autre nom pour intentionnalité) qui est la source de nombreux malentendus : l’IA ne pourrait être intelligente parce que son fonctionnement ne l’est pas ou encore, il n’y a dans un logiciel que ce que l’informaticien y a mis. Il faudrait des causes intelligentes pour produire des effets intelligents. Les effets ne pourraient jamais produire que ce que les causes leur donnent. Or, des causes « idiotes » peuvent produites des effets « d’intelligence » parce que ceux-ci sont plongés dans un contexte qui ne se limite pas aux causes : par exemple une image générée est perçue par un être humain et rencontre donc toute un champ préalable, perceptif et culturel qui peut le « leurrer ». En ce sens, un effet rencontre d’autres acteurs et constitue une relation qui est un simulacre. Ceci est d’autant plus vrai dans le cas de l’induction statistique où le codage humain se place à un niveau préalable et où la modélisation est remplacée par la vectorisation statistique et la formation des motifs.
C’est pourquoi, quand on parle d’IA générative, on ne peut en parler seule en faisant abstraction de sa réception et des relations dans lesquelles elle intervient. C’est aussi la raison pour laquelle la question de savoir si l’IA est intelligente au sens humain du terme est une question inconsistante (ce que Turing avait déjà relevé). Il importe plutôt de savoir ce que l’IA fait à l’IH et ce que l’IH fait à l’IA, comment l’une et l’autre s’aliènent. On remarque d’ailleurs cette hétéronomie lorsque des personnes parlant d’IA parlent surtout, sans toujours le savoir, d’eux-mêmes exigeant de l’IA des présuppositions qu’elles accordent d’avance à l’être humain. C’est ainsi que l’IA concerne et redéfinit le champ même de la réflexivité et les conditions mêmes du savoir.
–
Today’s AI is often misinterpreted as a takeover by algorithms, and integrated into the narrative of the Arraisal of reality by computational reason. These algorithms are a general method for solving a type of problem, and according to the definition proposed by Donald Knuth, they presuppose a precise definition. In other words, an algorithm is the fruit of modeling: we go from a problem to its resolution by means of a numerical model that has been ideally designed. This was the traditional way of coding. A sequence of events was translated into computer code through ideation.
AIs, however, no longer belong to hypothetico-deductive modeling. They are based on parametric statistical induction, with only alignment still resembling algorithmic logic. By supplying a stock of data to the calculation, the software will recognize recurrences gathered in the form of patterns, which will enable it to recognize these patterns (artificial perception), taking into account a certain degree of variability, and to generate similar patterns (artificial imagination or mimesis automation). We use the term “black box” to highlight the difficulty of reading these calculations, precisely because unlike algorithms, they do not respond to a prior ideal definition.
So, when we compare AI and HI, we confuse induction and hypothetico-deduction (on which the previous generation of AI was based, called expert system, where we tried to model and translate human knowledge into computer code). But still, there is a belief in the identity of cause and effect. This belief in technical determinism is the source of many misunderstandings: AI can’t be intelligent because it doesn’t work that way, or software is only as good as the computer scientist makes it. Intelligent causes are needed to produce intelligent effects. Effects can only ever produce what causes give them. However, “stupid” causes can produce “intelligent” effects, because these are immersed in a context that is not limited to the causes: for example, a generated image is perceived by a human being, and therefore encounters a whole prior, perceptual and cultural field that can “lure” it. In this sense, an effect meets other actors and constitutes a relationship that is a simulacrum. This is all the more true in the case of statistical induction, where human coding is placed at a prior level, and modeling is replaced by statistical vectorization and pattern formation.
This is why, when we talk about generative AI, we can’t talk about it alone, ignoring its reception and the relationships in which it intervenes. This is also why the question of whether AI is intelligent in the human sense is an inconsistent one (something Turing had already pointed out). It’s more important to know what AI does to HI and what HI does to AI, and how both alienate each other. We notice this heteronomy when people who speak of AI speak above all, without always realizing it, of themselves, demanding of AI presuppositions that they grant to human beings in advance. This is how AI concerns and redefines the very field of reflexivity and the very conditions of knowledge.