Confusion de l’IA / AI confusion

Le nombre de spécialistes de l’IA semble augmenter chaque jour à mesure que le moutonnage s’accentue du fait de sa médiatisation et de l’apparition de logiciels grand public permettant aisément de jouer avec.

Cette généralisation entraîne certaines imprécisions concernant la définition de l’IA qu’on va jusqu’à mélanger avec par exemple les NFT ou les metavers. En effet, l’IA est en même temps une idéologie qui nous hante depuis longtemps, et qui fait partie prenante de l’histoire même de la pensée dite « naturelle », et des techniques aux infrastructures matérielles.

Je ne m’attarderais pas ici sur l’idéologie qui concerne l’externalisation de facultés cognitives dans le but de s’offrir une forme paradoxale de réflexivité externe (ce pour quoi, quand on parle d’IA, on mobilise les conditions même de celui qui énonce le discours). Je me concentrais sur la technique matérielle, car c’est en ce domaine que la confusion règne. On confond l’IA avec :

  • Le numérique
  • La programmation
  • La génération
  • La modélisation
  • Les systèmes experts

Si l’on ne peut prévoir l’évolution future de l’IA, la spécificité de son époque actuelle réside dans les réseaux de neurones récursifs qui changent radicalement les 5 éléments précités. En effet, jusqu’à présent l’informatique consistait à faire entrer des données externes en les rendant discrètes sous forme binaire, puis à les traiter mathématiquement grâce à un langage informatique permettant de créer des chaînes de causalité. La conception de ces chaînes était souvent fondée sur la connaissance du monde et sur une approche déductive. On modélisait des phénomènes réels ou imaginaires afin de produire certains effets. Ainsi, dans ce cadre déductif, la modélisation consistait par exemple à donner un mouvement à un pixel qui ne soit pas prévu à l’avance, mais dont on avait modélisé la logique (la variabilité). L’ordinateur permettait donc d’implanter dans une boîte noire protégée la connaissance hypothético-déductive du monde. Les logiciels de simulation 3D en sont un parfait exemple. Cette connaissance pouvait bien sûr être heuristique, floue, flottante, etc.

Avec les réseaux de neurones artificiels, la logique change radicalement. Il ne s’agit plus de modéliser un algorithme, mais de fournir des données binaires en grand nombre afin que le logiciel calcule une probabilité statistique qui lui permet de reconnaître une forme variable (sensibilité artificielle) et de la produire (imagination artificielle). Nous pouvons alors reconnaître une forme que nous n’avons jamais vue, mais qui ressemble à des formes passées. Les réseaux de neurones automatisent la production du mimétisme, de la ressemblance, de la représentation.

Ce bouleversement de l’informatique, qui était à l’œuvre comme hypothèse depuis son origine, a pour conséquence la plus visible la démocratisation du coding puisqu’on peut à présent utiliser l’induction statistique pour créer de la déduction informatique, c.-à-d.. coder avec une IA. Nous n’avons plus à avoir la connaissance de l’informaticien qui savait seul auparavant traduire un projet de monde en du code. Nous pouvons utiliser les codes passés statistiquement traités pour en créer de nouveaux.

Dès lors, le numérique n’est plus seulement une manière de rendre le monde calculable, c.-à-d. de faire rentrer des supports matériels dans un algorithme, mais de le rendre variable, en d’autres termes prédictible. La programmation ne relève plus d’une connaissance privilégiant la modélisation, mais d’une simple étape que l’on peut sauter. C’est donc la modélisation elle-même qui est affectée et elle concerne l’élaboration de la connaissance en son entier et son passage de la déduction à une étrange induction (ceci pouvant d’ailleurs pour une part expliquer la crise de la science actuelle et l’émergence de pseudosciences ou de théories improbables). Les systèmes experts qui consistaient à modéliser dans du code des connaissances humaines (suivant en cela la grammaire chomskyienne) deviennent pour l’instant obsolètes, car l’induction statistique, aussi idiote soit-elle, est étonnamment efficace.

On peut s’interroger sur la volonté d’aligner les IA et donc de les ramener à une compréhension causale et déductive du monde, mais pour l’instant force est de constater qu’elles restent fondamentalement inductives et modifient l’histoire de l’informatique et de la connaissance. Nous comprenons que la question n’est plus technique au sens instrumental mais au sens culturel. Car c’est bien la culture, en tant qu’elle a été rendue discrète par sa numérisation, qui est ici en jeu. A partir de données passées nous pouvons, encore et encore, produire des variations modifiant profondément la relation à l’histoire. Cette phase d’automatisation de la représentation affecte la culture en son entier et c’est sans doute pourquoi, sans en savoir les raisons, les médias abordent souvent l’IA du point de vue de l’art et de ce qu’ils nomment la créativité.


The number of AI specialists seems to be growing daily, as AI becomes more and more popular in the media and with the advent of consumer software that makes it easy to play with.

This generalization has led to a number of imprecisions in the definition of AI. Indeed, AI is both an ideology that has haunted us for a long time, and an integral part of the very history of so-called “natural” thought, and of techniques with material infrastructures.

I won’t dwell here on the ideology that concerns the externalization of cognitive faculties in order to afford a paradoxical form of external reflexivity (which is why, when we speak of AI, we mobilize the very conditions of the speaker).. Instead, I’ll concentrate on hardware technology, because this is where confusion reigns. AI is confused with :

- Digital
- programming 
- Generation
- Modeling
- Expert systems

While the future evolution of AI cannot be predicted, the specificity of its current era lies in recursive neural networks, which radically change the 5 elements mentioned above. Until now, computer science has consisted of inputting external data in discrete binary form, then processing it mathematically using a computer language to create causal chains. The design of these chains was often based on knowledge of the world and a deductive approach. Real or imaginary phenomena were modeled to produce certain effects. In this deductive framework, modeling meant, for example, giving a pixel a movement that was not predicted in advance, but whose logic (variability) had been modeled. The computer thus made it possible to implant hypothetico-deductive knowledge of the world in a protected black box. 3D simulation software is a perfect example. This knowledge could, of course, be heuristic, fuzzy, floating, and so on.

With artificial neural networks, logic changes radically. It’s no longer a question of modeling an algorithm, but of providing a large amount of binary data so that the software can calculate a statistical probability that enables it to recognize a variable shape (artificial sensitivity) and produce it (artificial imagination). We can then recognize a shape that we have never seen, but which resembles past shapes. Neural networks automate the production of mimicry, resemblance and representation.

The most visible consequence of this upheaval in computer science, which has been at work as a hypothesis since its inception, is the democratization of coding, since we can now use statistical induction to create computer deduction, i.e. code with an AI. We no longer need to have the knowledge of the computer scientist who used to know how to translate a world project into code. We can use statistically processed past codes to create new ones.

Digital technology is no longer simply a way of making the world calculable, i.e. of fitting material supports into an algorithm, but of making it variable, in other words, predictable. Programming is no longer a matter of knowledge that privileges modeling, but a simple step that can be skipped. So it’s modeling itself that is affected, and it concerns the elaboration of knowledge in its entirety, and its passage from deduction to a strange induction (this may in fact go some way towards explaining the crisis in science today, and the emergence of pseudosciences or improbable theories). Expert systems, which consisted in modeling human knowledge in code (following Chomskyian grammar), are now becoming obsolete, because statistical induction, however idiotic, is surprisingly effective.

We may wonder about the desire to align AIs and thus reduce them to a causal, deductive understanding of the world, but for the time being, we have to admit that they remain fundamentally inductive and are changing the history of computing and knowledge. We understand that the issue is no longer technical in the instrumental sense, but cultural. For it is indeed culture, insofar as it has been rendered discrete by its digitization, that is at stake here. From past data we can, again and again, produce variations that profoundly alter our relationship to history. This phase of automation of representation affects culture as a whole, and this is undoubtedly why, without knowing the reasons why, the media often approach AI from the point of view of art and what they call creativity.