Les deux contextes de l’intelligence artificielle et de “son” image
L’analyse automatisée d’images est souvent critiquée parce qu’elle serait imparfaite d’un point de vue sémantique. En effet, l’IA ne serait capable de percevoir et de comprendre les images qu’en les découpant et en dissociant des formes d’un fond, d’un arrière-plan, d’un monde. Ainsi, elle produirait une reconnaissance sans compréhension, un univers avec des objets flottants dans le vide, qui seraient pour ainsi dire décontextualisés. Or les images seraient le fruit de relations et d’un contexte complexe.
Cette décontextualisation serait due aux méthodes d’apprentissage de l’IA qui rechercherait des objets déjà connus et analysés dans les images. Cette recherche de la répétition n’assurerait son identité que par une découpe et une dissociation décontextualisante. On peut analyser cet argument comme proche de celui de la « pauvreté en monde » qu’Heidegger avec appliqué dans « Les concepts fondamentaux de la métaphysique » aux animaux.
L’IA serait pauvre en monde parce qu’il lui manquerait fondamentalement un contexte pour unifier la multiplicité des formes distinguées. Ce contexte qui produit la possibilité de l’horizon mondain peu être envisagé, par exemple à la manière kantienne, comme les catégories transcendantales de l’espace et du temps dans lesquelles tous les étants prennent place. La pauvreté en monde empêcherait de relier la diversité des perceptions à l’unité de la compréhension, cette dernière revenant toujours à son point d’origine : le monde considéré comme force unifiante. L’IA aurait donc une perception désorganisée et insignifiante.
Si l’argument critique peut sembler exact à première vue (car qui pourrait contester le caractère limité de l’IA), il opère sur un plan qu’il occulte. Car il faut savoir retourner la question du contexte sur notre propre position et ne pas se l’attribuer d’avance comme un angle mort du raisonnement. On remarquera combien les critiques adressées à l’IA sont souvent le fruit de fonctions qu’on attribue à l’être humain sans autre argument que la clarté de sa conscience à s’autodéfinir, formant une récursivité le plus souvent impensée (c’est d’ailleurs là l’un des mystères de certains philosophes que de ne cesser de s’autoaccorder les conditions de leurs propres opérations qui servent ensuite de modalités discrimantes).
Le manque de contexte se retourne alors contre la critique qui envisage d’une part l’IA comme devant reproduire les fonctions humaines (qui sont elles-mêmes présupposées), laissant ainsi de côté d’autres possibilités non mimétiques, qui pourtant furent présentes dès la première cybernétique et en particulier dans la deuxième version du fameux test de Turing, et qui d’autre part analyse l’IA comme quelque chose d’isolé qu’on pourrait prendre en soi. N’est questionné que l’origine anthropique de l’IA (la critique des biais), mais pas son horizon, c’est-à-dire le fait que c’est bien nous qui l’envisageons. En d’autres termes, la perception automatisée est elle-même perçue par nous qui disposons d’un contexte (le fait que cette disposition soit réelle ou fictive est de peu d’importance, le simulacre réflexif entraînant des effets). Ainsi, même si l’IA est « pauvre en monde », elle est toujours dans un monde, fût-ce un monde étrange et étranger.
On propose ici de mettre en concurrence deux modèles d’analyse de l’IA : autonomiste et relationniste.
Le premier partage avec l’idéologie transhumaniste de l’IA, l’idée que celle-ci doit être autonome et mimétique. Elle critique l’IA au nom de l’échec opérationnel de ce modèle qui est le seul envisagé par elle. Pour critiquer, elle croire qu’elle sait ce qu’est l’être humain, puisque c’est lui qui sert d’échelle de valeurs. Le second souhaiterait considérer l’IA (et l’être humain) selon une relation constitutive : nous percevons les résultats de l’IA et nous intégrons ceux-ci dans un monde déjà existant. C’est pourquoi des résultats incorrects en IA peuvent pourtant avoir une efficacité interprétative, non pas en elles-mêmes, mais pour nous. Cette relation opère dans les deux sens, car nous définissons l’IA comme elle nous définit, et plus généralement encore la technique. Il faut donc considérer l’humain et l’IA selon une relation systémique.
L’un des résultats de cette approche est de déconstruire la clarté réflexive qui est pour ainsi dire toujours derrière la critique de l’IA, et de faire de celle-ci, fût-ce dans un cadre transcendantal, le résultat de cette relation. Ainsi, quand nous critiquons les résultats de l’IA, cette critique sert de moyen pour développer sa réflexivité et savoir ce qui différencie ces résultats de ceux espérés par nous. Il y a donc un jeu de miroir plus trouble qu’il ne pourrait sembler parce que ce reflet influence les conditions de son dédoublement. Ce modèle peut être étendu à toutes choses parce qu’il est la manière dont l’Occident a occulté sa position en cherchant à définir les étants.
Pour confirmer cette intuition, on peut rapprocher la manière dont nous envisageons la technique et les animaux selon les modalités négatives de la critique : ils ne sont ni ceci ni cela, de sorte que je suis ceci et cela. La preuve est que je peux en avoir conscience ! Cette posture se fonde sur une conception autonomiste qui, si elle est appliquée à tous les objets considérés (puis retirée par l’opération critique), a d’abord pour fonction de garantir l’autonomie de la pensée et donc sa position de retrait par rapport au monde qu’elle prêtant connaître. Cette projection des structures et des méthodes cognitives permet de comprendre que derrière la critique de l’IA il y a le plus souvent une complicité structurelle avec l’idéologie critiquée et que l’autonomie de l’IA qui est dévalorisée n’est qu’une façon de valoriser l’autonomie anthropologique.
–
Automated image analysis is often criticized for being imperfect from a semantic point of view. Indeed, AI would not be able to perceive and understand the images only by cutting them and dissociating forms from a background, a world. Thus, it would produce a recognition without understanding, a universe with objects floating in the void, which would be decontextualized, so to speak. However the images would be the fruit of relations and of a complex context.
This decontextualization would be due to the learning methods of the AI which would look for already known and analyzed objects in the images. This search for repetition would only ensure its identity by a decontextualizing cutting and dissociation. We can analyze this argument as close to that of the “poverty of the world” that Heidegger applied in “The Fundamental Concepts of Metaphysics” to animals.
The AI would be poor in world because it would miss fundamentally a context to unify the multiplicity of the distinguished forms. This context that produces the possibility of the worldly horizon can be envisaged, for example in the Kantian way, as the transcendental categories of space and time in which all the states take place. The poverty of the world would prevent the diversity of perceptions from being linked to the unity of understanding, the latter always returning to its point of origin: the world considered as a unifying force. AI would thus have a disorganized and meaningless perception.
If the critical argument may seem accurate at first sight (for who could contest the limited character of AI), it operates on a level that it obscures. For we must know how to turn the question of context on our own position and not attribute it to ourselves in advance as a blind spot in our reasoning. One will notice how much the criticisms addressed to AI are often the fruit of functions that one attributes to the human being without any other argument than the clarity of its self-defining consciousness, forming a recursivity that is most often unthought of (this is, moreover, one of the mysteries of certain philosophers, that they do not cease to self-attribute the conditions of their own operations, which then serve as discriminating modalities).
The lack of context then turns against the criticism which, on the one hand, considers AI as having to reproduce human functions (which are themselves presupposed), thus leaving aside other non-mimetic possibilities, which were nevertheless present from the first cybernetics and in particular in the second version of the famous Turing test, and which, on the other hand, analyzes AI as something isolated that could be taken in itself. Only the anthropic origin of AI is questioned (the criticism of biases), but not its horizon, i.e. the fact that it is indeed us who envisage it. In other words, the automated perception is itself perceived by us who have a context (whether this disposition is real or fictitious is of little importance, the reflexive simulacrum leading to effects). Thus, even if AI is “world-poor”, it is always in a world, even if it is a strange and foreign world.
We propose here to put in competition two models of analysis of AI: autonomist and relationalist.
The first one shares with the transhumanist ideology of AI the idea that it must be autonomous and mimetic. It criticizes the AI in the name of the operational failure of this model which is the only one envisaged by it. To criticize, she believes that she knows what the human being is, since it is him who serves as a scale of values. The second would like to consider AI (and human beings) according to a constitutive relationship: we perceive the results of AI and we integrate them into an already existing world. This is why incorrect results in AI can nevertheless have an interpretative efficacy, not in themselves, but for us. This relationship operates in both directions, because we define AI as it defines us, and even more generally the technique. We must therefore consider the human and the AI according to a systemic relationship.
One result of this approach is to deconstruct the reflexive clarity that is, so to speak, always behind the critique of AI, and to make it, even in a transcendental framework, the result of this relationship. Thus, when we criticize the results of AI, this criticism serves as a means to develop its reflexivity and to know what differentiates these results from those hoped for by us. There is thus a mirror game that is murkier than it might seem because this reflection influences the conditions of its duplication. This model can be extended to all things because it is the way in which the West has occulted its position in seeking to define beings.
To confirm this intuition, we can bring together the way we consider technology and animals according to the negative modalities of the critique: they are neither this nor that, so that I am this and that. The proof is that I can be aware of it! This posture is based on an autonomist conception which, if it is applied to all the considered objects (and then withdrawn by the critical operation), has first of all the function to guarantee the autonomy of the thought and thus its position of withdrawal with respect to the world it pretends to know. This projection of cognitive structures and methods allows us to understand that behind the criticism of AI there is most often a structural complicity with the criticized ideology and that the autonomy of AI that is devalued is only a way to valorize the anthropological autonomy.