Déconstruction de l’approche culturelle de l’IA / Deconstructing the cultural approach to AI

Cette critique provenant d’un artiste peut sembler étrange au premier abord. En effet, qui mieux que lui sait l’imaginaire et l’histoire dont sont tissées les technologies ? Comment réfuter que les fictions aient inspiré et surdéterminé non seulement les développements concrets de l’IA, mais aussi la manière dont un large public la perçoit ? Comprendre ce contexte historique, savoir en retracer a posteriori les réseaux semble essentiel à une approche réflexive de l’IA mettant à distance les discours solutionnistes de l’innovation.

C’est moins l’approche culturelle comme telle qui est ici questionnée que sa domination dans le milieu académique des sciences humaines. Les rôles sont joués d’avance : à l’industrie de produire l’IA, à l’université d’en retracer les surdéterminations historiques et de développer des recommandations éthiques. L’approche académique reste ainsi dans la textualité qu’elle présuppose être le meilleur outil de la réflexion. On présuppose aussi que la distance critique qui sait, derrière les effets d’annonce de l’innovation, décrypter les ressorts fictionnels est nécessaire.

Le présupposé de l’approche culturelle comme de l’approche éthique de l’IA reste ancré dans une instrumentalité classique : l’IA serait malade d’un manque de réflexivité et les universitaires seraient à même de lui incorporer une intelligence et une intelligibilité plus grande en sachant dénouer le vrai du faux, la possibilité de la vaine promesse, ou d’en affirmer l’hyperstitonnalité.

Cette instrumentalité, en plus de préconcevoir la définition de la technique sur un plan anthropocentré, définit aussi la relation de l’IA à la recherche en sciences humaines. En mettant à distance la première, en en déconstruisant les ressorts culturels, on n’y touche pas. Mieux encore, on développe une parole vaine sans effet sur les développements logiciels. Tout au plus sert-on de caution intellectuelle selon laquelle la technique serait un produit de la volonté humaine (en oubliant que la réciproque étant aussi exacte, la boucle rend difficile l’émancipation d’un sujet libre).

C’est à la pensée, comme fantasme de transparence réflexive et comme critique distancée, à laquelle il faut s’attaquer en premier lieu, car c’est bien elle qui est contestée par l’IA. Non que cette dernière remplacerait l’être humain, mais ses effets surprenants (à la fois génial et stupide) quand on l’expérimente viennent déconstruire l’assurance que nous avons de notre propre réflexivité, assurance qui est le fondement pour ainsi dire de toute entreprise philosophique.

C’est donc moins la pensée critique qui doit réformer l’IA, que celle-ci qui doit transformer les présupposés de notre propre réflexivité, le contact qu’elle croit entretenir avec elle-même et la distance qu’elle met entre elle et l’IA (comme elle l’avait fait en un autre temps entre elle est l’animal). Et cette transformation ne s’effectue nullement par la textualité qui nous met à distance d’un objet (l’IA), mais par l’expérimentation de l’IA. L’IA, notre relation à elle, n’est pas simplement un objet d’étude mais également une méthodologie de recherche-création.

Cette expérimentation heuristique consiste précisément à suspendre (époché) l’ensemble des présupposés instrumentaux de la technique comme de la pensée, pour se laisser guider par une boucle rétroactive entre l’IA s’adaptant à nous et nous nous adaptant à l’IA, selon le jeu d’une relation qui change la pensée, mais aussi l’image que se fait la pensée d’elle-même : c’est cette relation qui produit les éléments en jeu (la technique comme l’humain) plutôt que ces éléments qui produisent leur relation. Prendre le risque de cette expérimentation qui tente de répondre à la question des procédures spécifiques de production avec des agents logiciels (IA) et organiques (humains), les deux étant dotés d’automatisme, de répétitions et de bruits différenciants, peut bien intégrer la déconstruction culturelle de son objet pour en dénouer les surdéterminations et pour en contextualiser les effets, mais l’expérimentation heuristique est la seule à pouvoir déjouer la domination des lieux où s’élabore concrètement l’IA. Non pas en élaborant une morale pastorale et en croyant que les ingénieurs nous entendront quand nous leur dirons quoi faire et que penser, mais en éprouvant qu’avec leurs codes informatiques on peut faire tout autre chose, que ces codes donc contiennent des possibles qu’eux-mêmes n’ont pas élaborés et qui en sont les possibles les plus profonds et secrets.

This criticism coming from an artist may seem strange at first. Indeed, who knows better than him the imaginary and the history with which technologies are woven? How can we refute the fact that fictions have inspired and overdetermined not only the concrete developments of AI, but also the way a large public perceives it? Understanding this historical context, and knowing how to retrace its networks a posteriori, seems essential to a reflexive approach to AI that distances itself from the solutionist discourses of innovation.

It is less the cultural approach as such that is questioned here than its domination in the academic world of human sciences. The roles are played out in advance: it is up to the industry to produce AI, and it is up to the university to trace its historical overdeterminations and develop ethical recommendations. The academic approach thus remains in the textuality that it presupposes to be the best tool for reflection. It is also presupposed that the critical distance that knows how to decipher the fictional springs behind the announcement effects of the innovation is necessary.

The presupposition of the cultural approach as well as of the ethical approach to AI remains anchored in a classical instrumentality: AI would be sick of a lack of reflexivity and academics would be able to incorporate a greater intelligence and intelligibility by knowing how to unravel the truth from the falsehood, the possibility from the vain promise.

This instrumentality, in addition to preconceiving the definition of technology on an anthropocentric level, also defines the relationship of AI to research in the human sciences. By distancing the former, by deconstructing its cultural springs, one does not touch it. Better still, we develop a vain word with no effect on software developments. At most, we serve as an intellectual guarantee that technology is a product of human will (forgetting that the reciprocal is also true, the loop makes it difficult to emancipate a free subject).

It is thought, as a fantasy of reflexive transparency and as a distanced critique, that must be attacked in the first place, because it is indeed thought that is challenged by AI. Not that AI would replace the human being, but its surprising effects (both brilliant and stupid) when experienced deconstruct the assurance we have of our own reflexivity, assurance that is the foundation, so to speak, of any philosophical enterprise.

It is therefore not so much critical thought that must reform AI, as it is AI that must transform the presuppositions of our own reflexivity, the contact it believes it has with itself and the distance it puts between itself and AI (as it has done between itself and the animal). And this transformation is not carried out by the textuality which puts us at distance of an object (the AI), but by the experimentation of the AI.

This heuristic experimentation consists precisely in suspending (epoché) all the instrumental presuppositions of the technique as well as of the thought, to let ourselves be guided by a retroactive loop between the AI adapting to us and us adapting to the AI, according to the game of a relation that changes the thought, but also the image that the thought makes of itself. To take the risk of this experimentation that tries to answer the question of the specific procedures of production with software agents (AI) and organic (human), both being endowed with automatism, repetitions and differentiating noises, can well integrate the cultural deconstruction of its object to unravel its overdeterminations and to contextualize its effects, but the heuristic experimentation is the only one to be able to thwart the domination of the places where concretely the AI elaborates itself. Not by elaborating a pastoral morality and by believing that the engineers will hear us when we tell them what to do and what to think, but by proving that with their computer codes we can do something else, that these codes contain possibilities that they themselves have not elaborated and which are the deepest and secret possibilities.