Laisser-être l’IA (art, technique et vérité)

Le livre de Kate Crawford est une critique structurée des pouvoirs de l’IA. Toutefois, tout en reconnaissant son apport, il faut souligner deux éléments problématiques. Premièrement, en identifiant l’IA avec le discours et le pouvoir dominants qui l’accompagne, ne met-on pas de côté le fait que l’IA porte d’autres possibilités que ce discours ? Deuxièmement, en étendant le premier point, cette identification n’est-elle pas fondée sur une préconception non explicitée de la technique en général comme instrumentalité exprimant la volonté de ses concepteurs humains, à la manière d’une idéologie matérialisée qu’il suffirait de critiquer pour en déconstruire le pouvoir, la forme tout autant que la matière ? Les promesses de l’IA ne seraient pas tenues.

Au fil des années, mon exploration artistique de l’IA m’a mené à l’idée d’une part que les œuvres critiquant du dehors l’IA sont complices de la domination en l’instituant d’avance comme unique possibilité de l’IA. C’est le cas des œuvres anti-surveillance. Et d’autre part, quand on « utilise » l’IA en la détournant de tout horizon instrumental qui consiste souvent en des conceptions naïves de la réalité, on parvient à produire toute autre chose et une autre coneption en général de la technique. Cette approche productive me semble beaucoup plus perturbante que la critique.

La critique de l’IA tout autant que le solutionnisme de l’IA sont fondés sur une certaine idée de la relaton entre la technique et la vérité qui emboite l’ontologie, l’anthropologie et la connaissance. On croit à l’IA (ou on la critique) parce qu’elle permettrait d’automatiser la connaissance humaine conçue, à la manière leibnizienne, comme adequatio rei. Une connaissance est exacte parce qu’elle serait une représentation la plus proche possible de la réalité portant toujours le risque d’être un point de vue subjectif. On critique l’IA parce que cette promesse ne serait pas tenue à cause de « biais », c’est-à-dire d’inexactitudes subjectives. D’un côté comme de l’autre, on aborde l’IA comme une vérité promisse qui est obtenue ou décue. Mais imaginons, à la suite de la critique de la vérité post-nietzschéenne, que la vérité n’est pas, qu’elle est une idéologie, un jeu de puissances. Imaginons d’aborder l’IA, non pas comme vérité, mais comme simulacre en l’absence radicale de vérité. Alors c’est tout aussi bien le solutionnisme que la critique qui tombent et qui révèlent leur complicité dans la manière de raconter l’IA.

Ce que propose un art discritique et productif de l’IA ce n’est pas une alternative à ajouter au tableau de nos fonctions techniques, c’est un rapport bouleversé avec l’IA et la technique en général qui ne serait plus le moyen de certaines fins, qui ne serait pas non plus une fin autotélique, mais quelque chose qui fait advenir le simulacre au-delà ou en deçà de notre volonté. Laisser-être l’IA ne consiste pas en une passivité mais en une hybridation où nous l’influençons et où l’IA nous influence. C’est une manière de faire entrer la question de la technique dans la question transcendantale des conditions de possibilités, déconstruisant notre souveraine autonomie. Peut-être faudrait-il reprendre le chemin ouvert par Nick Land d’une technologie qui se comporte à la manière d’un organisme utilisant nos forces pour un projet différent de nos attentes.

Kate Crawford’s book is a structured critique of AI. However, while acknowledging the contribution of this book, two problematic elements must be highlighted. First, by identifying AI with the dominant discourse that accompanies it, does it not set aside the fact that AI carries other possibilities than this discourse? Secondly, by extending the first point, is this identification not based on an unexplained preconception of technology in general as an instrumentality expressing the will of its human designers, in the manner of a materialized ideology that it would be enough to criticize in order to deconstruct its form as well as its matter?

Over the years, my artistic exploration of AI has led me to the idea that works criticizing AI from the outside are complicit in domination by establishing it in advance as the only possibility of AI. This is the case of anti-surveillance works. And on the other hand, when one “uses” AI by diverting it from any instrumental horizon that often consists of naive conceptions of reality, one manages to produce something else and another coneption in general of the technique. This productive approach seems to me much more disturbing than the critique.

The criticism of AI as well as the solutionism of AI are based on a certain idea of the relation between technique and truth that embeds ontology, anthropology and knowledge. We believe in AI (or we criticize it) because it would allow us to automate human knowledge conceived, in the Leibnizian way, as adequatio rei. Knowledge is accurate because it would be the closest possible representation of reality, always carrying the risk of being a subjective point of view. AI is criticized because this promise would not be kept because of “biases”, i.e. subjective inaccuracies. On both sides, AI is approached as a promised truth that is achieved or disappointed. But let us imagine, following the post-Nietzschean critique of truth, that truth is not, that it is an ideology, a power play. Let us imagine to approach AI, not as truth, but as simulacrum in the radical absence of truth. Then both solutionism and criticism fall and reveal their complicity in the way AI is told.

What a discriminating and productive art of AI proposes is not an alternative to be added to the table of our technical functions, it is a disrupted relationship with AI and the technique in general that would not be the means of certain ends, that would not be an autotelic end either, but something that makes the simulacrum happen beyond or below our will. Letting the AI be does not consist in a passivity but in a hybridization where we influence it and where the AI influences us. It is a way of bringing the question of technique into the transcendental question of the conditions of possibility, deconstructing our sovereign autonomy. Perhaps we should take the path opened by Nick Land of a technology that behaves like an organism using our strengths for a project different from our expectations.