Pour une critique idéomatérialiste des technologies

Les technologies semblent être constituées de deux pôles principaux : la superstructure idéologique et l’infrastructure matérielle. La première semble être la cause de la seconde dans la mesure où la technique est une production humaine et doit donc pouvoir être comprise selon cette origine. Ainsi, l’intelligence artificielle doit être analysée au regard des intentions explicites ou implicites de ses concepteurs et d’un contexte social dans une histoire déterminée. La critique des technologies se fait souvent selon cette méthode déterministe consistant à chercher derrière l’apparente autonomie des techniques, le projet défini par des êtres humains afin de fixer des responsabilités et des alternatives. C’est ainsi qu’on recherche les biais dans l’intelligence artificielle (AI) dont les causes seraient à chercher dans l’impensé coupable des concepteurs.

J’aimerais réfuter ce déterminisme anthropologique en soulignant que si les techniques sont effectivement produites par des êtres humains, elles ne se réduisent pas à leur intention. Ainsi nous n’avons aucun moyen de matérialiser d’une façon parfaite nos idées dans la réalité. Le décalage entre l’idée et la matière n’est pas accidentel, mais détermine pour une grande part la relation de réciprocité entre les deux, c’est-à-dire l’heuristique.

Si nous prenons le cas de l’AI d’un point de vue historique, nous savons que deux projets étaient en concurrence. Le premier, l’AI forte, semblait le plus prometteur et allant de soi, consistait à modéliser la totalité de la connaissance humaine, c’est-à-dire de transférer dans une machine le connaissable. Le second qui trouve son origine dans le Perceptron (1957) de Frank Rosenblatt, concevait la machine comme un enfant qui devait apprendre par lui-même à partir de données. Si la première AI a dominé pendant des décennies la recherche et les investissements, c’est le second modèle qui réussi aujourd’hui et qui semble réaliser le rêve d’une intelligence automatisée.

Or, cet « échec » des systèmes experts au profit du machine learning n’est pas anodin parce qu’il en va d’un changement radical de paradigme dans la superstructure. L’idéologie derrière la première IA est la transférabilité de l’intelligence humaine dans une machine. Elle présuppose que l’intelligence humaine est connaissable par l’humain et que son contenu peut être modélisé mathématiquement. Elle est donc le rêve classique d’une science absolue (Laplace) où le monde, la matière et l’idée se fondent en une totalité transférable. Il faut bien avouer que les systèmes experts ont eu des résultats médiocres parce que l’exhaustivité de la description de la connaissance était toujours prise en défaut. La cause est sans doute à rechercher dans une conception naïve de la réflexivité comme transparence à soi.

Le modèle neuronal, ou de machine learning, peut bien sûr profiter d’une modélisation des connaissances, mais sa logique est fort différente. Elle ne consiste pas à traduire l’intelligence humaine en une intelligence technique, mais à laisser une machine apprendre à partir de données. Si le résultat peut sembler « intelligent », la cause de cet effet est incertaine. Cela veut dire que l’IA n’est pas une intelligence humaine dans la machine, mais pourrait être une intelligence de la machine que l’on ne saurait comparer à l’être humain. Elle est donc proche du modèle de Turing.

Entre le premier et le second modèles, on passe d’un modèle mimétique à un modèle d’altérité. On passe aussi d’une épistémologie idéaliste et absolue où le langage semble se confondre avec la chose, à une épistémologie des effets de surface où il importe peu de savoir si la machine est intelligente au sens humain du terme. On comprend facilement pourquoi le premier modèle était plus désiré que le second. Il garantissait une maîtrise de la connaissance, celle-ci devenait identique à elle-même, transparente. Le second modèle est plus troublant parce qu’avec lui nous produirions une intelligence qui ne nous appartient pas et qui ne nous ressemble pas.

La critique de l’AI consiste souvent à réfuter l’hyperstructure idéologique et à dévoiler les intentions humaines derrière les techniques. Mais cette critique occulte le décalage entre hyperstructure et infrastructure, elle oublie la boucle de rétroaction incessante entre les deux. Nous donnons forme à la technique tout autant que cette dernière donne forme à notre pensée. La critique de l’AI a une efficience limitée parce qu’elle ne questionne pour ainsi dire jamais son cadre. Elle a les mêmes présupposés que ce qu’elle croit critiquer car elle est héritière, comme l’AI, du destin de la pensée occidentale.

La critique idéomatérialiste consiste à analyser le décalage productif entre hyperstructure et infrastructure. Ce décalage n’est pas considéré comme un défaut, mais comme une dynamique qui structure la genèse et le développement des technologies. L’idéomatérialisme comme point de jonction et de disjonction entre le projet et la matière permet de comprendre que si nous avons une certaine idée avant de faire une technique, celle-ci se réalise de façon inattendue et que nous gérons les conséquences de cette surprise en utilisant l’idéologie inadaptée dont nous disposons. Ainsi, la Singularité de Kurzweil est la résurgence du premier modèle d’AI.

Un second exemple est la réalité virtuelle (VR). Je ne développerais pas longuement cette question puisque j’ai déjà largement développé ce point dans d’autres textes des années 90. Si l’hyperstructure de la VR promettait une immersion absolument convaincante et sans déficit, c’est une autre expérience qui a vu le jour : la VR produit le mal de mer et nous ne pouvons jamais oublier le dispositif technique. Ainsi la VR est une expérience immersive et émersive, ambiguë, décevante, troublante. Nous y sommes sans y être. Si l’hyperstructure a échoué devant l’expérience de l’infrastructure, c’est que l’idéologie avait une conception inexacte de la perception. La perception était conçue comme une adhésion à soi. Or si la perception était immédiate et immersive, on l’oublierait. Pour que l’expérience se constitue, il faut bien une mémoire et un décalage. Il faut bien que je perçoive que je perçois. Ce redoublement de la perception, dont Kant avait déjà parlé, nous décale de nous-mêmes et c’est précisément ce décalage qui est amplifié avec la VR. On peut concevoir cela comme une déception ou positivement.

L’idéomatérialisme n’est donc pas seulement une critique des discours, elle est aussi une pratique matérielle et artistique. Cette pratique consiste à s’infiltrer dans les décalages entre hyper et infrastructure et à y chercher des éléments de production. D’une façon générale, l’incident est un fondement de l’art parce que l’incident n’est pas une erreur de fonctionnement, mais est la structure profonde des technologies. On comprend que l’idéomatérialisme déconstruit la conception instrumentale et anthropologique de la technique.