Essentialisme et pragmatisme des facultés artificielles
« Le symbolique, c’est le monde de la machine. »
« Si la machine ne pense pas il est clair que nous-mêmes ne pensons pas. »
J. Lacan, Séminaire II, Paris, Le Seuil, 1978, p. 63 et 350.
Un grand nombre de discussions sur l’intelligence artificielle porte sur la réalité de cette intelligence, réalité que l’on rapporte à l’être humain dont on présuppose le caractère paradigmatique et normatif. Il semble y avoir un certain accord sur la critique. Or ceux qui portent ces critiques présentent le plus souvent leur discours comme étant minoritaires face à un prétendu positivisme scientifique qui défendrait l’intelligence de l’artificiel.
Je crois qu’il y a là une incompréhension de méthode entre l’essentialisme et le pragmatisme-fonctionnaliste. En effet, ceux qui critiquent l’intelligence de l’artificiel nous expliquent que l’intelligence humaine ne saurait se réduire à des simples calculs et en particulier ne saurait être assimilée à de l’induction statistique qui ne permettrait pas l’émergence du nouveau. Si on peut questionner le présupposé selon lequel l’intelligence aurait comme seul modèle l’être humain, ce modèle faisant en sorte que tout concurrent devient illégitime, il me semble par ailleurs indispensable de revenir aux textes fondateurs de Turing, Wiener et Rosenblatt.
En effet, dès les débuts de l’informatique dans les années 40 et 50, il est clairement énoncé que l’intelligence de l’artificiel n’est pas identique et ne saurait être identifiée à l’intelligence humaine ou de tout autre organisme vivant. Ainsi, Alan Turing explique que l’intelligence ne doit pas être considérée comme un attribut d’un objet, mais comme l’affectation d’une relation. Si dans un test à l’aveugle on ne fait pas la différence entre l’intelligence humaine et l’intelligence de l’artificiel alors on dira que l’artificiel est capable d’intelligence : l’intelligence est un effet pas une cause. La difficulté de cette conception c’est que nous avons été culturellement habitués à considérer l’intelligence comme une intériorité alors que Turing nous demande de considérer l’intelligence comme une relation entre un sujet est un objet, donc entre eux deux, en dehors d’eux. C’est Rosenblatt, l’inventeur des réseaux de neurones artificiels, qui explique que ceux-ci ne sont pas identifiables à intelligence humaine, mais sont des systèmes simplifiés dont l’objectif est de permettre de mieux comprendre le fonctionnement de notre intelligence. Il s’agit d’une hypothèse technologique et non d’un modèle qui serait identique à ce qu’il décrit.
On comprend dès lors que dès les débuts de la cybernétique, la question de l’intelligence de l’artificiel n’est pas posée comme devant être mimétique à l’intelligence humaine, puisque celle-ci est par ailleurs difficilement définissable, mais qu’elle est un révélateur pragmatique de sa structure. On comprend aussi que le dialogue entre les essentialistes et les pragmatiques est totalement biaisé : les premiers tentent de réfuter une position que personne ne tient, si ce n’est quelques essayistes en mal de sensation. Ils ne parlent pas de la même chose. Les uns se demandent si les machines sont capables d’intelligence comme les êtres humains. Les autres se demandent si on peut automatiser certaines fonctions simplifiées, et donc différentes, que l’on peut à titre d’hypothèse retrouver dans le fonctionnement des êtres humains.
Je crois qu’on peut résumer ce dialogue de sourds à une question de causalité. Les essentialistes estiment que la cause et l’effet sont en continuité. Si une machine donne l’effet de l’intelligence, c’est qu’elle est réellement intelligente. Bien sûr, cette réalité est indémontrable en particulier parce qu’on utilise soi-même sa prétendue intelligence et qu’on est ainsi juge et partie. Les seconds estiment que ce qui importe c’est seulement l’effet. Peu importe que la machine soit réellement intelligente parce que cette réalité est d’abord relationnelle.
Tant que ces deux conceptions différentes de la causalité anthropotechnologique continueront ce dialogue de sourds, il n’aura aucune influence sur l’importance du débat actuel. Il me semble indispensable de revenir aux origines de l’informatique et de comprendre comment ses fondateurs souhaitaient poser la question de l’intelligence de façon opérationnelle, pragmatique et relationnelle afin d’éviter des débats essentialistes sans aucun intérêt.
L’une des formes les plus courantes de la réfutation de l’intelligence de l’artificiel est la critique suivant laquelle une machine ne serait pas capable de créer des représentations inattendues. L’un des modèles de celle-ci et la production artistique. Là encore il faut adopter un modèle relationnel et pragmatique où les causes ne sont pas identiques aux effets. Peu importe que la machine soit capable d’inventivité, de la même manière que peu importe que l’être humain en soit capable. La seule chose qui compte c’est que l’un et l’autre puissent donner cet effet à autre chose. L’intelligence, l’imagination ou toutes autres facultés, ne sont pas enfermées dans le secret d’une intériorité coupée du monde, mais sont toujours situées et donc dans un tissu de relations qui produit les objets à considérer. On pourrait dire qu’il s’agit d’un réalisme relationnel non corrélationnel. Or il me semble que nous nous procurons par les machines de l’inattendu parce que celles-ci sont devenues une source d’imaginaire, de surprise et d’étonnement. Peu importe qu’elles le soient réellement, car il faudrait s’entendre sur le caractère insignifiant de ce « réellement ». Croire qu’un ordinateur n’est capable que de répéter à l’identique le programme qu’on a inséré dedans, c’est ne pas faire la différence entre la programmation algorithmique classique dans laquelle le modèle précède l’information, et l’apprentissage par l’induction statistique où l’information produit le modèle, c’est-à-dire le modèle statistique qui permettra de générer des formes variées. Il y a là une rupture épistémologique qui ne signifie aucunement que les machines sont dotées de facultés que nous croyons humaines, alors que l’humanité de ces facultés fait aussi question.
Pour le domaine artistique, il est très amusant de voir que les discussions sur l’imagination des machines exigent de ces dernières des garanties qu’on ne demande pas aux artistes humains et qu’ils ont même contesté pendant toute l’histoire du 20e siècle tel que la production d’une pure nouveauté anomique, l’autonomie du génie créateur et l’assurance que l’artiste est la personne à l’origine de la nouveauté dont il signe le nom. Les exemples sont trop nombreux, de Marcel Duchamp à Andy Warhol en passant par Picasso ou encore Max Ernst, Jackson Pollock, pour nous obliger à démontrer que l’art moderne et contemporain n’a eu de cesse de remettre en cause l’idée d’une autonomie du génie créateur et par voie de conséquence d’un mystère de l’intériorité. Il est donc fort amusant qu’on exige cela des machines et qu’on soit en ce domaine réactionnaire.
Une faculté n’est pas une chose enfermée dans une intériorité souveraine. Une faculté est rendue sensible et pensable dans sa constitution même : en la pensant, on la fait et elle nous fait parce qu’il y a un parallélisme de structures. Ainsi, approcher l’individuation chez Simondon ne peut se faire qu’en s’individuant dans le mouvement même de cette pensée. On pourrait dire de même pour les facultés kantiennes. Si on conçoit les conditions de possibilités ou transcendantales de cette façon, alors on peut s’interroger sur les conséquences des facultés anthropotechnologiques, c’est-à-dire de facultés qu’on affecte à deux dispositifs différents. Ne faudrait-il pas intégrer, dans le mouvement même de sa pensée, une part de technologique? Cette part n’est-elle pas déjà présente puisque notre pensée n’est pas elle-même enfermée dans une secrète intériorité mais est de part en part structurée par les supports d’inscription techniques? La question transcendantale n’est-elle pas alors indissociablement humaine et technique?