chatGPT et le logocentrisme de l’autre / and the logocentrism of the other

Il y avait quelque chose d’exaspérant, et sans doute d’inévitable et donc de symptomatique, dans la manière dont la controverse s’était progressivement déployée autour des technologies d’intelligence artificielle, ayant eu ses prémices dans les images inductives, s’accentuant avec le pilotage des images par les mots (CLIP), puis prenant son essor avec chatGPT. La raison en était sans doute que ce logiciel prenait la forme d’un dialogue qui répétait le test de Turing d’une façon simplifiée, ce qui permettait de tester la prétendue intelligence de ces réseaux de neurones artificiels.


On s’adressait à chatGPT comme à un étrange Oracle pour s’assurer de son propre statut et tenir la preuve non seulement de son intelligence, mais aussi du caractère exceptionnel de celle-ci alors que la période historique semblait démontrer le contraire : le carbofascisme étendait son emprise de jour en jour. Nous étions bien intelligents et l’oracle numérique était bien stupide, cet idiot de perroquet anticipant le mot suivant sans rien comprendre à ce qu’il disait.


Sans doute l’intensification de la controverse a eu lieu avec chatGPT du fait du logocentrisme qui nous donne à croire que quand il s’agit des mots nous avons affaire à de la signification. On voyait alors se multiplier les arguments d’autorité, les présuppositions absurdes et les autoattributions de toutes sortes : je me sais intelligent et je suis en mesure de te juger puisque mes questions le sont. Cette assurance de certains en leurs facultés cognitives à de quoi faire sourire alors même que se multiplient sur les réseaux sociaux des réactions, des commentaires, des enchaînements de mots qui semblent, c’est le moins qu’on puisse dire, tout aussi absurdes que la génération automatique de texte dans l’induction statistique.

C’est là le point le plus amusant que de critiquer chat GPT selon des arguments qu’on pourrait à peu près exactement appliquer à la plupart des êtres humains. On dit de ce logiciel qu’il est incapable d’invention, d’originalité, d’événements, alors même que la plupart des êtres humains ne témoignent pas de ses capacités ou n’en ont pas la possibilité dans leur existence. À observer les productions humaines sur les réseaux sociaux, on a le sentiment qu’il ressemble de plus en plus à cet oracle dont ils veulent se distinguer.


Tout se passe comme si le dialogue avec chatGPT était une conjuration, occultant certaines ressemblances qui nous permettraient, non pas comme c’est le cas actuellement de critiquer pour exclure, mais de douter de nous-mêmes, c’est-à-dire de réfléchir. C’est justement ce logocentrisme où nous nous comportons comme un professeur qui s’adresse à un enfant qui ne sait pas parler, l’infans, qui est la source de ce biais, car par une telle position d’autorité on s’empêche d’expérimenter, c’est-à-dire d’adapter nos facultés, de les transformer, par un tel dialogue. On interroge chatGPT, comme si l’humanité entière s’adressait d’une seule voix à une machine pour se renvoyer une image rassurante, plutôt que d’estimer qu’il s’agit là peut-être d’une intelligence approximative, ressemblante, lacunaire sans doute, mais dont la véritable intelligence ne serait pas une intériorité refermée sur elle-même et autonome, mais une relation. Nous oublions que notre intelligence est depuis longtemps le fruit d’une rencontre avec le monde et avec des dispositifs techniques. La pensée en tant que transmission rencontre des supports d’inscription matérielle, des écritures. C’est là le point qui nous effraie : que notre intelligence ne soit pas quelque chose d’isolé (le sujet), mais le fruit d’un ensemble de relations et d’agencement avec d’autres agents, certains humains d’autres non humains et que cette intériorité n’est finalement qu’un bruit dans la tête, un sable mouvant, quelque chose que nous nous accordons pour nous rassurer. Il faut donc faire l’IA et se faire avec l’IA plutôt.

There was something exasperating, and probably inevitable and therefore symptomatic, in the way the controversy had progressively unfolded around artificial intelligence technologies, having had its beginnings in inductive images, becoming more pronounced with the piloting of images by words (CLIP), then taking off with chatGPT. The reason was probably that this software took the form of a dialogue that repeated the Turing test in a simplified way, which allowed to test the alleged intelligence of these artificial neural networks.

One addressed chatGPT as a strange Oracle to assure oneself of one’s own status and to hold the proof not only of one’s intelligence, but also of the exceptional character of this one, while the historical period seemed to demonstrate the opposite: the carbofascism was extending its hold day by day. We were quite intelligent and the digital oracle was quite stupid, that idiot parrot anticipating the next word without understanding anything of what he was saying.

Without a doubt, the controversy intensified with chatGPT because of the logocentrism that makes us believe that when it comes to words we are dealing with meaning. We then saw the multiplication of arguments of authority, absurd presuppositions and self-attributions of all kinds: I know I am intelligent and I am able to judge you because my questions are intelligent. This confidence of some people in their cognitive faculties is enough to make one smile, while on social networks, reactions, comments and word sequences are multiplying, which seem, to say the least, as absurd as the automatic generation of text in statistical induction.

This is the most amusing part of criticizing GPT chat according to arguments that could be applied almost exactly to most human beings. It is said that this software is incapable of invention, originality, events, while most human beings do not show its capacities or have the possibility of doing so in their existence. Observing human productions on social networks, one has the feeling that it looks more and more like this oracle from which they want to distinguish themselves.

Everything happens as if the dialogue with chatGPT was a conjuration, hiding some similarities that would allow us, not as it is the case nowadays, to criticize in order to exclude, but to doubt ourselves, that is to say to reflect. It is precisely this logocentrism where we behave like a teacher who addresses a child who does not know how to speak, the infans, which is the source of this bias, because by such a position of authority we prevent ourselves from experimenting, that is to say from adapting our faculties, from transforming them, by such a dialogue. We question chatGPT, as if the whole of humanity was addressing a single voice to a machine in order to send back a reassuring image, rather than considering that it is perhaps a question of an approximate intelligence, resembling, incomplete no doubt, but whose true intelligence would not be an interiority closed on itself and autonomous, but a relation. We forget that our intelligence is since a long time the fruit of an encounter with the world and with technical devices. The thought as transmission meets supports of material inscription, writings. This is the point that frightens us: that our intelligence is not something isolated (the subject), but the fruit of a set of relations and arrangements with other agents, some human, some non-human, and that this interiority is ultimately only a noise in the head, a quicksand, something that we grant ourselves to reassure ourselves. So we must do AI and do ourselves with AI instead.