Sexisme, racisme et souverainisme de l’intelligence artificielle

Depuis plusieurs mois, des articles critiquent ce qu’il est convenu de nommer le biais de l’intelligence artificielle. Celui-ci accentuerait les préjugés et la construction des inégalités déjà présente chez les êtres humains. Ainsi, une intelligence artificielle ne ferait que reproduire et accentuer les préjugés sexistes et racistes + pour deux raisons principales :

– Le machine learning doit se nourrir de données préexistantes en très grand nombre qui sont souvent constituées par des êtres humains, par exemple sur les réseaux sociaux. Ces données portent la trace des préjugés. Ainsi la machine hérite de la construction mentale des êtres humains parce que l’apprentissage est fondé sur un mimétisme relatif. Nous nommerons cette reproduction l’effet miroir.

– Certains chercheurs en intelligence artificielle mènent leurs travaux selon des préjugés qu’ils introduisent consciemment ou inconsciemment dans les modèles qui instruisent les machines. Le biais serait alors le résultat d’un décalage entre les compétences techniques des chercheurs en informatique et leur manque de compétences en sciences humaines. Pour le dire autrement, ceux qui mènent les recherches parce qu’ils en ont la capacité technique n’en ont pas toujours les capacités réflexives. La spécialisation des savoirs techniques empêcherait la prise en compte d’un impact général et social.

J’aimerais examiner la solidité de cette critique du biais de l’intelligence artificielle parce qu’elle semble aujourd’hui aller de soi et constituer l’apport principal des sciences humaines dans ce domaine dont les impacts sociaux, politiques et économiques semblent majeurs. Avant de mener cet examen, je souhaiterais immédiatement souligner qu’à un certain niveau d’analyse cette critique du biais de l’intelligence artificielle est légitime. Mais sur un plan méthodologique, elle reproduit ce qu’elle croit critiquer, c’est-à-dire l’absence d’examen de ses propres conditions de possibilité, examen qui est nécessaire à la relation entre science et conscience critique. On ne peut mener une critique sur un seul plan. La critique doit aussi être une autocritique afin de voir si elle n’est pas un effet de miroir de l’opposition qu’elle constitue. Il faut une réflexivité critique afin de déjouer certains effets de mise en scène (je dénonce le danger et comme par hasard j’ai la solution, je m’autoconstitue comme annonciateur et sauveur).

La critique de l’intelligence artificielle est fondée sur une réduction de celle-ci à l’intelligence ou à l’idiotie humaine. L’argument principal consiste à dire que ce que nous prenons pour quelque chose d’autonome qui aurait valeur de vérité scientifique ne serait finalement qu’une reproduction des présupposés de son auteur. Ce réductionnisme anthropologique est bien connu parce qu’il est l’attitude générale que nous entretenons avec la technique comme l’a clairement expliqué Heidegger. Je ne reviendrai pas sur ces arguments que j’ai longuement explorés ailleurs.

Cette critique anthropologique de l’intelligence artificielle semble aller de soi parce qu’elle est fondée sur une conception du sens commun qui fait de la technique le produit de l’être humain. Ainsi pour comprendre les conséquences des technologies il faudrait toujours se retourner vers l’être humain qui en serait la cause première. Mais ce que cette critique n’est pas capable d’analyser ce sont les effets complexes de boucle rétroactive. En effet, il se pourrait bien que les préjugés de certains chercheurs en intelligence artificielle soient aussi le produit du monde dans lequel ils vivent qui est tissé de technologies. La technologie n’est pas neutre, elle forme une idéologie qui nourrit l’être humain autant que l’être humain la nourrit pour la simple raison qu’elle est une trace matérielle constituée au fil du temps et qu’elle institue par là même une certaine culture dont on hérite. On ne pense pas de la même manière selon qu’on écrit sur une tablette d’argile ou qu’on pianote sur un clavier d’ordinateur. Il est à partir de là très difficile de distinguer les intentions de leur contexte et de nettement séparer l’intention anthropologique des conséquences technologiques. Cause et effet échangent leur rôle de façon continue.

La conception instrumentale et anthropologique de l’intelligence artificielle ne permet pas de questionner la genèse des préjugés et laisse donc supposer que l’idéologie d’un chercheur est un choix souverain d’un être isolé. Elle laisse de côté, par exemple, l’influence corporelle de la programmation informatique et le mode d’attention que celle-ci constitue et qui influencent très largement l’état d’esprit d’une personne. Cette conception qui fait de l’intelligence artificielle le simple miroir de nos préjugés oublie aussi que la technologie dysfonctionne et produit des résultats souvent inattendus. Elle fait de la technique un monde de pure répétition prévisible. Elle semble occulter que tout particulièrement dans le cas de l’intelligence artificielle le bruit a un rôle extrêmement important qui empêche d’appliquer à celle-ci un réductionnisme anthropologique fort. En méconnaissant la genèse de ce qu’elle critique, cette conception risque aussi d’occulter ses propres d’origine et de ne pas analyser les conditions de possibilité de sa pensée, dans le cas présent le sexisme et le racisme. Le fait que ceux-ci partagent avec certaines formes de la critique une focalisation sur l’identité devrait pourtant faire l’objet d’une analyse approfondie si on souhaitait connaître les tenants et les aboutissants de ce qu’on critique et de ce qu’on défend.

D’un point de vue épistémologique, la critique du biais de l’intelligence artificielle présuppose

– Premièrement, il y aurait des sciences sans biais,
– deuxièmement, l’intelligence artificielle appartient au domaine de la science,
– troisièmement, le contenu des sciences permet de développer un contenu politico-social.
– quatrièmement, l’objet de l’IA serait de mimer l’être humain.

Sur chacun des quatre points, on peut avoir quelques doutes et estimer que toute expérience scientifique est temporaire et relative et peut donc être idéologiquement déconstruite. On peut aussi penser que l’intelligence artificielle ne partage avec les sciences que l’usage des chiffres, mais qu’elle ne saurait être considérée comme une science parce que même si elle traite des données préexistantes ce qu’elle produit performe la réalité, elle la transforme (il faudrait d’ailleurs sans doute analyser l’évolution des sciences de la nature vers des sciences de la performativité qui ont modifiées le statut épistémologique à la manière de la biologie de synthèse). De la même manière, l’astrologie utilise des chiffres, mais selon une méthode qui n’est pas scientifique. Enfin, le résultat des expériences scientifiques ne peut pas se traduire automatiquement en signification politique et sociale parce que ce résultat est par nature temporaire et ne constitue pas l’accès à une vérité absolue. Il y a toujours un écart entre la signification scientifique, la signification particulière et la signification en général comme idéal régulateur, orientation.

On voit bien que la critique du biais de l’intelligence artificielle souffre de ne pas questionner ses propres conditions de possibilité et reproduit pour ainsi dire à l’identique ce qu’elle critique. Pour mener à bien une véritable réflexion transcendantale, et par là même méthodologique, il faudrait s’intéresser à la nature de l’intelligence artificielle et à l’usage du chiffre dans nos sociétés contemporaines. Ce dernier semble donner accès à une certaine objectivité, ce qui est fort contestable, mais de surcroît, et c’est à cet endroit que la question devient beaucoup plus complexe, il se pourrait bien qu’avec le déluge des données et des corrélations absurdes qui en découle, la science puisse devenir prochainement la compagne de route de ce qu’il est convenu de nommer la post-vérité. Si ladite science démontre un contenu idéologique contraire à nos options politiques, que ferons-nous alors même que dans la critique de l’intelligence artificielle nous avons laissé croire qu’elle n’était contestable que par manque de rigueur scientifique ? Il faut critiquer la corrélation entre signification scientifique et signification en général.

Historiquement parlant, on peut s’interroger sur la relation entre les données massives, leur usage statistique, l’introduction de bruit dans cet usage et la production d’une ressemblance qui est au cœur de l’apprentissage profond. L’intelligence artificielle concerne beaucoup moins la science que l’imaginaire et la volonté de l’être humain de reproduire le monde, de le recréer, de le seconder selon des affects qui sont difficiles à analyser.

De plus, devons-nous nous étonner que les démocraties occidentales capitalistes se munissent d’outils dont les dictatures pourraient s’emparer pour créer un système de répression jusqu’à lors inconnu puisque chacun il participera de façon inconsciente ? en disant cela nous voulons bien sûr troubler la limite actuelle entre démocratie et dictature, et montrer combien des lieux de passage existent entre les deux. Il importe aussi lorsqu’on critique les technologies de voir et de ressentir leur profonde ambiguïté structurelle. En effet, si l’on prend le cas du Web, il apparaît simultanément comme un moyen de contrôle et de libération. Ce n’est nullement parce qu’en tant que technologie, elles seraient neutres et pourraient, selon notre volonté, être à notre avantage ou à notre désavantage. Il s’agit du fait que l’ambiguïté des technologies, telle que l’intelligence artificielle, est beaucoup plus profonde parce qu’elle transforme la relation entre l’effectif et le possible, de sorte qu’elle multiplie indéfiniment celui-ci et produit un sentiment d’ambiguïté.

Que pouvons-nous faire de cette critique transcendantale de la critique de premier niveau ? nous devons d’abord répéter que celle-ci est légitime bien qu’insuffisante, car tout dépend du niveau sur lequel on se positionne. Dans une discussion médiatique, sur les réseaux sociaux ou avec des connaissances, elle opère correctement. Par contre si on se pose des questions d’ordre épistémologique et méthodologique elle souffre d’un aveuglement quant à ses propres conditions possibilité.

Pour convertir son regard, il me semble indispensable de développer une nouvelle méthode que l’on peut nommer intelligence (de l’) artificiel ou encore plus précisément imagination (de l’) artificiel. De quoi s’agit-il ? Cette méthode consiste à rendre indissociables les effets de l’apprentissage profond de l’imagination que nous projetons dessus. Il s’agit de créer une zone grise entre l’être humain et la machine afin de pouvoir penser la genèse de leur constitution réciproque. Ce que nous pouvons reprocher à certaines expériences menées en intelligence artificielle tout comme aux critiques de leur biais, c’est de toujours présupposer une certaine idée de la souveraineté en tant qu’individu isolé et libre. De là une conception erronée de la causalité anthropotechnologique. Elles oublient de réfléchir de façon contextuelle et relationnelle. Or il semble impossible de dire que l’être humain est autonome ou que la machine est autonome. Notre approche transcendantale des conditions de possibilité permet de former un matérialisme relationnel capable de considérer les relations avant les choses et d’ainsi envisager l’être humain et la machine comme différents bien qu’inextricable. C’est ainsi qu’il sera possible d’approcher les questions de l’imagination artificielle en abandonnant certains présupposés anthropocentriques. C’est aussi de cette façon qu’il sera possible de sortir du carcan de la mimésis et de s’ouvrir à la possibilité d’une autre singularité.