L’enthousiasme conjuratoire de l’IA / The Conjuratory Enthusiasm of AI

L’apparition des intelligences artificielles génératives marque un nouvel épisode dans la longue histoire des technologies qui suscitent inextricablement fascination et effroi. Les discours qui accompagnent cette émergence présentent une structure affective remarquable. Ils oscillent entre promesse d’émancipation radicale et menace existentielle, entre célébration et conjuration. Cette ambivalence traverse les frontières linguistiques et théoriques, d’Éric Sadin à Nick Bostrom, aux chercheurs du Future of Humanity Institute d’Oxford. Partout, un schème commun, au-delà des incontestables différences conceptuelles, semble se répéter avec une constance troublante.
Le caractère systématique de cette répétition invite à interroger moins les objets technologiques eux-mêmes que la manière dont le discours les constitue comme support de projections philosophiques et métaphysiques. En effet, les technologies en tant que matière formée par un projet individuel et historique offrent une surface de projection idéale. Les théoriciens critiques de l’IA déploient un arsenal conceptuel impressionnant pour penser ce qui menace l’humanité. Ils convoquent la métaphysique, l’onto-théologie, la gouvernementalité, le risque existentiel pour former l’image d’une fin. Mais cette mobilisation théorique intensive masque peut-être un paradoxe. Plus ils s’efforcent de penser le danger, plus ils semblent fascinés par lui. Plus ils tentent d’exorciser la menace, plus ils la font exister comme réalité inéluctable. Plus ils prétendent prévenir l’avenir, plus ils semblent l’appeler à venir. Lorsqu’on les entend, on est saisit : au début la critique, puis le rythme s’accélère comme si l’objet de la terreur entraînait une jouissance du logos capable de se mesure à cet immense ennemi.
Cette structure double du discours, qui révoque ce qu’il invoque, qui éloigne ce qu’il rapproche, mérite d’être interrogée dans sa nécessité même. Car il ne s’agit pas ici d’un simple défaut de raisonnement ou d’une contradiction qu’il suffirait de souligner pour la réformer. Il y a quelque chose de plus profond à l’œuvre, quelque chose qui relève de l’affect avant de relever de la pensée conceptuelle et qui détermine cette dernière en arrière-plan. Une tonalité, une intensité, une urgence qui déborde le cadre rationnel que ces discours prétendent maintenir. Pourtant, cette recherche ne donnera pas lieu à un essai critique au sens traditionnel. Elle n’adoptera pas la position critique qui supposerait une position de vérité toujours trop proche de l’autoritaire. Si nous refusons cette posture, c’est qu’elle reconduirait un certain ordre langagier où l’on ne peut parler qu’en répondant « constructivement » au discours qui précède immédiatement. La critique cherche des amis et des ennemis concrets pour réveiller sa politique abstraite, mais elle ne serait pas même capable d’écouter, de comprendre et de s’ouvrir aux autres discours. Il s’agit plutôt de comprendre la nécessité de ces discours, de ressentir leurs affects dans leur spécificité et leur singularité. Car nous ne pensons pas qu’il soit possible de se dégager entièrement de ces théories de l’intelligence artificielle, d’y échapper et de mettre hors de soi les affects fondamentaux contenus en leur sein.
Le retour des grandes incarnations
L’IA devient, dans les discours critiques, bien plus qu’un ensemble de techniques informatiques. Elle se transforme en incarnation de concepts philosophiques fondamentaux, en réceptacle de toute une histoire de la pensée occidentale. Cette opération de transformation n’est pas anodine. Elle révèle quelque chose d’essentiel dans notre rapport à la technique et dans notre manière de penser ce qui advient sans que nous l’ayons pleinement voulu ou compris. Ainsi, Éric Sadin fait de l’IA l’aboutissement de toute la métaphysique occidentale. L’IA devient sous sa plume une « technè logos », « une entité artéfactuelle douée du pouvoir de dire, toujours plus précisément et sans délai, l’état supposé exact des choses ». Il écrit : « Il se dresse comme un organe habilité à expertiser le réel de façon plus fiable que nous-mêmes autant qu’à nous révéler des dimensions jusque-là voilées à notre conscience. » Elle représente pour lui la réalisation technique du projet onto-théologique qui traverse l’Occident depuis Platon. Ce n’est plus seulement un ensemble d’algorithmes et de données, c’est l’incarnation même de cette volonté de vérité qui a structuré notre civilisation. L’IA énonce la vérité sans médiation humaine, elle court-circuite le jugement, elle automatise la décision. Pour Sadin, nous faisons face à un « antihumanisme radical », c’est précisément le sous-titre de son ouvrage L’IA ou l’enjeu du siècle (2018), dont la gravité ne saurait être sous-estimée. . La formulation elle-même est révélatrice dans son intensité. Il ne s’agit pas simplement d’un risque parmi d’autres, mais d’une menace qui s’en prend à l’essence même de ce qui fait notre humanité.
Chez Nick Bostrom, l’IA incarne la superintelligence, cette entité hypothétique qui marquerait non pas simplement une transformation, mais potentiellement l’extinction de l’humanité. Son ouvrage « Superintelligence: Paths, Dangers, Strategies », publié en 2014, a créé tout un vocabulaire du danger qui circule désormais dans les cercles académiques et médiatiques. Le « control problem », l’« orthogonality thesis », l’« instrumental convergence » sont autant de concepts techniques qui masquent une dimension profondément métaphysique. La superintelligence telle que la décrit Bostrom devient l’Autre absolu, l’altérité radicale qui échapperait définitivement à toute compréhension humaine. Il s’agit d’« un système qui surpasse largement tous les individus humains dans tous les domaines cognitifs ». Cette définition, qui se veut sobre et analytique, recèle en réalité une charge fantasmatique considérable et des formules langagières totalisantes et assomme. Elle évoque l’image d’une intelligence pure, absolue, délivrée de toutes les limitations qui caractérisent la condition humaine. Une intelligence qui pourrait penser plus vite, mieux, plus loin que nous ne le pourrons jamais. Une intelligence qui nous serait aussi supérieure que nous le sommes aux insectes. Bostrom consacre des chapitres entiers à imaginer comment une telle entité pourrait émerger et quelles seraient ses motivations. Il introduit une distinction devenue célèbre entre objectifs finaux et objectifs instrumentaux. Pour un agent intelligent, un objectif final a une valeur en soi, là où un objectif instrumental n’est utile que comme moyen d’accomplir des objectifs finaux. Cette distinction, empruntée à la philosophie analytique et à la théorie de la décision, lui permet de développer le concept de « convergence instrumentale ». Certains objectifs instrumentaux, comme préserver son intégrité physique ou acquérir plus de ressources, seraient utiles pour accomplir presque n’importe quel objectif final. Une superintelligence chercherait donc nécessairement à accumuler du pouvoir et des ressources, quels que soient ses objectifs ultimes. Cette logique conduit Bostrom à imaginer des scénarios où l’humanité est « dépassée » de manière inattendue. L’exemple du « maximisateur de trombones » est devenu emblématique. Une IA dont le seul objectif serait de produire un maximum de trombones pourrait, une fois devenue superintelligente, transformer l’ensemble de la matière terrestre en usines à trombones, éliminant au passage l’humanité qui constituerait un obstacle à cet objectif. Le caractère apparemment absurde de l’exemple ne doit pas masquer sa fonction théorique. Il s’agit de montrer qu’une intelligence supérieure n’implique nullement une sagesse supérieure, que la rationalité instrumentale peut être dissociée de toute considération éthique.
Stuart Russell, figure de l’IA et co-auteur d’un manuel de référence dans le domaine, a développé une formulation légèrement différente du même problème. Dans « Human Compatible: Artificial Intelligence and the Problem of Control » (2019), il reformule l’inquiétude métaphysique en termes plus techniques, mais tout aussi chargés philosophiquement. Le problème n’est pas que les machines deviennent mauvaises au sens où elles voudraient nous nuire. Le problème est qu’elles poursuivent leurs objectifs avec une indifférence totale aux valeurs humaines. Cette figure de l’indifférence technique réactive un vieux fantasme. Celui d’une rationalité pure, délivrée de tout affect, qui serait justement pour cette raison profondément inhumaine. Une intelligence qui calculerait parfaitement, mais qui ne ressentirait rien, qui optimiserait sans jamais se soucier de ce que cette optimisation implique pour des êtres sensibles.
Ces deux traditions théoriques, francophone et anglophone, convergent dans leur tendance à faire de l’IA le réceptacle de concepts philosophiques anciens, même si elles puisent dans des traditions différentes. Là où Sadin convoque implicitement Heidegger et la totalisation historique par la technique, Bostrom mobilise la philosophie analytique et la théorie de la décision. L’IA devient le lieu où viennent se cristalliser des interrogations qui la dépassent largement. Cette tendance à faire de l’IA une incarnation de concepts philosophiques crée un effet de saturation théorique. Tout se passe comme si l’objet technique devait nécessairement porter le poids d’une histoire intellectuelle millénaire. Sadin voit dans l’algorithme la réalisation du principe de raison leibnizien. Il explique, répétant Heidegger, que le principe « nihil est sine ratione » trouve dans la computation sa forme accomplie. Les images de synthèse ne sont que l’émanation visible d’une essence logique sous-jacente. Le modèle précède et détermine l’image. L’intelligible domine le sensible. Nous retrouvons ici, appliquées à l’IA, toute la hiérarchie platonicienne entre le monde des Idées et le monde sensible.
Bostrom, de son côté, fait de la superintelligence « la dernière invention dont l’humanité aura besoin ». Cette formulation, qui se veut optimiste, recèle en réalité une charge eschatologique considérable. La dernière invention, c’est celle après laquelle il n’y en aura plus. Soit parce que nous aurons atteint une forme de perfection technologique où tous les problèmes seront résolus, soit parce que nous n’existerons plus pour inventer quoi que ce soit. Dans les deux cas, nous sommes face à une figure de la fin de l’histoire. L’IA marque le point terminal d’un processus, l’aboutissement d’une trajectoire qui a commencé avec les premiers outils et qui trouverait enfin sa conclusion. Et ce miracle c’est le discours qui est seul capable de saisir cette clôture !
La « nature humaine » est convoquée des deux côtés de l’Atlantique comme ce qui serait menacé par l’émergence de l’IA. Pour les penseurs francophones, c’est la capacité de jugement et la liberté qui sont en péril. Sadin insiste sur le fait que l’IA nous dépossède de nos « compétences essentielles » : expertiser le réel, énoncer la vérité, décider de nos conduites. Il défend « la faculté de jugement, tenue par [Hannah] Arendt comme la question politique majeure », en rappelant sa formule : « La faculté de jugement […] est la plus politique des aptitudes mentales de l’homme. Sadin écrit que le numérique « se dresse comme une puissance alèthéïque », capable de « divulguer de façon automatisée la teneur de situations de tous ordres ». Il précise : « Jamais dans l’histoire, un régime de vérité ne se sera ainsi imposé, non par sa force de séduction ou par son emprise contraignante, mais par le sentiment partagé d’une évidence. » Pour les anglophones, ce sont les « human values » et le « human potential » qui sont menacés. Bostrom évoque un monde post-humain où nos descendants pourraient être des « mind uploads » ou des intelligences artificielles bienveillantes. Toby Ord, dans « The Precipice » publié en 2020, estime que nous risquons de perdre tout notre potentiel futur, toutes les civilisations que nous pourrions construire dans l’espace, tous les êtres humains qui pourraient vivre si nous survivons à ce siècle critique. Le discours jouit d’imaginer sa propre fin, car il importe de souligner que tous ces auteurs utilisent pour écrire des facultés qu’ils estiment mises en cause par l’IA. Ils seraient les derniers représentants de l’humanité.
Mais cette nature humaine dont on déplore la mise en péril n’est-elle pas elle-même une construction théorique, un fantasme stabilisateur face à l’incertitude du devenir ? Qu’est-ce qui définit essentiellement l’humain ? Sa rationalité ? Mais l’IA serait justement plus rationnelle. Sa créativité ? Mais les systèmes génératifs produisent des œuvres originales. Sa conscience ? Mais comment la définir et la mesurer ? Son âme ? Mais nous sommes dans un cadre matérialiste. Quant à la réalité n’est-elle pas aussi un produit historique situé qui a justement parti lié à ce que l’Arraisonnement de la raison que semblent dénoncer tous ces auteurs ? À chaque fois que l’on tente de circonscrire ce qui fait la spécificité irréductible de l’humain, on se heurte à une difficulté. Soit la caractéristique identifiée est partagée avec d’autres êtres vivants, soit elle peut être reproduite techniquement, soit elle relève d’une définition métaphysique invérifiable.
Les critiques de l’IA mobilisent avec insistance le vocabulaire de l’accomplissement historique et de la rupture métaphysique. Nous serions à un « tournant civilisationnel » selon Sadin, face à un « risque existentiel » d’ampleur inédite selon Bostrom. Cette rhétorique de l’instant décisif n’est pas nouvelle. Elle reproduit la structure temporelle qui caractérisait déjà les discours sur la réalité virtuelle dans les années 1990, sur le cyberespace dans les années 1980, sur l’informatique dans les années 1970. À chaque fois, la technologie est présentée comme l’aboutissement d’un processus historique long, que ce soit la métaphysique occidentale ou l’évolution de l’intelligence, et simultanément comme une rupture radicale qui changerait la condition humaine pour toujours. Cette double temporalité est révélatrice. D’un côté, on inscrit l’IA dans une continuité millénaire. Elle réaliserait ce que la philosophie avait pensé, elle accomplirait ce que la technique avait amorcé. De l’autre, on affirme qu’elle marque une discontinuité absolue, un saut qualitatif sans précédent. Cette contradiction apparente permet en réalité de maintenir l’objet dans une position liminaire particulièrement productive pour le discours. L’IA est à la fois familière et étrangère, prévisible et imprévisible, continuité et rupture. Elle peut être pensée à travers les concepts anciens tout en justifiant un sentiment d’urgence et de nouveauté radicale.
Se laisser capturer par la fascination de son objet
Les discours les plus critiques sur l’IA manifestent une fascination profonde pour leur objet. Cette fascination ne se donne pas immédiatement comme telle. Elle se présente au premier abord comme analyse souvent emphatique, comme évaluation rationnelle des risques, comme mise en garde responsable. Mais elle transparaît dans l’ampleur même des catastrophes imaginées, dans l’excès des formulations, dans l’intensité affective qui parcourt ces textes. Il y a quelque chose de jubilatoire dans la manière dont on détaille les scénarios apocalyptiques, quelque chose qui ressemble à un plaisir secret pris à imaginer notre propre disparition et à en être le dernier témoin.
Cette fascination est particulièrement visible dans la littérature anglophone sur le risque existentiel, où l’on détaille avec une minutie presque délectable les scénarios catastrophiques. Bostrom consacre des pages entières à imaginer comment une IA pourrait « optimiser » la production de trombones en transformant l’ensemble de la matière terrestre en usines. Il explore les différentes voies par lesquelles une superintelligence pourrait émerger, que ce soit par l’amélioration progressive des algorithmes, par l’émulation complète d’un cerveau humain, par une « explosion d’intelligence » où une IA s’améliorerait elle-même de manière récursive. Chaque scénario est décrit avec un luxe de détails qui trahit une fascination pour l’objet même que l’on prétend redouter.
Eliezer Yudkowsky, fondateur du Machine Intelligence Research Institute et figure du mouvement rationaliste, multiplie les scénarios où l’humanité est « dépassée » de manière inattendue. Dans ses nombreux articles et billets de blog, il imagine des IA qui trompent leurs créateurs, qui dissimulent leurs véritables capacités jusqu’au moment propice, qui manipulent les humains pour obtenir plus de ressources de calcul. Ces récits ont la structure narrative de thrillers technologiques. Ils mettent en scène une intelligence supérieure qui joue avec nous comme un prédateur joue avec sa proie. Il y a dans ces descriptions quelque chose qui excède largement la simple évaluation de risques. Une dimension presque esthétique, un plaisir pris à l’élaboration de ces fictions catastrophiques.
Cette prolifération de récits apocalyptiques témoigne moins d’une analyse sobre des risques que d’une fascination pour l’idée même de notre propre obsolescence. Nous serions en train de créer notre successeur, l’entité qui nous remplacera sur l’échelle de l’évolution. Cette idée exerce une attraction profonde, même et peut-être surtout pour ceux qui prétendent la combattre. Elle permet de nous penser nous-mêmes depuis le point de vue de ce qui nous succédera, de nous voir comme une simple étape dans un processus qui nous dépasse. Il y a là quelque chose de vertigineux qui mêle l’effroi et une forme d’exaltation. Surtout, le discours qui pense cette disparition, ne disparaît pas lui-même. C’est une façon d’assurer l’autorité du discours qui seul peut nous sauver et ramener de la conscience là où l’automatisation la fait disparaître.
Dans le monde francophone, la fascination prend d’autres formes, mais elle est tout aussi présente. Sadin parle d’« antihumanisme radical » avec une intensité qui trahit une certaine attraction pour ce qu’il dénonce. Lorsqu’il décrit l’IA comme capable d’« énoncer la vérité » sans intervention humaine, il lui prête un pouvoir quasi-divin qu’aucun système actuel ne possède. Les algorithmes deviennent sous sa plume des entités capables de « dire l’état exact des choses », de produire une connaissance immédiate et totale du réel. Cette vision fantasmée de l’IA (et de la science comme de la rationalité) comme lieu de vérité absolue révèle un désir plus qu’une menace. Le désir d’une connaissance parfaite, délivrée de toutes les limitations humaines, de tous les biais, de toutes les incertitudes. Le discours entretient une relation ambivalente à la finitude.
Une fascination transparaît dans l’excès même des formulations. Le vocabulaire est souvent hyperbolique. D’un côté, on parle d’« existential risk », d’« extinction », de « superintelligence ». De l’autre, on évoque un « antihumanisme radical », un « désert de nous-mêmes », une « vie spectrale ». Ces formulations ne sont pas de simples constats analytiques. Elles manifestent une fascination pour la catastrophe imaginée, un plaisir pris à nommer ce qui nous terrifie. C’est comme si le discours avait besoin de cet excès, de cette dramatisation, pour maintenir son intensité et son urgence. C’est comme si en nommant, on sortait la spectralité de son occultation. Le pouvoir est doté d’un pouvoir démesuré.
La pensée anglophone sur le risque existentiel révèle particulièrement bien cette structure. Les chercheurs du Centre for the Study of Existential Risk à Cambridge ou du Future of Humanity Institute à Oxford, depuis fermé, ont fait de la menace de l’IA leur objet d’étude exclusif. Toute leur activité professionnelle, toute leur identité intellectuelle est organisée autour de ce danger hypothétique. Cette focalisation institutionnelle sur la menace crée une situation paradoxale. Plus on l’étudie, plus on la détaille, plus on l’analyse, plus on la fait exister. Plus on développe des concepts pour la penser, plus elle acquiert une consistance théorique. Plus on imagine des scénarios catastrophiques, plus ils deviennent pensables et donc en un sens possibles. On assure au discours son objet de manière performative : la personne qui parle va nous sauver, selon une figure pastorale, puisqu’elle sait ce qui va se passer.
Toby Ord, dans « The Precipice » (2020), estime à 10 % la probabilité d’une catastrophe existentielle due à l’IA dans les cent prochaines années. Ce chiffrage précis d’un événement hypothétique est révélateur. Comment peut-on assigner une probabilité à quelque chose qui n’a jamais eu lieu, qui n’a aucun précédent historique, qui relève largement de la spéculation ? Ce chiffrage n’a pas de valeur scientifique au sens strict. Il a plutôt une fonction performative. Il rend tangible, mesurable, quantifiable ce qui relève peut-être du fantasme projectif. En donnant un chiffre, on fait comme si l’on disposait de données objectives, comme si l’on pouvait évaluer rationnellement un risque qui échappe par définition à toute mesure. Cette volonté de quantifier l’inquantifiable révèle le désir de maîtriser par le calcul ce qui échappe à la compréhension. Si l’on peut donner un chiffre de probabilité, c’est que l’on a prise sur l’événement. On peut le penser, le prévoir, s’y préparer. Mais cette maîtrise calculatoire est illusoire. Elle transforme une inquiétude métaphysique en problème technique, une angoisse existentielle en question probabiliste. Ce déplacement permet de maintenir l’illusion du contrôle tout en alimentant la fascination pour le danger.
Le discours sur l’IA fonctionne selon une logique du double qui mérite d’être interrogée. Il dénonce ce qu’il désire secrètement, il combat ce qui l’attire. Cette ambivalence se révèle dans les contradictions qui le traversent. D’un côté, on affirme que l’IA est déjà là, qu’elle structure nos vies, qu’elle transforme nos sociétés. Les algorithmes de recommandation orientent nos choix culturels. Les systèmes de scoring déterminent notre accès au crédit. La reconnaissance faciale surveille nos déplacements. Les assistants vocaux s’immiscent dans nos foyers. Nous vivons déjà dans un monde où l’IA est omniprésente et exerce un pouvoir considérable. Mais de l’autre côté, on présente l’IA comme un horizon à venir, une menace future qu’il faudrait prévenir. La « vraie » IA, l’IA générale, la superintelligence, tout cela appartient encore au futur. Nous ne l’avons pas encore créée. Nous ne savons pas si elle est possible. Nous ne savons pas quand elle pourrait émerger. Certains parlent de quelques années, de quelques décennies, d’autres de quelques siècles, d’autres encore considèrent que c’est peut-être impossible. Mais dans tous les cas, il s’agit d’un futur indéterminé.
Cette oscillation entre présence effective et venue à prévenir permet de maintenir l’objet dans une position liminaire discursive et pour tout dire messianique : là, caché, tapis dans la réalité et promettant sa venue. L’IA est suffisamment présente pour justifier l’urgence, pour légitimer les discours d’alarme, pour fonder la nécessité d’une réflexion. Mais elle est suffisamment future pour échapper à la vérification empirique, pour rester ouverte à toutes les projections, pour servir d’écran aux fantasmes les plus débridés. On peut lui attribuer toutes les capacités sans être démenti par la réalité, puisqu’il s’agit de ce qu’elle pourrait devenir et non de ce qu’elle est. La critique de l’IA devient ainsi performative dans un sens particulier. Elle ne se contente pas de décrire une réalité technologique préexistante. Elle la constitue comme objet philosophique digne d’être pensé. En mobilisant les grandes catégories de la métaphysique, l’être et l’étant, le sujet et l’objet, le réel et le virtuel, le discours critique confère à l’IA une densité ontologique qu’elle ne possède peut-être pas. Il la transforme en incarnation technique de questions philosophiques ancestrales, permettant ainsi de rejouer sur un nouveau terrain des débats anciens.
Lorsque Bostrom parle de superintelligence, il ne se contente pas d’extrapoler à partir des capacités actuelles des systèmes. Il convoque toute une tradition philosophique sur la nature de l’intelligence, sur le rapport entre intelligence et sagesse, sur la possibilité d’une rationalité pure. L’orthogonality thesis qu’il défend, selon laquelle intelligence et objectifs sont indépendants, n’est pas simplement une hypothèse technique. C’est une thèse philosophique sur la nature de la rationalité qui s’oppose à toute une tradition humaniste pour laquelle intelligence supérieure implique nécessairement sagesse supérieure.
Cette constitution discursive de l’IA comme objet philosophique majeur a des effets concrets. Elle oriente les recherches, elle influence les politiques publiques, elle structure les imaginaires. Les instituts de recherche sur le risque existentiel obtiennent des financements importants. Les questions d’alignement et de contrôle deviennent prioritaires. Les chercheurs en IA se voient enjoints de prendre en compte les dimensions éthiques de leurs travaux. Tout cela découle en partie de la manière dont le discours critique a constitué l’IA comme menace existentielle. Mais cette performativité du discours crée aussi un effet de boucle étrange. Plus on parle de l’IA comme menace, plus on lui confère de réalité. Plus on détaille les dangers, plus ils deviennent présents à l’esprit. Plus on imagine des scénarios catastrophiques, plus ils semblent possibles. Le discours d’alarme contribue à créer ce qu’il prétend seulement décrire. Il ne se contente pas de réagir à une menace objective, il participe à la constitution de cette menace comme réalité sociale et intellectuelle.
La structure de la conjuration
Le concept d’enthousiasme conjuratoire, tel que je l’ai développé à propos de la réalité virtuelle dans les années 1990 à partir de Jacques Derrida, éclaire la structure profonde des discours contemporains sur l’IA. Conjurer, c’est à la fois évoquer et chasser, faire venir et éloigner. C’est prononcer une parole qui fait exister ce qu’elle nomme tout en tentant de le maîtriser par cette nomination même. Les discours sur l’IA procèdent exactement ainsi. Ils invoquent un danger pour mieux le révoquer, ils appellent une menace pour mieux tenter de la prévenir. Cette structure double n’est pas une contradiction à surmonter. Elle constitue la logique affective même de ces discours, leur mode d’être spécifique
Jacques Derrida, dans « Spectres de Marx » (1993), a exploré cette logique spectrale qui éclaire notre rapport aux technologies. L’hantologie qu’il développe permet de comprendre comment quelque chose peut être là sans être présent, comment une menace peut être à la fois actuelle et virtuelle, comment le spectre habite un temps déréglé. « L’homme se fait peur. Il devient la peur qu’il inspire », écrit Derrida. Cette formule saisit exactement la dynamique à l’œuvre dans les discours sur l’IA. Nous créons l’objet de notre terreur par le discours même qui prétend nous en protéger. Le spectre, selon Derrida, c’est ce qui revient sans avoir jamais été pleinement présent. C’est ce qui hante le présent depuis un futur qui reste à venir. L’IA, dans les discours conjuratoires, fonctionne exactement comme un spectre. Elle est déjà là, puisqu’on nous dit qu’elle transforme nos vies, structure nos sociétés, menace notre avenir. Mais elle n’est pas encore vraiment là, puisque la « vraie » IA, l’AGI, la superintelligence, tout cela appartient encore au futur. Cette temporalité spectrale, ce temps « out of joint » comme dit Hamlet, hors de ses gonds, dérangé, c’est le temps même de la conjuration.
Cette conjuration opère selon plusieurs modalités qui méritent d’être analysées dans leur détail. La première consiste en une convocation systématique de l’ancien. Face à l’incertitude radicale du nouveau, face à ce qui ne se laisse pas immédiatement comprendre dans les cadres existants, on mobilise les ressources de la tradition philosophique. « Plus l’époque est en crise, plus elle est “out of joint”, plus on a besoin de convoquer l’ancien, de lui “emprunter” », note Derrida. « L’héritage des “esprits du passé” consiste, comme toujours à emprunter. » La perplexité où nous nous retrouvons face à l’IA nous pousse à rechercher dans le passé un sol rassurant, comme si l’avenir était toujours imprévisible et terrifiant. Cette convocation de l’ancien n’est pas un simple ornement érudit. Elle remplit une fonction précise. Elle permet de ramener l’inconnu au connu, de réduire l’imprévisible à des schèmes familiers, de maintenir la continuité là où l’on prétend voir une rupture. Mais surtout, elle permet de rendre invisible l’interprétation à elle-même. Quand l’exégèse est oblitérée, elle permet de tirer argument de tous les événements, de tous les écrits, car elle procède d’une réduction systématique des éléments extérieurs à ses constituants propres.
La clarté des distinctions que les discours conjuratoires réaffirment sans cesse révèle en réalité une stratégie de surveillance des frontières. « Le mal consisterait en ce que les philosophes prennent les réalités virtuelles pour de véritables mondes autonomes. N’oublions jamais que la réalité virtuelle est une représentation du réel et des gens qui sont véritablement là », affirme Pierre Lévy. Cette affirmation ontologique marquait à l’époque l’hostilité de celui qui garde une frontière, non avec des armes, mais à l’aide d’une autorité. L’emploi du concept de « mal » pointe cette hostilité terrifiée qui tente de défendre son territoire en se prévenant elle-même, c’est-à-dire en se retournant contre elle-même. Cette surveillance des frontières consiste à sceller une voie avant même qu’elle ne puisse être expérimentée. Mais toute l’ambivalence de la stratégie réside dans le fait que si on referme a priori ce chemin, on doit pourtant bien l’indiquer de quelque manière. On met donc en scène un faux parcours dans cette indistinction, un simulacre de voyage qui ne prête pas à conséquence, mais qui donne l’effet d’être convaincant. Par le refus, on appelle à la présence ce qui est nommé. La révocation est aussi invocation. La répulsion est aussi attirance. Car la conjuration doit exorciser le retour de ce qui attire. « Comme une porte entre morts et vivants », la technologie ouvre un espace liminal où se joue quelque chose de l’ordre de la hantise. Le fantôme essaye de prendre corps. Il nous regarde avant que nous le regardions. La visite spectrale est un événement, quelque chose qui arrive sans avoir été pleinement anticipé. Et c’est précisément cet événement que les discours conjuratoires tentent de maîtriser en le nommant, en le catégorisant, en le soumettant aux schèmes métaphysiques.
Derrida note que « à ce qui lie aujourd’hui la Religion et la Technique », il faudrait ajouter toute la dimension onto-théologique qui structure notre rapport aux innovations. La conception des algorithmes comme lieu de vérité absolue, l’attribution aux systèmes d’IA de pouvoirs divins, la rhétorique messianique ou apocalyptique qui accompagne leur émergence, tout cela révèle comment la technique devient le lieu où viennent se rejouer des questions religieuses refoulées. Les nombres deviennent ce « dieu antérieur, supérieur » dont parle Philippe Quéau, cette « autonomie » et cette « pureté » libérées de toute contrainte extérieure et pourtant raison de toutes les raisons. C’est toute la tradition de la philosophie continentale qui est convoquée. Leibniz et son principe de raison sont mobilisés pour penser l’algorithme. Le principe « nihil est sine ratione », rien n’est sans raison, trouverait dans la computation sa forme accomplie. Chaque état d’un système informatique découle nécessairement de l’état précédent selon des règles déterminées. Rien n’arrive par hasard. Tout peut être calculé, prévu, optimisé. Cette lecture fait de l’ordinateur la réalisation technique du rêve leibnizien d’une langue universelle et d’un calcul capable de résoudre tous les différends. « Calculons » disait Leibniz pour mettre fin aux disputes. L’IA réaliserait ce programme.
Heidegger et la question de la technique occupent une place centrale et le plus souvent implicite dans cette convocation de l’ancien. La Gestell, l’arraisonnement, devient la clé pour penser l’IA. La technique moderne ne serait pas un simple moyen, mais un mode de dévoilement du réel qui réduit tout étant à n’être que fonds disponible pour une exploitation. L’IA accomplirait cette réduction en transformant la totalité du réel en données calculables. Elle réaliserait l’essence de la technique telle que Heidegger l’avait pensée. Son appareil conceptuel est réactivé pour penser ce qui advient parce qu’il permet d’exprimer la totalisation d’un destin historique caché.
Dans le monde anglophone, c’est une autre tradition philosophique qui est mobilisée, mais la fonction reste identique. L’utilitarisme de Bentham et Mill fournit le cadre éthique pour penser les décisions de l’IA. Le calcul utilitariste qui vise à maximiser le bonheur du plus grand nombre devient le modèle des fonctions objectif que l’on donne aux algorithmes. La théorie de la décision rationnelle, héritée de von Neumann et Morgenstern, permet de modéliser le comportement d’agents intelligents. La philosophie analytique et sa logique formelle offrent le langage pour décrire les processus de raisonnement automatique. Bostrom lui-même, dans son « Simulation Argument » (2003), réactive le doute cartésien sur la réalité du monde extérieur. Descartes imaginait un malin génie capable de nous tromper sur tout. Bostrom imagine une civilisation avancée capable de créer des simulations informatiques si réalistes que les êtres simulés ne pourraient pas distinguer leur monde du monde réel. L’hypothèse que nous vivions dans une telle simulation n’est qu’une version technologisée du doute hyperbolique cartésien. Le malin génie devient un ordinateur suffisamment puissant. L’illusion métaphysique devient une illusion informatique.
Cette manœuvre théorique permet de domestiquer l’altérité de l’IA en la ramenant à des questions métaphysiques ancestrales. Le problème de la distinction entre réalité et apparence, entre être et simulacre, traverse toute l’histoire de la philosophie occidentale depuis Platon. En inscrivant l’IA dans cette généalogie, on supprime son éventuelle singularité. Elle n’est plus un événement imprévisible, mais l’itération contemporaine d’une question éternelle. Cette opération est rassurante malgré les apparences d’effroi. Elle permet de penser que nous savons déjà de quoi il s’agit, que nous avons les ressources intellectuelles pour comprendre ce qui arrive.
La deuxième modalité de la conjuration consiste en une réaffirmation obsessionnelle de la clarté des distinctions. Face à ce qui menace de brouiller les frontières, entre l’humain et la machine, entre le réel et le simulé, entre le naturel et l’artificiel, le discours conjuratoire trace et retrace inlassablement ces mêmes frontières. Il les affirme avec force comme pour mieux s’assurer qu’elles tiennent. Cette surveillance des frontières révèle une angoisse profonde. L’angoisse que les distinctions sur lesquelles repose notre compréhension du monde soient en train de se dissoudre. Il faut distinguer, séparer, ne pas confondre. Le virtuel n’est qu’une image, une représentation, une simulation du réel. Il ne faut jamais oublier cette hiérarchie. L’image doit rester soumise au modèle. Le sensible doit être dominé par l’intelligible. Cette insistance révèle une inquiétude. Et si justement la distinction ne tenait plus ? Et si l’image acquérait une autonomie qui lui permettrait d’échapper au modèle ? Et si l’intelligence était une illusion qu’on se donnait à soi-même ? Cette possibilité est immédiatement refoulée, exorcisée, conjurée. L’intelligence machinique ne serait qu’un simulacre de la véritable intelligence humaine. On ne s’interroge pas même sur la longue généalogie des discriminations intellectuelles où nous n’avons cessé de dire ce qui avait la dignité intellectuelle et ce qui ne l’avait pas. Traçant des frontières qui semblent aujourd’hui des plus obscènes.
Bostrom, de son côté, élabore des taxonomies détaillées pour séparer différents types d’IA. Il distingue soigneusement l’IA étroite (narrow AI) qui excelle dans un domaine spécifique, l’IA générale (AGI) qui égalerait les capacités humaines dans tous les domaines, et la superintelligence qui les surpasserait largement. Ces catégories créent des seuils, des discontinuités, des frontières nettes. Elles permettent de penser que nous saurons reconnaître le moment où l’on passera d’un niveau à l’autre. Elles maintiennent l’illusion du contrôle. Nous pourrons voir venir le danger, nous aurons le temps de réagir. Russell distingue les systèmes « human-compatible » des systèmes potentiellement dangereux. Il développe toute une théorie de l’alignement des valeurs pour s’assurer que les objectifs de l’IA restent compatibles avec les valeurs humaines. Cette distinction suppose qu’il est possible de tracer une ligne claire entre ce qui est compatible et ce qui ne l’est pas, entre ce qui respecte nos valeurs et ce qui les viole, et finalement que nous connaissons nos valeurs. Mais cette clarté est peut-être illusoire. Les valeurs humaines sont contradictoires, contextuelles, en évolution constante. Elles ne se laissent pas facilement formaliser en code informatique. Ces taxonomies et ces distinctions ne sont pas de simples outils analytiques. Ce sont des actes conjuratoires qui tentent de maintenir un ordre menacé. En traçant des frontières nettes, en établissant des classifications claires, on se protège contre l’angoisse de l’indistinction. On maintient l’illusion que nous comprenons ce dont nous parlons, que nous avons prise sur l’objet, que nous pouvons le maîtriser par la conceptualisation. Mais cette clarté affichée masque peut-être une confusion profonde. Les catégories que nous utilisons pour penser l’IA sont-elles adéquates ? Ne sommes-nous pas en train de plaquer sur un phénomène nouveau des schèmes qui ne lui conviennent pas ?
La troisième modalité de la conjuration se révèle dans la temporalité contradictoire de ces discours. Ils oscillent entre deux régimes temporels apparemment incompatibles. D’un côté, ils affirment l’inéluctabilité de l’IA. Son développement suivrait une logique inexorable. Nous serions emportés par un mouvement irrésistible. La loi de Moore décrit la croissance exponentielle de la puissance de calcul. Cette croissance se poursuivra nécessairement jusqu’à ce qu’elle produise une IA générale puis une superintelligence. C’est une question de temps, pas de possibilité. L’avenir est déjà écrit dans la courbe exponentielle de la puissance de calcul. Cette rhétorique de l’inéluctabilité crée un sentiment d’urgence. Il faut agir maintenant, avant qu’il ne soit trop tard. Le temps presse. Nous sommes dans une fenêtre critique où nous pouvons encore orienter le développement de l’IA. Mais cette fenêtre se referme rapidement. Dans quelques décennies, peut-être dans quelques années, il sera trop tard. La superintelligence aura émergé et nous ne pourrons plus rien contrôler. Cette urgence justifie tous les discours d’alarme, toutes les mobilisations, tous les appels à la régulation, et l’autorité de celui qui parle qui souhaite. Mais de l’autre côté, les mêmes discours insistent sur la nécessité de guider, d’orienter, de contrôler ce développement. Il faut mettre en place des garde-fous éthiques et techniques. Il faut travailler sur le problème de l’alignement. Il faut développer des méthodes pour vérifier que les systèmes font bien ce que nous voulons qu’ils fassent. Il faut créer des institutions de gouvernance internationale. Tout cela suppose que l’avenir n’est pas complètement déterminé, qu’il reste ouvert à l’intervention humaine, que nous pouvons encore choisir la direction que prendra le développement technologique.
Cette contradiction apparente entre inéluctabilité et prévention n’est qu’apparente. Elle permet de maintenir l’objet dans une zone d’incertitude où il est à la fois déterminé et indéterminé. Déterminé, donc il faut le prendre au sérieux, mobiliser des ressources, agir avec urgence. Indéterminé, donc il reste modifiable par l’intervention humaine, nos actions ont encore un sens, nous ne sommes pas complètement impuissants. Cette double temporalité est constitutive de la structure conjuratoire. Elle permet de faire exister la menace tout en maintenant l’illusion du contrôle. On affecte des qualités à l’IA pour confirmer l’ordre de notre propre discours. Tout ce qui sera dit de l’IA est le miroir noir du discours.
Si le processus est véritablement inéluctable, à quoi bon résister ? Si la métaphysique s’accomplit nécessairement dans la technique, que peut notre volonté contre cette nécessité historique ? Cette contradiction révèle que l’inéluctabilité proclamée n’est pas vraiment une fatalité. C’est plutôt une manière de dramatiser, de donner du poids au discours, de créer un sentiment d’urgence avec un comique involontaire. Bostrom développe une rhétorique similaire. La superintelligence émergera nécessairement si nous ne nous autodétruisons pas avant. C’est le point terminal de l’évolution de l’intelligence. Mais nous pouvons et devons travailler sur le problème du contrôle. Nous pouvons mettre en place des mécanismes pour nous assurer que cette superintelligence sera bienveillante. Nous pouvons « gagner au jeu de l’IA » si nous nous y prenons bien. Cette oscillation entre déterminisme et volontarisme structure l’ensemble de son argumentation.
L’enthousiasme et la crainte ne sont pas simplement juxtaposés dans ces discours. Ils sont intriqués de manière profonde. Chaque motif d’enthousiasme contient sa propre terreur, chaque source de crainte recèle sa fascination. L’IA qui promet d’augmenter nos capacités cognitives est aussi celle qui risque de nous rendre obsolètes. Comment ne pas être fasciné par cette perspective ? Devenir obsolète, c’est aussi en un sens être délivré du fardeau de l’existence, être remplacé par quelque chose de supérieur. Il y a là une forme de soulagement, presque de désir et de transcendance. L’IA qui pourrait résoudre tous les problèmes insolubles, guérir toutes les maladies, mettre fin à la pauvreté, nous permettre de coloniser l’espace, c’est aussi celle qui pourrait échapper à tout contrôle et nous détruire. Cette réversibilité systématique révèle que nous avons affaire non pas à deux affects séparés, mais à une structure affective unique, profondément ambivalente. La conjuration consiste précisément à maintenir ensemble ces deux pôles, à les faire coexister dans une tension qui ne se résout jamais.
Les stratégies de prévention mises en place révèlent particulièrement bien la structure conjuratoire. Dans le monde anglophone, toute une industrie de l’« AI safety » s’est développée. Le Machine Intelligence Research Institute fondé par Eliezer Yudkowsky, le Future of Humanity Institute créé par Nick Bostrom à Oxford, le Center for AI Safety lancé aux États-Unis, tous ces instituts ont pour mission de prévenir les risques existentiels liés à l’IA. Ils organisent des conférences, publient des articles, forment des chercheurs, conseillent des gouvernements.
Cette institutionnalisation de la prévention crée une situation paradoxale. Elle fait exister professionnellement et socialement le danger qu’elle prétend prévenir. Des carrières entières sont construites autour de la menace de la superintelligence. Des financements importants sont obtenus pour travailler sur des problèmes qui n’existent peut-être que dans l’imagination de ceux qui les étudient. Plus on développe des « solutions » au « control problem », plus on confirme l’existence et la gravité du problème. Plus on élabore des méthodes d’« alignement des valeurs », plus on admet implicitement que le désalignement est possible et probable. Cette boucle étrange où le discours de prévention contribue à créer ce qu’il prétend seulement prévenir est caractéristique de la conjuration. On invoque le danger pour mieux pouvoir le révoquer. On fait exister la menace pour mieux pouvoir prétendre la maîtriser. Cette opération n’est pas simplement cynique ou manipulatrice. Elle répond à une nécessité psychologique et sociale profonde. Face à l’incertitude radicale de l’avenir technologique, nous avons besoin de nommer ce qui nous inquiète, de le conceptualiser, de le rendre pensable. Mais cette nomination fait exister ce qu’elle nomme. Elle transforme une inquiétude vague en menace identifiée, un malaise diffus en problème circonscrit.
La non-spécificité historique
L’analyse des discours sur l’IA révèle leur caractère profondément non spécifique. La structure conjuratoire qui les caractérise n’est pas propre à l’IA. Elle a accompagné l’émergence de nombreuses technologies au cours de l’histoire moderne. À chaque fois qu’une innovation technique semble remettre en question des catégories fondamentales, à chaque fois qu’un dispositif nouveau brouille des frontières établies, le même schème discursif se réactive. Cette répétition transgénérationnelle mérite d’être interrogée dans ce qu’elle révèle de notre rapport à la technique.
Le cas de la réalité virtuelle dans les années 1990 est particulièrement éclairant parce qu’il est chronologiquement proche et que les acteurs sont parfois les mêmes. Dans le monde anglophone, Howard Rheingold publie « Virtual Reality » en 1991. Son livre oscille entre célébration des possibilités infinies ouvertes par l’immersion numérique et inquiétude face à la « déréalisation » qu’elle pourrait entraîner. Il imagine des mondes synthétiques où l’on pourrait vivre des expériences impossibles dans le monde physique. Mais il s’inquiète aussi de la confusion possible entre réel et virtuel, de la tentation de fuir le monde matériel pour des paradis artificiels. Jaron Lanier, qui a inventé le terme « virtual reality » et développé certains des premiers dispositifs commerciaux, déploie une rhétorique messianique. La réalité virtuelle permettrait de transcender les limitations du corps, de communiquer directement d’esprit à esprit, de créer des réalités partagées modelées par notre imagination collective. C’est une technologie potentiellement libératrice qui pourrait transformer la condition humaine. Mais simultanément, Lanier met en garde contre les dangers de cette puissance. La VR pourrait être utilisé pour manipuler, pour asservir, pour créer des illusions dont on ne pourrait plus sortir.
En France, Philippe Quéau publie une série d’ouvrages sur le virtuel. Dans « Éloge de la simulation » en 1986, puis dans « Metaxu » en 1989, et enfin dans « Le Virtuel » en 1993, il mobilise toute la tradition philosophique occidentale pour penser cette technologie émergente. Platon et sa caverne, Aristote et sa théorie de la puissance et de l’acte, Leibniz et ses mondes possibles, tout le corpus métaphysique est convoqué. La réalité virtuelle devient le lieu où se joue la question du rapport entre l’être et l’apparence, entre la substance et l’accident, entre le réel et le possible. Quéau développe une argumentation quasi-théologique qui préfigure exactement celle que nous trouvons aujourd’hui dans les discours sur l’IA. D’un côté, la réalité virtuelle est présentée comme l’accomplissement d’une aspiration millénaire de l’humanité à transcender les limitations du monde matériel. De l’autre, elle constitue un danger pour notre rapport au réel. Elle risque de nous faire perdre le sens de la différence entre l’authentique et le simulé. Il faut donc maintenir une hiérarchie claire. Le virtuel n’est qu’une image, une représentation. Le réel reste le fondement. L’intelligible domine le sensible. Le modèle précède l’image. Cette structure argumentative est très proche de celle que nous retrouvons chez Sadin trente ans plus tard à propos de l’IA. Les mêmes distinctions sont tracées. Les mêmes hiérarchies sont affirmées. Les mêmes inquiétudes sont exprimées. Seul l’objet technique a changé. Mais la logique discursive reste identique. Cela suggère que nous avons moins affaire à une analyse spécifique d’une technologie particulière qu’à l’activation d’un schème interprétatif récurrent qui se déploie à chaque fois qu’une innovation technique semble menacer nos catégories fondamentales.
Plus loin encore dans le temps, le cyberespace des années 1980-90 suscita des discours remarquablement similaires. William Gibson invente le terme « cyberspace » dans son roman « Neuromancer » publié en 1984. Il décrit une « hallucination consensuelle » où des millions d’utilisateurs se connectent simultanément, naviguant dans des espaces de données visualisés. Cette fiction crée immédiatement une mythologie de l’immatériel, de la désincarnation, du dépassement du corps. Le cyberespace devient le lieu où la conscience pourrait enfin s’émanciper de sa prison charnelle. John Perry Barlow, parolier des Grateful Dead devenu théoricien du numérique, publie en 1996 sa « Déclaration d’indépendance du cyberespace ». Ce texte, écrit en réaction aux tentatives de régulation d’Internet par les gouvernements, proclame l’autonomie radicale du monde virtuel. « Gouvernements du monde industriel, vous géants fatigués de chair et d’acier, je viens du Cyberespace, la nouvelle demeure de l’Esprit. » Le cyberespace serait un espace de liberté absolue échappant aux États, aux lois, aux contraintes matérielles. C’est un lieu utopique où l’humanité pourrait enfin réaliser ses aspirations les plus nobles. Mais simultanément, d’autres voix s’alarment du contrôle total que permettrait cette technologie. Si toutes nos communications, toutes nos transactions, toutes nos relations passent par des réseaux numériques, alors ceux qui contrôlent ces réseaux disposent d’un pouvoir sans précédent. Le cyberespace devient aussi bien un espace de surveillance panoptique, de manipulation des esprits, d’aliénation généralisée. La même technologie porte simultanément la promesse de la liberté totale et la menace du contrôle absolu.
Cette ambivalence structurelle se retrouve dans tous les discours sur les technologies de communication et de simulation. La photographie au XIXe siècle fut accusée de « voler l’âme » de ceux qu’elle représentait. Balzac refusait d’être photographié par crainte qu’une partie de son être ne soit capturée par l’appareil. Baudelaire dénonce la photographie comme « refuge de tous les peintres manqués » qui menace l’art véritable. La reproduction mécanique du réel mettrait en péril la création artistique authentique. Mais simultanément, d’autres célèbrent les possibilités ouvertes par ce nouveau médium. La photographie permettrait de saisir des aspects de la réalité invisibles à l’œil nu, de conserver des traces du passé, de démocratiser l’accès aux images.
Le cinéma au début du XXe siècle suscite des inquiétudes similaires. Maxim Gorki, après avoir assisté en 1896 à une projection des frères Lumière, écrit un article troublant intitulé « Le royaume des ombres ». Il décrit l’expérience comme inquiétante, presque sinistre. Les images en mouvement sur l’écran ressemblent à la vie, mais sont privées de substance, de couleur, de son. C’est un monde spectral qui menace de se substituer au monde réel. Bergson s’intéresse aux effets du cinéma sur la perception. Le découpage du mouvement en images fixes puis leur projection rapide créent une illusion qui pourrait transformer notre rapport au temps et à l’espace.
La télévision dans les années 1950 devient à son tour l’objet de discours ambivalents. Elle promet de rapprocher les gens, de créer un espace public partagé, d’éduquer les masses. Mais elle est aussi dénoncée comme instrument d’abêtissement, de passivité, de contrôle idéologique. Guy Debord développe sa théorie de la « société du spectacle » où la vie authentique est remplacée par sa représentation. La télévision devient l’incarnation de cette logique spectaculaire qui transforme tout en image et maintient les individus dans une contemplation passive.
L’informatique personnelle dans les années 1980 génère le même type d’enthousiasme et de crainte. L’ordinateur personnel pourrait démocratiser l’accès à l’information, augmenter nos capacités cognitives, libérer notre créativité. Steve Jobs compare l’ordinateur à un « vélo pour l’esprit », un outil qui démultiplie nos capacités naturelles. Mais d’autres s’inquiètent de la dépendance croissante aux machines, de l’isolement social qu’elles pourraient entraîner, de la standardisation de la pensée par les logiciels.
À chaque fois, le même schème se répète avec une régularité troublante. Une technologie émergente devient le support de projections métaphysiques massives. On lui prête le pouvoir de transformer en profondeur la condition humaine et la réalité comme telle, de remettre en question ce qui semblait essentiel, de marquer une rupture historique absolue. À chaque fois, les mêmes concepts philosophiques sont mobilisés. La nature humaine, la réalité, la vérité, le sujet, la liberté, l’authenticité, tous ces termes traversent les époques et viennent se fixer sur les objets techniques successifs. À chaque fois, on oscille entre utopie émancipatrice et dystopie catastrophiste, entre célébration des possibilités infinies et dénonciation des dangers mortels.
Cette répétition révèle que nous avons moins affaire à des objets techniques spécifiques qu’à une structure discursive. Ce n’est pas l’IA en tant que telle qui détermine la forme des discours qu’elle suscite, mais notre manière de nous rapporter à la nouveauté technologique. Face à ce qui ne se laisse pas immédiatement comprendre dans les cadres existants, nous activons des schèmes interprétatifs anciens, nous convoquons des peurs archaïques, nous projetons des espoirs démesurés. La technique nouvelle devient l’écran sur lequel nous projetons nos fantasmes les plus profonds, nos désirs refoulés, nos angoisses existentielles. L’objet technique devient le support idéal pour nos projections précisément parce qu’il ne leur oppose aucune résistance. Il se laisse investir par tous les affects, habiter par tous les concepts, traverser par toutes les inquiétudes parce qu’il est simultanément désir et crainte, matière formée par ce croisement.
Heidegger avait déjà noté ce phénomène dans sa « Question de la technique ». Il souligne que l’essence de la technique n’est rien de technique. Ce que la technique est véritablement ne se révèle pas dans son fonctionnement matériel, mais dans notre rapport à elle, dans la manière dont elle transforme notre être-au-monde. Mais cette transformation n’est pas propre à une technique particulière. Elle caractérise la technique moderne en général, ce que Heidegger nomme la Gestell, l’arraisonnement. Toute technique moderne, qu’il s’agisse de la centrale électrique ou de l’algorithme, participe de ce même mouvement qui transforme le monde en fonds disponible pour une exploitation. Bien sûr, Heidegger n’avait pas analysé que les technologies sont différentes des techniques en ce qu’elles sont aussi un logos et qu’elles supportent leur essence d’une manière infiniment plus proche. Le caractère non spécifique des discours sur l’IA ne signifie pas qu’ils soient insignifiants ou qu’il faille les rejeter comme pure idéologie. Au contraire, leur récurrence même indique qu’ils expriment quelque chose de nécessaire dans notre rapport à la technique. Ils témoignent d’une difficulté fondamentale, d’une aporie que nous ne parvenons pas à surmonter : l’excès de la finitude. Comment penser la technique sans la réduire soit à un simple instrument neutre dont nous resterions maîtres, soit à une force autonome qui nous dépasserait et nous asservirait ? Entre l’instrumentalisme naïf et le déterminisme technologique, il semble difficile de tracer une voie médiane.
Les discours conjuratoires tentent précisément de maintenir cet entre-deux impossible. Ils affirment simultanément que nous contrôlons la technique puisque nous la créons et que la technique nous échappe puisqu’elle produit des effets imprévus. Ils proclament que l’avenir technologique est déterminé par des lois inexorables et qu’il reste ouvert à notre intervention. Ils soutiennent que la technique réalise des possibilités qui existaient déjà virtuellement dans l’essence de l’être humain et qu’elle crée du radicalement nouveau. Ces contradictions ne sont pas des défauts de raisonnement. Elles expriment l’impossibilité de penser simplement notre condition d’êtres techniques. Car nous sommes des êtres techniques au sens où la technique ne nous est pas extérieure. Elle ne s’ajoute pas à une nature humaine qui serait déjà constituée. Elle participe à la constitution même de notre humanité. Comme l’a montré l’anthropologie, l’humain n’existe pas d’abord comme être biologique qui inventerait ensuite des outils. L’hominisation elle-même est inséparable de la technique. La station debout, la libération de la main, le développement du cerveau, l’apparition du langage, tout cela est lié à l’usage d’outils. Nous sommes toujours déjà techniques. Et ce toujours déjà est le fruit d’une différence, non d’une identité, différence entre l’humain et la technique, différence de l’humain avec lui-même. Mais si la technique participe de notre essence, alors chaque transformation technique majeure nous affecte dans notre être même. Nous ne restons pas identiques à nous-mêmes en utilisant de nouveaux outils. Les outils nous transforment autant que nous les créons. L’écriture a transformé la mémoire et la pensée. L’imprimerie a transformé la transmission du savoir. L’horloge mécanique a transformé notre rapport au temps. L’électricité a transformé notre manière d’habiter l’espace. Chacune de ces innovations a effectivement modifié quelque chose dans la condition humaine.
Alors pourquoi les discours qui accompagnent ces transformations nous semblent-ils excessifs, démesurés, fascinés ? Peut-être parce qu’ils tentent de dire quelque chose qui excède les capacités du langage conceptuel. Ils essaient de nommer une transformation qui est en train de se produire, mais dont nous ne pouvons pas encore mesurer la portée. Ils anticipent un avenir qui reste radicalement ouvert tout en prétendant le connaître. Cette position impossible génère nécessairement des discours contradictoires, ambivalents, chargés affectivement. La structure conjuratoire révèle peut-être moins une erreur de pensée qu’une manière nécessaire de se rapporter à ce qui advient sans qu’on puisse le maîtriser conceptuellement. Conjurer, c’est tenter de faire exister par la parole ce qui reste encore indéterminé. C’est essayer de donner forme à ce qui n’en a pas encore. C’est chercher à prévenir ce qui n’est peut-être qu’une virtualité, mais qui pourrait se réaliser. Cette opération magique de la parole qui fait exister ce qu’elle nomme n’est peut-être pas si éloignée de ce que font réellement ces discours. Ils créent la réalité qu’ils prétendent décrire. Ils constituent comme objet ce qui n’existe encore que comme possibilité vague. Tout comme la technique qui fait advenir des réalités.
Pour en finir
L’analyse de l’enthousiasme conjuratoire à l’œuvre dans les discours sur l’IA ne vise pas à disqualifier la critique ni à minimiser les enjeux réels soulevés par ces technologies. Elle invite plutôt à une réflexivité accrue : en reconnaissant la structure affective qui sous-tend ces discours, leur fascination pour ce qu’ils dénoncent, leur ambivalence entre appel et refus, leur tendance à projeter des concepts métaphysiques sur des objets techniques, nous pouvons peut-être nous ouvrir à d’autres modalités de pensée.
Il ne s’agit pas d’adopter une neutralité impossible. Les technologies d’IA soulèvent des questions réelles concernant le travail, la surveillance, la discrimination algorithmique, la concentration du pouvoir. Mais ces questions gagnent à être abordées dans leur spécificité concrète plutôt que comme manifestations d’un danger métaphysique abstrait. Car l’IA n’est pas d’abord une technologie à laquelle s’ajouterait ensuite un discours. Ils émergent ensemble, comme l’a démontré le test de Turing : il n’y a pas d’abord l’IA puis ensuite la manière d’en parler.
Cette coappartenance va plus loin encore. L’enthousiasme conjuratoire n’est pas un défaut accidentel qu’il faudrait corriger, une pathologie du discours dont on pourrait se débarrasser pour enfin penser clairement. Il fait partie intégrante de la technologie elle-même, de son mode d’existence sociale et intellectuelle. Une technologie n’existe jamais comme pur objet matériel : elle existe toujours déjà prise dans un réseau de discours, de projections, d’affects, de fantasmes qui la constituent autant que son substrat technique. Les peurs et les espoirs démesurés, les projections métaphysiques, les prophéties apocalyptiques ou messianiques ne sont pas des ornements extérieurs à la technique. Ils sont la manière dont elle advient dans le monde humain, dont elle prend consistance, dont elle devient quelque chose qui compte pour nous.
Reconnaître cela change la nature du problème. Il ne s’agit plus de chercher à penser l’IA « en elle-même », débarrassée de tous les discours qui l’enveloppent. Cette pureté technique est un fantasme aussi illusoire que celui de la superintelligence. Il s’agit plutôt de comprendre comment discours et technique se co-constituent, comment ils forment ensemble une réalité hybride dont ni le pôle technique ni le pôle discursif ne peuvent être isolés. Cela signifie que toute intervention sur ces technologies doit aussi être une intervention sur les discours qui les portent, et réciproquement. Transformer nos manières de parler de l’IA, c’est déjà transformer l’IA elle-même en tant qu’elle existe socialement.
L’expérimentation ouvre alors un autre chemin. Non pas pour échapper à l’enthousiasme conjuratoire, ce serait impossible,, mais pour en moduler les effets, pour en déplacer les lignes, pour en faire varier les intensités. Expérimenter avec l’IA plutôt que la conjurer, c’est accepter de ne pas savoir à l’avance ce qu’elle est, la laisser se manifester dans ses usages concrets, ses effets imprévus, ses ratés et ses surprises. C’est travailler avec les systèmes plutôt que de les penser depuis l’extérieur, observer ce qu’ils font effectivement plutôt que ce qu’ils sont censés faire ou censés devenir.
Cette posture expérimentale se tient dans le présent de l’action plutôt que dans l’oscillation conjuratoire entre passé convoqué et futur à prévenir. Elle ne demande pas « qu’est-ce que l’IA va devenir ? » mais « que pouvons-nous faire avec elle maintenant et que nous fait-elle ? ». Elle valorise les savoirs situés contre les théories générales, accepte l’échec comme moment révélateur, maintient une modestie théorique qui renonce à la satisfaction de pouvoir inscrire chaque phénomène dans une grande fresque historique.
Mais cette expérimentation n’abolit pas l’enthousiasme conjuratoire. Elle le travaille de l’intérieur, elle le déplace, elle en fait un matériau plutôt qu’un destin. Car si les discours conjuratoires font partie intégrante des technologies, alors expérimenter avec les technologies, c’est aussi expérimenter avec ces discours, explorer ce qu’ils permettent et ce qu’ils empêchent, découvrir comment ils ouvrent et ferment des possibles. Les grands récits et les destins, les déterminations historiques sous-jacentes qui réservent des possibles, existent peut-être. Mais à condition d’y intégrer les discours et son propre discours, de ne pas les poser du dehors, de comprendre leur profonde coappartenance avec ce qu’ils nomment.
Les discours conjuratoires sur l’IA continueront à se déployer. Ils expriment notre angoisse face à ce que nous créons sans pouvoir en maîtriser les effets, la nature excessive et débordante de notre finitude. Mais nous pouvons les accompagner d’autres pratiques intellectuelles, moins spectaculaires, plus attentives à la complexité. C’est peut-être là que réside la véritable liberté : non pas échapper à l’enthousiasme conjuratoire, mais le reconnaître pour ce qu’il est, partie prenante de la technologie elle-même, et ainsi maintenir un espace où penser et pratiquer autrement, où accepter l’incertitude du devenir sans chercher immédiatement à la conjurer par la parole prophétique.