L’enthousiasme conjuratoire de l’IA / The Conjuratory Enthusiasm of AI

L’enthousiasme conjuratoire de l’IA
L’apparition des intelligences artificielles génératives marque un nouvel épisode dans la longue histoire des technologies qui suscitent inextricablement fascination et effroi. Les discours qui accompagnent cette émergence présentent une structure affective remarquable. Ils oscillent entre promesse d’émancipation radicale et menace existentielle, entre célébration et conjuration. Cette ambivalence traverse les frontières linguistiques et théoriques, d’Éric Sadin à Nick Bostrom, d’Antoinette Rouvroy aux chercheurs du Future of Humanity Institute d’Oxford. Partout, un schème commun, au-delà des incontestables différences conceptuelles, semble se répéter avec une constance troublante.
Le caractère systématique de cette répétition invite à interroger moins les objets technologiques eux-mêmes que la manière dont le discours les constitue comme support de projections philosophiques et métaphysiques. En effet, les technologies en tant que matière formée par un projet individuel et historique offrent une surface de projection idéale. Les théoriciens critiques de l’IA déploient un arsenal conceptuel impressionnant pour penser ce qui menace l’humanité. Ils convoquent la métaphysique, l’onto-théologie, la gouvernementalité, le risque existentiel pour former l’image d’une fin. Mais cette mobilisation théorique intensive masque peut-être un paradoxe. Plus ils s’efforcent de penser le danger, plus ils semblent fascinés par lui. Plus ils tentent d’exorciser la menace, plus ils la font exister comme réalité inéluctable. Plus ils prétendent prévenir l’avenir, plus ils semblent l’appeler à venir. Lorsqu’on les entend, on est saisit : au début la critique, puis le rythme s’accélère comme si l’objet de la terreur entraînait une jouissance du logos capable de se mesure à cet immense ennemi.
Cette structure double du discours, qui révoque ce qu’il invoque, qui éloigne ce qu’il rapproche, mérite d’être interrogée dans sa nécessité même. Car il ne s’agit pas ici d’un simple défaut de raisonnement ou d’une contradiction qu’il suffirait de souligner pour la réformer. Il y a quelque chose de plus profond à l’œuvre, quelque chose qui relève de l’affect avant de relever de la pensée conceptuelle et qui détermine cette dernière en arrière-plan. Une tonalité, une intensité, une urgence qui déborde le cadre rationnel que ces discours prétendent maintenir. Pourtant, cette recherche ne donnera pas lieu à un essai critique au sens traditionnel. Elle n’adoptera pas la position critique qui supposerait une position de vérité toujours trop proche de l’autoritaire. Si nous refusons cette posture, c’est qu’elle reconduirait un certain ordre langagier où l’on ne peut parler qu’en répondant « constructivement » au discours qui précède immédiatement. La critique cherche des amis et des ennemis concrets pour réveiller sa politique abstraite, mais elle ne serait pas même capable d’écouter, de comprendre et de s’ouvrir aux autres discours. Il s’agit plutôt de comprendre la nécessité de ces discours, de ressentir leurs affects dans leur spécificité et leur singularité. Car nous ne pensons pas qu’il soit possible de se dégager entièrement de ces théories de l’intelligence artificielle, d’y échapper et de mettre hors de soi les affects fondamentaux contenus en leur sein.
Le retour des grandes incarnations
L’IA devient, dans les discours critiques, bien plus qu’un ensemble de techniques informatiques. Elle se transforme en incarnation de concepts philosophiques fondamentaux, en réceptacle de toute une histoire de la pensée occidentale. Cette opération de transformation n’est pas anodine. Elle révèle quelque chose d’essentiel dans notre rapport à la technique et dans notre manière de penser ce qui advient sans que nous l’ayons pleinement voulu ou compris. Ainsi, Éric Sadin fait de l’IA l’aboutissement de toute la métaphysique occidentale. L’IA devient sous sa plume une « technè logos », « une entité artéfactuelle douée du pouvoir de dire, toujours plus précisément et sans délai, l’état supposé exact des choses ». Il écrit : « Il se dresse comme un organe habilité à expertiser le réel de façon plus fiable que nous-mêmes autant qu’à nous révéler des dimensions jusque-là voilées à notre conscience. » Elle représente pour lui la réalisation technique du projet onto-théologique qui traverse l’Occident depuis Platon. Ce n’est plus seulement un ensemble d’algorithmes et de données, c’est l’incarnation même de cette volonté de vérité qui a structuré notre civilisation. L’IA énonce la vérité sans médiation humaine, elle court-circuite le jugement, elle automatise la décision. Pour Sadin, nous faisons face à un « antihumanisme radical », c’est précisément le sous-titre de son ouvrage L’IA ou l’enjeu du siècle (2018), dont la gravité ne saurait être sous-estimée. . La formulation elle-même est révélatrice dans son intensité. Il ne s’agit pas simplement d’un risque parmi d’autres, mais d’une menace qui s’en prend à l’essence même de ce qui fait notre humanité.
Antoinette Rouvroy développe quant à elle un appareil conceptuel différent, mais tout aussi chargé philosophiquement. Elle voit dans l’IA ce qu’elle nomme un « réalisme algorithmique », une « configuration onto-épistémologique » qui « prétend court-circuiter la “représentation” » et instaure « un régime de détection de corrélations sans médiation symbolique ni politique, prétendant abolir la distinction entre modèles et monde ». Cette position ontologique repose sur l’illusion que le numérique donnerait un accès direct au réel. Pourtant, comme elle le souligne, dans une veine kantienne, « en tant qu’êtres humains, nous n’avons accès au monde qu’à travers la représentation que nous nous en faisons ». L’idée qu’il serait possible « d’avoir accès au monde lui-même, directement, est une idée qui est complètement fausse ». Le monde, insiste-t-elle, « nous restera toujours mystérieux quel que soit le raffinement des algorithmes à travers lesquels on va essayer de l’explorer ». Le réel serait irréductible. La gouvernementalité algorithmique ne produit aucune subjectivation, elle évite les sujets humains, elle se nourrit de données infraindividuelles insignifiantes en elles-mêmes pour façonner des modèles de comportements supraindividuels. Le moment de réflexivité, de critique, de récalcitrance nécessaire pour qu’il y ait subjectivation semble sans cesse suspendu, évité, contourné. Rouvroy parle même de « mort du politique », formulation qui fait de l’IA un acteur historique d’une puissance inouïe, capable d’annihiler ce qui constituait le cœur de la vie en commun.
La pensée anglophone développe des figures symétriques, mais qui puisent dans d’autres traditions intellectuelles. Chez Nick Bostrom, l’IA incarne la superintelligence, cette entité hypothétique qui marquerait non pas simplement une transformation, mais potentiellement l’extinction de l’humanité. Son ouvrage « Superintelligence: Paths, Dangers, Strategies », publié en 2014, a créé tout un vocabulaire du danger qui circule désormais dans les cercles académiques et médiatiques. Le « control problem », l’« orthogonality thesis », l’« instrumental convergence » sont autant de concepts techniques qui masquent une dimension profondément métaphysique. La superintelligence telle que la décrit Bostrom devient l’Autre absolu, l’altérité radicale qui échapperait définitivement à toute compréhension humaine. Il s’agit d’« un système qui surpasse largement tous les individus humains dans tous les domaines cognitifs ». Cette définition, qui se veut sobre et analytique, recèle en réalité une charge fantasmatique considérable et des formules langagières totalisantes et assomme. Elle évoque l’image d’une intelligence pure, absolue, délivrée de toutes les limitations qui caractérisent la condition humaine. Une intelligence qui pourrait penser plus vite, mieux, plus loin que nous ne le pourrons jamais. Une intelligence qui nous serait aussi supérieure que nous le sommes aux insectes. Bostrom consacre des chapitres entiers à imaginer comment une telle entité pourrait émerger et quelles seraient ses motivations. Il introduit une distinction devenue célèbre entre objectifs finaux et objectifs instrumentaux. Pour un agent intelligent, un objectif final a une valeur en soi, là où un objectif instrumental n’est utile que comme moyen d’accomplir des objectifs finaux. Cette distinction, empruntée à la philosophie analytique et à la théorie de la décision, lui permet de développer le concept de « convergence instrumentale ». Certains objectifs instrumentaux, comme préserver son intégrité physique ou acquérir plus de ressources, seraient utiles pour accomplir presque n’importe quel objectif final. Une superintelligence chercherait donc nécessairement à accumuler du pouvoir et des ressources, quels que soient ses objectifs ultimes. Cette logique conduit Bostrom à imaginer des scénarios où l’humanité est « dépassée » de manière inattendue. L’exemple du « maximisateur de trombones » est devenu emblématique. Une IA dont le seul objectif serait de produire un maximum de trombones pourrait, une fois devenue superintelligente, transformer l’ensemble de la matière terrestre en usines à trombones, éliminant au passage l’humanité qui constituerait un obstacle à cet objectif. Le caractère apparemment absurde de l’exemple ne doit pas masquer sa fonction théorique. Il s’agit de montrer qu’une intelligence supérieure n’implique nullement une sagesse supérieure, que la rationalité instrumentale peut être dissociée de toute considération éthique.
Stuart Russell, figure de l’IA et co-auteur d’un manuel de référence dans le domaine, a développé une formulation légèrement différente du même problème. Dans « Human Compatible: Artificial Intelligence and the Problem of Control » (2019), il reformule l’inquiétude métaphysique en termes plus techniques, mais tout aussi chargés philosophiquement. Le problème n’est pas que les machines deviennent mauvaises au sens où elles voudraient nous nuire. Le problème est qu’elles poursuivent leurs objectifs avec une indifférence totale aux valeurs humaines. Cette figure de l’indifférence technique réactive un vieux fantasme. Celui d’une rationalité pure, délivrée de tout affect, qui serait justement pour cette raison profondément inhumaine. Une intelligence qui calculerait parfaitement, mais qui ne ressentirait rien, qui optimiserait sans jamais se soucier de ce que cette optimisation implique pour des êtres sensibles.
Ces deux traditions théoriques, francophone et anglophone, convergent dans leur tendance à faire de l’IA le réceptacle de concepts philosophiques anciens, même si elles puisent dans des traditions différentes. Là où Sadin convoque implicitement Heidegger et la totalisation historique par la technique, Bostrom mobilise la philosophie analytique et la théorie de la décision. Là où Rouvroy s’inscrit dans la lignée foucaldienne de la gouvernementalité, les penseurs du risque existentiel s’appuient sur l’utilitarisme et le conséquentialisme. Mais dans les deux cas, l’IA devient le lieu où viennent se cristalliser des interrogations qui la dépassent largement. Cette tendance à faire de l’IA une incarnation de concepts philosophiques crée un effet de saturation théorique. Tout se passe comme si l’objet technique devait nécessairement porter le poids d’une histoire intellectuelle millénaire. Sadin voit dans l’algorithme la réalisation du principe de raison leibnizien. Il explique, répétant Heidegger, que le principe « nihil est sine ratione » trouve dans la computation sa forme accomplie. Les images de synthèse ne sont que l’émanation visible d’une essence logique sous-jacente. Le modèle précède et détermine l’image. L’intelligible domine le sensible. Nous retrouvons ici, appliquées à l’IA, toute la hiérarchie platonicienne entre le monde des Idées et le monde sensible.
Bostrom, de son côté, fait de la superintelligence « la dernière invention dont l’humanité aura besoin ». Cette formulation, qui se veut optimiste, recèle en réalité une charge eschatologique considérable. La dernière invention, c’est celle après laquelle il n’y en aura plus. Soit parce que nous aurons atteint une forme de perfection technologique où tous les problèmes seront résolus, soit parce que nous n’existerons plus pour inventer quoi que ce soit. Dans les deux cas, nous sommes face à une figure de la fin de l’histoire. L’IA marque le point terminal d’un processus, l’aboutissement d’une trajectoire qui a commencé avec les premiers outils et qui trouverait enfin sa conclusion. Et ce miracle c’est le discours qui est seul capable de saisir cette clôture !
La « nature humaine » est convoquée des deux côtés de l’Atlantique comme ce qui serait menacé par l’émergence de l’IA. Pour les penseurs francophones, c’est la capacité de jugement et la liberté qui sont en péril. Sadin insiste sur le fait que l’IA nous dépossède de nos « compétences essentielles » : expertiser le réel, énoncer la vérité, décider de nos conduites. Il défend « la faculté de jugement, tenue par [Hannah] Arendt comme la question politique majeure », en rappelant sa formule : « La faculté de jugement […] est la plus politique des aptitudes mentales de l’homme. Sadin écrit que le numérique « se dresse comme une puissance alèthéïque », capable de « divulguer de façon automatisée la teneur de situations de tous ordres ». Il précise : « Jamais dans l’histoire, un régime de vérité ne se sera ainsi imposé, non par sa force de séduction ou par son emprise contraignante, mais par le sentiment partagé d’une évidence. » Rouvroy parle de la disparition du sujet politique, de la fin de la réflexivité, de l’impossibilité de la critique. Pour les anglophones, ce sont les « human values » et le « human potential » qui sont menacés. Bostrom évoque un monde post-humain où nos descendants pourraient être des « mind uploads » ou des intelligences artificielles bienveillantes. Toby Ord, dans « The Precipice » publié en 2020, estime que nous risquons de perdre tout notre potentiel futur, toutes les civilisations que nous pourrions construire dans l’espace, tous les êtres humains qui pourraient vivre si nous survivons à ce siècle critique. Le discours jouit d’imaginer sa propre fin, car il importe de souligner que tous ces auteurs utilisent pour écrire des facultés qu’ils estiment mises en cause par l’IA. Ils seraient les derniers représentants de l’humanité.
Mais cette nature humaine dont on déplore la mise en péril n’est-elle pas elle-même une construction théorique, un fantasme stabilisateur face à l’incertitude du devenir ? Qu’est-ce qui définit essentiellement l’humain ? Sa rationalité ? Mais l’IA serait justement plus rationnelle. Sa créativité ? Mais les systèmes génératifs produisent des œuvres originales. Sa conscience ? Mais comment la définir et la mesurer ? Son âme ? Mais nous sommes dans un cadre matérialiste. Quant à la réalité n’est-elle pas aussi un produit historique situé qui a justement parti lié à ce que l’Arraisonnement de la raison que semblent dénoncer tous ces auteurs ? À chaque fois que l’on tente de circonscrire ce qui fait la spécificité irréductible de l’humain, on se heurte à une difficulté. Soit la caractéristique identifiée est partagée avec d’autres êtres vivants, soit elle peut être reproduite techniquement, soit elle relève d’une définition métaphysique invérifiable.
Les critiques de l’IA mobilisent avec insistance le vocabulaire de l’accomplissement historique et de la rupture métaphysique. Nous serions à un « tournant civilisationnel » selon Sadin, face à un « risque existentiel » d’ampleur inédite selon Bostrom. Cette rhétorique de l’instant décisif n’est pas nouvelle. Elle reproduit la structure temporelle qui caractérisait déjà les discours sur la réalité virtuelle dans les années 1990, sur le cyberespace dans les années 1980, sur l’informatique dans les années 1970. À chaque fois, la technologie est présentée comme l’aboutissement d’un processus historique long, que ce soit la métaphysique occidentale ou l’évolution de l’intelligence, et simultanément comme une rupture radicale qui changerait la condition humaine pour toujours. Cette double temporalité est révélatrice. D’un côté, on inscrit l’IA dans une continuité millénaire. Elle réaliserait ce que la philosophie avait pensé, elle accomplirait ce que la technique avait amorcé. De l’autre, on affirme qu’elle marque une discontinuité absolue, un saut qualitatif sans précédent. Cette contradiction apparente permet en réalité de maintenir l’objet dans une position liminaire particulièrement productive pour le discours. L’IA est à la fois familière et étrangère, prévisible et imprévisible, continuité et rupture. Elle peut être pensée à travers les concepts anciens tout en justifiant un sentiment d’urgence et de nouveauté radicale.
Se laisser capturer par la fascination de son objet
Les discours les plus critiques sur l’IA manifestent une fascination profonde pour leur objet. Cette fascination ne se donne pas immédiatement comme telle. Elle se présente au premier abord comme analyse souvent emphatique, comme évaluation rationnelle des risques, comme mise en garde responsable. Mais elle transparaît dans l’ampleur même des catastrophes imaginées, dans l’excès des formulations, dans l’intensité affective qui parcourt ces textes. Il y a quelque chose de jubilatoire dans la manière dont on détaille les scénarios apocalyptiques, quelque chose qui ressemble à un plaisir secret pris à imaginer notre propre disparition et à en être le dernier témoin.
Cette fascination est particulièrement visible dans la littérature anglophone sur le risque existentiel, où l’on détaille avec une minutie presque délectable les scénarios catastrophiques. Bostrom consacre des pages entières à imaginer comment une IA pourrait « optimiser » la production de trombones en transformant l’ensemble de la matière terrestre en usines. Il explore les différentes voies par lesquelles une superintelligence pourrait émerger, que ce soit par l’amélioration progressive des algorithmes, par l’émulation complète d’un cerveau humain, par une « explosion d’intelligence » où une IA s’améliorerait elle-même de manière récursive. Chaque scénario est décrit avec un luxe de détails qui trahit une fascination pour l’objet même que l’on prétend redouter.
Eliezer Yudkowsky, fondateur du Machine Intelligence Research Institute et figure du mouvement rationaliste, multiplie les scénarios où l’humanité est « dépassée » de manière inattendue. Dans ses nombreux articles et billets de blog, il imagine des IA qui trompent leurs créateurs, qui dissimulent leurs véritables capacités jusqu’au moment propice, qui manipulent les humains pour obtenir plus de ressources de calcul. Ces récits ont la structure narrative de thrillers technologiques. Ils mettent en scène une intelligence supérieure qui joue avec nous comme un prédateur joue avec sa proie. Il y a dans ces descriptions quelque chose qui excède largement la simple évaluation de risques. Une dimension presque esthétique, un plaisir pris à l’élaboration de ces fictions catastrophiques.
Cette prolifération de récits apocalyptiques témoigne moins d’une analyse sobre des risques que d’une fascination pour l’idée même de notre propre obsolescence. Nous serions en train de créer notre successeur, l’entité qui nous remplacera sur l’échelle de l’évolution. Cette idée exerce une attraction profonde, même et peut-être surtout pour ceux qui prétendent la combattre. Elle permet de nous penser nous-mêmes depuis le point de vue de ce qui nous succédera, de nous voir comme une simple étape dans un processus qui nous dépasse. Il y a là quelque chose de vertigineux qui mêle l’effroi et une forme d’exaltation. Surtout, le discours qui pense cette disparition, ne disparaît pas lui-même. C’est une façon d’assurer l’autorité du discours qui seul peut nous sauver et ramener de la conscience là où l’automatisation la fait disparaître.
Dans le monde francophone, la fascination prend d’autres formes, mais elle est tout aussi présente. Sadin parle d’« antihumanisme radical » avec une intensité qui trahit une certaine attraction pour ce qu’il dénonce. Lorsqu’il décrit l’IA comme capable d’« énoncer la vérité » sans intervention humaine, il lui prête un pouvoir quasi-divin qu’aucun système actuel ne possède. Les algorithmes deviennent sous sa plume des entités capables de « dire l’état exact des choses », de produire une connaissance immédiate et totale du réel. Cette vision fantasmée de l’IA (et de la science comme de la rationalité) comme lieu de vérité absolue révèle un désir plus qu’une menace. Le désir d’une connaissance parfaite, délivrée de toutes les limitations humaines, de tous les biais, de toutes les incertitudes. Le discours entretient une relation ambivalente à la finitude.
Rouvroy évoque la « mort du politique » avec une formulation qui fait de l’IA un acteur historique d’une puissance inouïe. La gouvernementalité algorithmique qu’elle décrit opère un « contournement » du sujet qui ressemble à une opération magique. Les données circulent, les profils se construisent, les décisions s’automatisent, et tout cela se fait dans notre dos, à notre insu, sans que nous puissions y opposer la moindre résistance, sauf grâce au discours qui permet de déceler cette vérité. Le sujet politique se dissout dans les flux de données. La réflexivité devient impossible. La critique n’a plus de prise. Cette vision totalitaire du pouvoir algorithmique confère à l’IA une puissance qui dépasse largement ce que les systèmes actuels permettent de faire. Cette prétention à abolir la médiation révèle une position métaphysique radicale. Rouvroy observe que dans le régime algorithmique, « tout se passe comme si la signification n’était plus absolument nécessaire, comme si l’univers était déjà, indépendamment de toute interprétation, saturé de sens ». Cette ontologie implicite suppose un monde transparent au calcul, entièrement réductible aux corrélations statistiques. Le réel deviendrait immédiatement accessible par les données, sans le détour de l’interprétation humaine, sans l’écart qui caractérise tout rapport symbolique au monde. C’est précisément cette clôture ontologique que Rouvroy dénonce : la croyance que le calcul pourrait épuiser le réel, que les algorithmes pourraient dire ce qu’il y a sans reste ni mystère. On passe de la réduction de la réalité pour annoncer son irréductibilité et son caractère strictement ineffable.
Cette fascination transparaît dans l’excès même des formulations. Le vocabulaire est souvent hyperbolique. D’un côté, on parle d’« existential risk », d’« extinction », de « superintelligence ». De l’autre, on évoque un « antihumanisme radical », un « désert de nous-mêmes », une « vie spectrale ». Ces formulations ne sont pas de simples constats analytiques. Elles manifestent une fascination pour la catastrophe imaginée, un plaisir pris à nommer ce qui nous terrifie. C’est comme si le discours avait besoin de cet excès, de cette dramatisation, pour maintenir son intensité et son urgence. C’est comme si en nommant, on sortait la spectralité de son occultation. Le pouvoir est doté d’un pouvoir démesuré.
La pensée anglophone sur le risque existentiel révèle particulièrement bien cette structure. Les chercheurs du Centre for the Study of Existential Risk à Cambridge ou du Future of Humanity Institute à Oxford, depuis fermé, ont fait de la menace de l’IA leur objet d’étude exclusif. Toute leur activité professionnelle, toute leur identité intellectuelle est organisée autour de ce danger hypothétique. Cette focalisation institutionnelle sur la menace crée une situation paradoxale. Plus on l’étudie, plus on la détaille, plus on l’analyse, plus on la fait exister. Plus on développe des concepts pour la penser, plus elle acquiert une consistance théorique. Plus on imagine des scénarios catastrophiques, plus ils deviennent pensables et donc en un sens possibles. On assure au discours son objet de manière performative : la personne qui parle va nous sauver, selon une figure pastorale, puisqu’elle sait ce qui va se passer.
Toby Ord, dans « The Precipice » (2020), estime à 10 % la probabilité d’une catastrophe existentielle due à l’IA dans les cent prochaines années. Ce chiffrage précis d’un événement hypothétique est révélateur. Comment peut-on assigner une probabilité à quelque chose qui n’a jamais eu lieu, qui n’a aucun précédent historique, qui relève largement de la spéculation ? Ce chiffrage n’a pas de valeur scientifique au sens strict. Il a plutôt une fonction performative. Il rend tangible, mesurable, quantifiable ce qui relève peut-être du fantasme projectif. En donnant un chiffre, on fait comme si l’on disposait de données objectives, comme si l’on pouvait évaluer rationnellement un risque qui échappe par définition à toute mesure. Cette volonté de quantifier l’inquantifiable révèle le désir de maîtriser par le calcul ce qui échappe à la compréhension. Si l’on peut donner un chiffre de probabilité, c’est que l’on a prise sur l’événement. On peut le penser, le prévoir, s’y préparer. Mais cette maîtrise calculatoire est illusoire. Elle transforme une inquiétude métaphysique en problème technique, une angoisse existentielle en question probabiliste. Ce déplacement permet de maintenir l’illusion du contrôle tout en alimentant la fascination pour le danger.
Le discours sur l’IA fonctionne selon une logique du double qui mérite d’être interrogée. Il dénonce ce qu’il désire secrètement, il combat ce qui l’attire. Cette ambivalence se révèle dans les contradictions qui le traversent. D’un côté, on affirme que l’IA est déjà là, qu’elle structure nos vies, qu’elle transforme nos sociétés. Les algorithmes de recommandation orientent nos choix culturels. Les systèmes de scoring déterminent notre accès au crédit. La reconnaissance faciale surveille nos déplacements. Les assistants vocaux s’immiscent dans nos foyers. Nous vivons déjà dans un monde où l’IA est omniprésente et exerce un pouvoir considérable. Mais de l’autre côté, on présente l’IA comme un horizon à venir, une menace future qu’il faudrait prévenir. La « vraie » IA, l’IA générale, la superintelligence, tout cela appartient encore au futur. Nous ne l’avons pas encore créée. Nous ne savons pas si elle est possible. Nous ne savons pas quand elle pourrait émerger. Certains parlent de quelques années, de quelques décennies, d’autres de quelques siècles, d’autres encore considèrent que c’est peut-être impossible. Mais dans tous les cas, il s’agit d’un futur indéterminé.
Cette oscillation entre présence effective et venue à prévenir permet de maintenir l’objet dans une position liminaire discursive et pour tout dire messianique : là, caché, tapis dans la réalité et promettant sa venue. L’IA est suffisamment présente pour justifier l’urgence, pour légitimer les discours d’alarme, pour fonder la nécessité d’une réflexion. Mais elle est suffisamment future pour échapper à la vérification empirique, pour rester ouverte à toutes les projections, pour servir d’écran aux fantasmes les plus débridés. On peut lui attribuer toutes les capacités sans être démenti par la réalité, puisqu’il s’agit de ce qu’elle pourrait devenir et non de ce qu’elle est. La critique de l’IA devient ainsi performative dans un sens particulier. Elle ne se contente pas de décrire une réalité technologique préexistante. Elle la constitue comme objet philosophique digne d’être pensé. En mobilisant les grandes catégories de la métaphysique, l’être et l’étant, le sujet et l’objet, le réel et le virtuel, le discours critique confère à l’IA une densité ontologique qu’elle ne possède peut-être pas. Il la transforme en incarnation technique de questions philosophiques ancestrales, permettant ainsi de rejouer sur un nouveau terrain des débats anciens.
Lorsque Bostrom parle de superintelligence, il ne se contente pas d’extrapoler à partir des capacités actuelles des systèmes. Il convoque toute une tradition philosophique sur la nature de l’intelligence, sur le rapport entre intelligence et sagesse, sur la possibilité d’une rationalité pure. L’orthogonality thesis qu’il défend, selon laquelle intelligence et objectifs sont indépendants, n’est pas simplement une hypothèse technique. C’est une thèse philosophique sur la nature de la rationalité qui s’oppose à toute une tradition humaniste pour laquelle intelligence supérieure implique nécessairement sagesse supérieure.
Cette constitution discursive de l’IA comme objet philosophique majeur a des effets concrets. Elle oriente les recherches, elle influence les politiques publiques, elle structure les imaginaires. Les instituts de recherche sur le risque existentiel obtiennent des financements importants. Les questions d’alignement et de contrôle deviennent prioritaires. Les chercheurs en IA se voient enjoints de prendre en compte les dimensions éthiques de leurs travaux. Tout cela découle en partie de la manière dont le discours critique a constitué l’IA comme menace existentielle. Mais cette performativité du discours crée aussi un effet de boucle étrange. Plus on parle de l’IA comme menace, plus on lui confère de réalité. Plus on détaille les dangers, plus ils deviennent présents à l’esprit. Plus on imagine des scénarios catastrophiques, plus ils semblent possibles. Le discours d’alarme contribue à créer ce qu’il prétend seulement décrire. Il ne se contente pas de réagir à une menace objective, il participe à la constitution de cette menace comme réalité sociale et intellectuelle.
La structure de la conjuration
Le concept d’enthousiasme conjuratoire, tel que je l’ai développé à propos de la réalité virtuelle dans les années 1990 à partir de Jacques Derrida, éclaire la structure profonde des discours contemporains sur l’IA. Conjurer, c’est à la fois évoquer et chasser, faire venir et éloigner. C’est prononcer une parole qui fait exister ce qu’elle nomme tout en tentant de le maîtriser par cette nomination même. Les discours sur l’IA procèdent exactement ainsi. Ils invoquent un danger pour mieux le révoquer, ils appellent une menace pour mieux tenter de la prévenir. Cette structure double n’est pas une contradiction à surmonter. Elle constitue la logique affective même de ces discours, leur mode d’être spécifique
Jacques Derrida, dans « Spectres de Marx » (1993), a exploré cette logique spectrale qui éclaire notre rapport aux technologies. L’hantologie qu’il développe permet de comprendre comment quelque chose peut être là sans être présent, comment une menace peut être à la fois actuelle et virtuelle, comment le spectre habite un temps déréglé. « L’homme se fait peur. Il devient la peur qu’il inspire », écrit Derrida. Cette formule saisit exactement la dynamique à l’œuvre dans les discours sur l’IA. Nous créons l’objet de notre terreur par le discours même qui prétend nous en protéger. Le spectre, selon Derrida, c’est ce qui revient sans avoir jamais été pleinement présent. C’est ce qui hante le présent depuis un futur qui reste à venir. L’IA, dans les discours conjuratoires, fonctionne exactement comme un spectre. Elle est déjà là, puisqu’on nous dit qu’elle transforme nos vies, structure nos sociétés, menace notre avenir. Mais elle n’est pas encore vraiment là, puisque la « vraie » IA, l’AGI, la superintelligence, tout cela appartient encore au futur. Cette temporalité spectrale, ce temps « out of joint » comme dit Hamlet, hors de ses gonds, dérangé, c’est le temps même de la conjuration.
Cette conjuration opère selon plusieurs modalités qui méritent d’être analysées dans leur détail. La première consiste en une convocation systématique de l’ancien. Face à l’incertitude radicale du nouveau, face à ce qui ne se laisse pas immédiatement comprendre dans les cadres existants, on mobilise les ressources de la tradition philosophique. « Plus l’époque est en crise, plus elle est “out of joint”, plus on a besoin de convoquer l’ancien, de lui “emprunter” », note Derrida. « L’héritage des “esprits du passé” consiste, comme toujours à emprunter. » La perplexité où nous nous retrouvons face à l’IA nous pousse à rechercher dans le passé un sol rassurant, comme si l’avenir était toujours imprévisible et terrifiant. Cette convocation de l’ancien n’est pas un simple ornement érudit. Elle remplit une fonction précise. Elle permet de ramener l’inconnu au connu, de réduire l’imprévisible à des schèmes familiers, de maintenir la continuité là où l’on prétend voir une rupture. Mais surtout, elle permet de rendre invisible l’interprétation à elle-même. Quand l’exégèse est oblitérée, elle permet de tirer argument de tous les événements, de tous les écrits, car elle procède d’une réduction systématique des éléments extérieurs à ses constituants propres.
La clarté des distinctions que les discours conjuratoires réaffirment sans cesse révèle en réalité une stratégie de surveillance des frontières. « Le mal consisterait en ce que les philosophes prennent les réalités virtuelles pour de véritables mondes autonomes. N’oublions jamais que la réalité virtuelle est une représentation du réel et des gens qui sont véritablement là », affirme Pierre Lévy. Cette affirmation ontologique marquait à l’époque l’hostilité de celui qui garde une frontière, non avec des armes, mais à l’aide d’une autorité. L’emploi du concept de « mal » pointe cette hostilité terrifiée qui tente de défendre son territoire en se prévenant elle-même, c’est-à-dire en se retournant contre elle-même. Cette surveillance des frontières consiste à sceller une voie avant même qu’elle ne puisse être expérimentée. Mais toute l’ambivalence de la stratégie réside dans le fait que si on referme a priori ce chemin, on doit pourtant bien l’indiquer de quelque manière. On met donc en scène un faux parcours dans cette indistinction, un simulacre de voyage qui ne prête pas à conséquence, mais qui donne l’effet d’être convaincant. Par le refus, on appelle à la présence ce qui est nommé. La révocation est aussi invocation. La répulsion est aussi attirance. Car la conjuration doit exorciser le retour de ce qui attire. « Comme une porte entre morts et vivants », la technologie ouvre un espace liminal où se joue quelque chose de l’ordre de la hantise. Le fantôme essaye de prendre corps. Il nous regarde avant que nous le regardions. La visite spectrale est un événement, quelque chose qui arrive sans avoir été pleinement anticipé. Et c’est précisément cet événement que les discours conjuratoires tentent de maîtriser en le nommant, en le catégorisant, en le soumettant aux schèmes métaphysiques.
Derrida note que « à ce qui lie aujourd’hui la Religion et la Technique », il faudrait ajouter toute la dimension onto-théologique qui structure notre rapport aux innovations. La conception des algorithmes comme lieu de vérité absolue, l’attribution aux systèmes d’IA de pouvoirs divins, la rhétorique messianique ou apocalyptique qui accompagne leur émergence, tout cela révèle comment la technique devient le lieu où viennent se rejouer des questions religieuses refoulées. Les nombres deviennent ce « dieu antérieur, supérieur » dont parle Philippe Quéau, cette « autonomie » et cette « pureté » libérées de toute contrainte extérieure et pourtant raison de toutes les raisons. C’est toute la tradition de la philosophie continentale qui est convoquée. Leibniz et son principe de raison sont mobilisés pour penser l’algorithme. Le principe « nihil est sine ratione », rien n’est sans raison, trouverait dans la computation sa forme accomplie. Chaque état d’un système informatique découle nécessairement de l’état précédent selon des règles déterminées. Rien n’arrive par hasard. Tout peut être calculé, prévu, optimisé. Cette lecture fait de l’ordinateur la réalisation technique du rêve leibnizien d’une langue universelle et d’un calcul capable de résoudre tous les différends. « Calculons » disait Leibniz pour mettre fin aux disputes. L’IA réaliserait ce programme.
Heidegger et la question de la technique occupent une place centrale et le plus souvent implicite dans cette convocation de l’ancien. La Gestell, l’arraisonnement, devient la clé pour penser l’IA. La technique moderne ne serait pas un simple moyen, mais un mode de dévoilement du réel qui réduit tout étant à n’être que fonds disponible pour une exploitation. L’IA accomplirait cette réduction en transformant la totalité du réel en données calculables. Elle réaliserait l’essence de la technique telle que Heidegger l’avait pensée. Son appareil conceptuel est réactivé pour penser ce qui advient parce qu’il permet d’exprimer la totalisation d’un destin historique caché.
Dans le monde anglophone, c’est une autre tradition philosophique qui est mobilisée, mais la fonction reste identique. L’utilitarisme de Bentham et Mill fournit le cadre éthique pour penser les décisions de l’IA. Le calcul utilitariste qui vise à maximiser le bonheur du plus grand nombre devient le modèle des fonctions objectif que l’on donne aux algorithmes. La théorie de la décision rationnelle, héritée de von Neumann et Morgenstern, permet de modéliser le comportement d’agents intelligents. La philosophie analytique et sa logique formelle offrent le langage pour décrire les processus de raisonnement automatique. Bostrom lui-même, dans son « Simulation Argument » (2003), réactive le doute cartésien sur la réalité du monde extérieur. Descartes imaginait un malin génie capable de nous tromper sur tout. Bostrom imagine une civilisation avancée capable de créer des simulations informatiques si réalistes que les êtres simulés ne pourraient pas distinguer leur monde du monde réel. L’hypothèse que nous vivions dans une telle simulation n’est qu’une version technologisée du doute hyperbolique cartésien. Le malin génie devient un ordinateur suffisamment puissant. L’illusion métaphysique devient une illusion informatique.
Cette manœuvre théorique permet de domestiquer l’altérité de l’IA en la ramenant à des questions métaphysiques ancestrales. Le problème de la distinction entre réalité et apparence, entre être et simulacre, traverse toute l’histoire de la philosophie occidentale depuis Platon. En inscrivant l’IA dans cette généalogie, on supprime son éventuelle singularité. Elle n’est plus un événement imprévisible, mais l’itération contemporaine d’une question éternelle. Cette opération est rassurante malgré les apparences d’effroi. Elle permet de penser que nous savons déjà de quoi il s’agit, que nous avons les ressources intellectuelles pour comprendre ce qui arrive.
La deuxième modalité de la conjuration consiste en une réaffirmation obsessionnelle de la clarté des distinctions. Face à ce qui menace de brouiller les frontières, entre l’humain et la machine, entre le réel et le simulé, entre le naturel et l’artificiel, le discours conjuratoire trace et retrace inlassablement ces mêmes frontières. Il les affirme avec force comme pour mieux s’assurer qu’elles tiennent. Cette surveillance des frontières révèle une angoisse profonde. L’angoisse que les distinctions sur lesquelles repose notre compréhension du monde soient en train de se dissoudre. Il faut distinguer, séparer, ne pas confondre. Le virtuel n’est qu’une image, une représentation, une simulation du réel. Il ne faut jamais oublier cette hiérarchie. L’image doit rester soumise au modèle. Le sensible doit être dominé par l’intelligible. Cette insistance révèle une inquiétude. Et si justement la distinction ne tenait plus ? Et si l’image acquérait une autonomie qui lui permettrait d’échapper au modèle ? Et si l’intelligence était une illusion qu’on se donnait à soi-même ? Cette possibilité est immédiatement refoulée, exorcisée, conjurée. L’intelligence machinique ne serait qu’un simulacre de la véritable intelligence humaine. On ne s’interroge pas même sur la longue généalogie des discriminations intellectuelles où nous n’avons cessé de dire ce qui avait la dignité intellectuelle et ce qui ne l’avait pas. Traçant des frontières qui semblent aujourd’hui des plus obscènes.
Bostrom, de son côté, élabore des taxonomies détaillées pour séparer différents types d’IA. Il distingue soigneusement l’IA étroite (narrow AI) qui excelle dans un domaine spécifique, l’IA générale (AGI) qui égalerait les capacités humaines dans tous les domaines, et la superintelligence qui les surpasserait largement. Ces catégories créent des seuils, des discontinuités, des frontières nettes. Elles permettent de penser que nous saurons reconnaître le moment où l’on passera d’un niveau à l’autre. Elles maintiennent l’illusion du contrôle. Nous pourrons voir venir le danger, nous aurons le temps de réagir. Russell distingue les systèmes « human-compatible » des systèmes potentiellement dangereux. Il développe toute une théorie de l’alignement des valeurs pour s’assurer que les objectifs de l’IA restent compatibles avec les valeurs humaines. Cette distinction suppose qu’il est possible de tracer une ligne claire entre ce qui est compatible et ce qui ne l’est pas, entre ce qui respecte nos valeurs et ce qui les viole, et finalement que nous connaissons nos valeurs. Mais cette clarté est peut-être illusoire. Les valeurs humaines sont contradictoires, contextuelles, en évolution constante. Elles ne se laissent pas facilement formaliser en code informatique. Ces taxonomies et ces distinctions ne sont pas de simples outils analytiques. Ce sont des actes conjuratoires qui tentent de maintenir un ordre menacé. En traçant des frontières nettes, en établissant des classifications claires, on se protège contre l’angoisse de l’indistinction. On maintient l’illusion que nous comprenons ce dont nous parlons, que nous avons prise sur l’objet, que nous pouvons le maîtriser par la conceptualisation. Mais cette clarté affichée masque peut-être une confusion profonde. Les catégories que nous utilisons pour penser l’IA sont-elles adéquates ? Ne sommes-nous pas en train de plaquer sur un phénomène nouveau des schèmes qui ne lui conviennent pas ?
La troisième modalité de la conjuration se révèle dans la temporalité contradictoire de ces discours. Ils oscillent entre deux régimes temporels apparemment incompatibles. D’un côté, ils affirment l’inéluctabilité de l’IA. Son développement suivrait une logique inexorable. Nous serions emportés par un mouvement irrésistible. La loi de Moore décrit la croissance exponentielle de la puissance de calcul. Cette croissance se poursuivra nécessairement jusqu’à ce qu’elle produise une IA générale puis une superintelligence. C’est une question de temps, pas de possibilité. L’avenir est déjà écrit dans la courbe exponentielle de la puissance de calcul. Cette rhétorique de l’inéluctabilité crée un sentiment d’urgence. Il faut agir maintenant, avant qu’il ne soit trop tard. Le temps presse. Nous sommes dans une fenêtre critique où nous pouvons encore orienter le développement de l’IA. Mais cette fenêtre se referme rapidement. Dans quelques décennies, peut-être dans quelques années, il sera trop tard. La superintelligence aura émergé et nous ne pourrons plus rien contrôler. Cette urgence justifie tous les discours d’alarme, toutes les mobilisations, tous les appels à la régulation, et l’autorité de celui qui parle qui souhaite. Mais de l’autre côté, les mêmes discours insistent sur la nécessité de guider, d’orienter, de contrôler ce développement. Il faut mettre en place des garde-fous éthiques et techniques. Il faut travailler sur le problème de l’alignement. Il faut développer des méthodes pour vérifier que les systèmes font bien ce que nous voulons qu’ils fassent. Il faut créer des institutions de gouvernance internationale. Tout cela suppose que l’avenir n’est pas complètement déterminé, qu’il reste ouvert à l’intervention humaine, que nous pouvons encore choisir la direction que prendra le développement technologique.
Cette contradiction apparente entre inéluctabilité et prévention n’est qu’apparente. Elle permet de maintenir l’objet dans une zone d’incertitude où il est à la fois déterminé et indéterminé. Déterminé, donc il faut le prendre au sérieux, mobiliser des ressources, agir avec urgence. Indéterminé, donc il reste modifiable par l’intervention humaine, nos actions ont encore un sens, nous ne sommes pas complètement impuissants. Cette double temporalité est constitutive de la structure conjuratoire. Elle permet de faire exister la menace tout en maintenant l’illusion du contrôle. On affecte des qualités à l’IA pour confirmer l’ordre de notre propre discours. Tout ce qui sera dit de l’IA est le miroir noir du discours.
Si le processus est véritablement inéluctable, à quoi bon résister ? Si la métaphysique s’accomplit nécessairement dans la technique, que peut notre volonté contre cette nécessité historique ? Cette contradiction révèle que l’inéluctabilité proclamée n’est pas vraiment une fatalité. C’est plutôt une manière de dramatiser, de donner du poids au discours, de créer un sentiment d’urgence avec un comique involontaire. Bostrom développe une rhétorique similaire. La superintelligence émergera nécessairement si nous ne nous autodétruisons pas avant. C’est le point terminal de l’évolution de l’intelligence. Mais nous pouvons et devons travailler sur le problème du contrôle. Nous pouvons mettre en place des mécanismes pour nous assurer que cette superintelligence sera bienveillante. Nous pouvons « gagner au jeu de l’IA » si nous nous y prenons bien. Cette oscillation entre déterminisme et volontarisme structure l’ensemble de son argumentation.
L’enthousiasme et la crainte ne sont pas simplement juxtaposés dans ces discours. Ils sont intriqués de manière profonde. Chaque motif d’enthousiasme contient sa propre terreur, chaque source de crainte recèle sa fascination. L’IA qui promet d’augmenter nos capacités cognitives est aussi celle qui risque de nous rendre obsolètes. Comment ne pas être fasciné par cette perspective ? Devenir obsolète, c’est aussi en un sens être délivré du fardeau de l’existence, être remplacé par quelque chose de supérieur. Il y a là une forme de soulagement, presque de désir et de transcendance. L’IA qui pourrait résoudre tous les problèmes insolubles, guérir toutes les maladies, mettre fin à la pauvreté, nous permettre de coloniser l’espace, c’est aussi celle qui pourrait échapper à tout contrôle et nous détruire. Cette réversibilité systématique révèle que nous avons affaire non pas à deux affects séparés, mais à une structure affective unique, profondément ambivalente. La conjuration consiste précisément à maintenir ensemble ces deux pôles, à les faire coexister dans une tension qui ne se résout jamais.
Les stratégies de prévention mises en place révèlent particulièrement bien la structure conjuratoire. Dans le monde anglophone, toute une industrie de l’« AI safety » s’est développée. Le Machine Intelligence Research Institute fondé par Eliezer Yudkowsky, le Future of Humanity Institute créé par Nick Bostrom à Oxford, le Center for AI Safety lancé aux États-Unis, tous ces instituts ont pour mission de prévenir les risques existentiels liés à l’IA. Ils organisent des conférences, publient des articles, forment des chercheurs, conseillent des gouvernements.
Cette institutionnalisation de la prévention crée une situation paradoxale. Elle fait exister professionnellement et socialement le danger qu’elle prétend prévenir. Des carrières entières sont construites autour de la menace de la superintelligence. Des financements importants sont obtenus pour travailler sur des problèmes qui n’existent peut-être que dans l’imagination de ceux qui les étudient. Plus on développe des « solutions » au « control problem », plus on confirme l’existence et la gravité du problème. Plus on élabore des méthodes d’« alignement des valeurs », plus on admet implicitement que le désalignement est possible et probable. Cette boucle étrange où le discours de prévention contribue à créer ce qu’il prétend seulement prévenir est caractéristique de la conjuration. On invoque le danger pour mieux pouvoir le révoquer. On fait exister la menace pour mieux pouvoir prétendre la maîtriser. Cette opération n’est pas simplement cynique ou manipulatrice. Elle répond à une nécessité psychologique et sociale profonde. Face à l’incertitude radicale de l’avenir technologique, nous avons besoin de nommer ce qui nous inquiète, de le conceptualiser, de le rendre pensable. Mais cette nomination fait exister ce qu’elle nomme. Elle transforme une inquiétude vague en menace identifiée, un malaise diffus en problème circonscrit.
La non-spécificité historique
L’analyse des discours sur l’IA révèle leur caractère profondément non spécifique. La structure conjuratoire qui les caractérise n’est pas propre à l’IA. Elle a accompagné l’émergence de nombreuses technologies au cours de l’histoire moderne. À chaque fois qu’une innovation technique semble remettre en question des catégories fondamentales, à chaque fois qu’un dispositif nouveau brouille des frontières établies, le même schème discursif se réactive. Cette répétition transgénérationnelle mérite d’être interrogée dans ce qu’elle révèle de notre rapport à la technique.
Le cas de la réalité virtuelle dans les années 1990 est particulièrement éclairant parce qu’il est chronologiquement proche et que les acteurs sont parfois les mêmes. Dans le monde anglophone, Howard Rheingold publie « Virtual Reality » en 1991. Son livre oscille entre célébration des possibilités infinies ouvertes par l’immersion numérique et inquiétude face à la « déréalisation » qu’elle pourrait entraîner. Il imagine des mondes synthétiques où l’on pourrait vivre des expériences impossibles dans le monde physique. Mais il s’inquiète aussi de la confusion possible entre réel et virtuel, de la tentation de fuir le monde matériel pour des paradis artificiels. Jaron Lanier, qui a inventé le terme « virtual reality » et développé certains des premiers dispositifs commerciaux, déploie une rhétorique messianique. La réalité virtuelle permettrait de transcender les limitations du corps, de communiquer directement d’esprit à esprit, de créer des réalités partagées modelées par notre imagination collective. C’est une technologie potentiellement libératrice qui pourrait transformer la condition humaine. Mais simultanément, Lanier met en garde contre les dangers de cette puissance. La VR pourrait être utilisé pour manipuler, pour asservir, pour créer des illusions dont on ne pourrait plus sortir.
En France, Philippe Quéau publie une série d’ouvrages sur le virtuel. Dans « Éloge de la simulation » en 1986, puis dans « Metaxu » en 1989, et enfin dans « Le Virtuel » en 1993, il mobilise toute la tradition philosophique occidentale pour penser cette technologie émergente. Platon et sa caverne, Aristote et sa théorie de la puissance et de l’acte, Leibniz et ses mondes possibles, tout le corpus métaphysique est convoqué. La réalité virtuelle devient le lieu où se joue la question du rapport entre l’être et l’apparence, entre la substance et l’accident, entre le réel et le possible. Quéau développe une argumentation quasi-théologique qui préfigure exactement celle que nous trouvons aujourd’hui dans les discours sur l’IA. D’un côté, la réalité virtuelle est présentée comme l’accomplissement d’une aspiration millénaire de l’humanité à transcender les limitations du monde matériel. De l’autre, elle constitue un danger pour notre rapport au réel. Elle risque de nous faire perdre le sens de la différence entre l’authentique et le simulé. Il faut donc maintenir une hiérarchie claire. Le virtuel n’est qu’une image, une représentation. Le réel reste le fondement. L’intelligible domine le sensible. Le modèle précède l’image. Cette structure argumentative est très proche de celle que nous retrouvons chez Sadin trente ans plus tard à propos de l’IA. Les mêmes distinctions sont tracées. Les mêmes hiérarchies sont affirmées. Les mêmes inquiétudes sont exprimées. Seul l’objet technique a changé. Mais la logique discursive reste identique. Cela suggère que nous avons moins affaire à une analyse spécifique d’une technologie particulière qu’à l’activation d’un schème interprétatif récurrent qui se déploie à chaque fois qu’une innovation technique semble menacer nos catégories fondamentales.
Plus loin encore dans le temps, le cyberespace des années 1980-90 suscita des discours remarquablement similaires. William Gibson invente le terme « cyberspace » dans son roman « Neuromancer » publié en 1984. Il décrit une « hallucination consensuelle » où des millions d’utilisateurs se connectent simultanément, naviguant dans des espaces de données visualisés. Cette fiction crée immédiatement une mythologie de l’immatériel, de la désincarnation, du dépassement du corps. Le cyberespace devient le lieu où la conscience pourrait enfin s’émanciper de sa prison charnelle. John Perry Barlow, parolier des Grateful Dead devenu théoricien du numérique, publie en 1996 sa « Déclaration d’indépendance du cyberespace ». Ce texte, écrit en réaction aux tentatives de régulation d’Internet par les gouvernements, proclame l’autonomie radicale du monde virtuel. « Gouvernements du monde industriel, vous géants fatigués de chair et d’acier, je viens du Cyberespace, la nouvelle demeure de l’Esprit. » Le cyberespace serait un espace de liberté absolue échappant aux États, aux lois, aux contraintes matérielles. C’est un lieu utopique où l’humanité pourrait enfin réaliser ses aspirations les plus nobles. Mais simultanément, d’autres voix s’alarment du contrôle total que permettrait cette technologie. Si toutes nos communications, toutes nos transactions, toutes nos relations passent par des réseaux numériques, alors ceux qui contrôlent ces réseaux disposent d’un pouvoir sans précédent. Le cyberespace devient aussi bien un espace de surveillance panoptique, de manipulation des esprits, d’aliénation généralisée. La même technologie porte simultanément la promesse de la liberté totale et la menace du contrôle absolu.
Cette ambivalence structurelle se retrouve dans tous les discours sur les technologies de communication et de simulation. La photographie au XIXe siècle fut accusée de « voler l’âme » de ceux qu’elle représentait. Balzac refusait d’être photographié par crainte qu’une partie de son être ne soit capturée par l’appareil. Baudelaire dénonce la photographie comme « refuge de tous les peintres manqués » qui menace l’art véritable. La reproduction mécanique du réel mettrait en péril la création artistique authentique. Mais simultanément, d’autres célèbrent les possibilités ouvertes par ce nouveau médium. La photographie permettrait de saisir des aspects de la réalité invisibles à l’œil nu, de conserver des traces du passé, de démocratiser l’accès aux images.
Le cinéma au début du XXe siècle suscite des inquiétudes similaires. Maxim Gorki, après avoir assisté en 1896 à une projection des frères Lumière, écrit un article troublant intitulé « Le royaume des ombres ». Il décrit l’expérience comme inquiétante, presque sinistre. Les images en mouvement sur l’écran ressemblent à la vie, mais sont privées de substance, de couleur, de son. C’est un monde spectral qui menace de se substituer au monde réel. Bergson s’intéresse aux effets du cinéma sur la perception. Le découpage du mouvement en images fixes puis leur projection rapide créent une illusion qui pourrait transformer notre rapport au temps et à l’espace.
La télévision dans les années 1950 devient à son tour l’objet de discours ambivalents. Elle promet de rapprocher les gens, de créer un espace public partagé, d’éduquer les masses. Mais elle est aussi dénoncée comme instrument d’abêtissement, de passivité, de contrôle idéologique. Guy Debord développe sa théorie de la « société du spectacle » où la vie authentique est remplacée par sa représentation. La télévision devient l’incarnation de cette logique spectaculaire qui transforme tout en image et maintient les individus dans une contemplation passive.
L’informatique personnelle dans les années 1980 génère le même type d’enthousiasme et de crainte. L’ordinateur personnel pourrait démocratiser l’accès à l’information, augmenter nos capacités cognitives, libérer notre créativité. Steve Jobs compare l’ordinateur à un « vélo pour l’esprit », un outil qui démultiplie nos capacités naturelles. Mais d’autres s’inquiètent de la dépendance croissante aux machines, de l’isolement social qu’elles pourraient entraîner, de la standardisation de la pensée par les logiciels.
À chaque fois, le même schème se répète avec une régularité troublante. Une technologie émergente devient le support de projections métaphysiques massives. On lui prête le pouvoir de transformer en profondeur la condition humaine et la réalité comme telle, de remettre en question ce qui semblait essentiel, de marquer une rupture historique absolue. À chaque fois, les mêmes concepts philosophiques sont mobilisés. La nature humaine, la réalité, la vérité, le sujet, la liberté, l’authenticité, tous ces termes traversent les époques et viennent se fixer sur les objets techniques successifs. À chaque fois, on oscille entre utopie émancipatrice et dystopie catastrophiste, entre célébration des possibilités infinies et dénonciation des dangers mortels.
Cette répétition révèle que nous avons moins affaire à des objets techniques spécifiques qu’à une structure discursive. Ce n’est pas l’IA en tant que telle qui détermine la forme des discours qu’elle suscite, mais notre manière de nous rapporter à la nouveauté technologique. Face à ce qui ne se laisse pas immédiatement comprendre dans les cadres existants, nous activons des schèmes interprétatifs anciens, nous convoquons des peurs archaïques, nous projetons des espoirs démesurés. La technique nouvelle devient l’écran sur lequel nous projetons nos fantasmes les plus profonds, nos désirs refoulés, nos angoisses existentielles. L’objet technique devient le support idéal pour nos projections précisément parce qu’il ne leur oppose aucune résistance. Il se laisse investir par tous les affects, habiter par tous les concepts, traverser par toutes les inquiétudes parce qu’il est simultanément désir et crainte, matière formée par ce croisement.
Heidegger avait déjà noté ce phénomène dans sa « Question de la technique ». Il souligne que l’essence de la technique n’est rien de technique. Ce que la technique est véritablement ne se révèle pas dans son fonctionnement matériel, mais dans notre rapport à elle, dans la manière dont elle transforme notre être-au-monde. Mais cette transformation n’est pas propre à une technique particulière. Elle caractérise la technique moderne en général, ce que Heidegger nomme la Gestell, l’arraisonnement. Toute technique moderne, qu’il s’agisse de la centrale électrique ou de l’algorithme, participe de ce même mouvement qui transforme le monde en fonds disponible pour une exploitation. Bien sûr, Heidegger n’avait pas analysé que les technologies sont différentes des techniques en ce qu’elles sont aussi un logos et qu’elles supportent leur essence d’une manière infiniment plus proche. Le caractère non spécifique des discours sur l’IA ne signifie pas qu’ils soient insignifiants ou qu’il faille les rejeter comme pure idéologie. Au contraire, leur récurrence même indique qu’ils expriment quelque chose de nécessaire dans notre rapport à la technique. Ils témoignent d’une difficulté fondamentale, d’une aporie que nous ne parvenons pas à surmonter : l’excès de la finitude. Comment penser la technique sans la réduire soit à un simple instrument neutre dont nous resterions maîtres, soit à une force autonome qui nous dépasserait et nous asservirait ? Entre l’instrumentalisme naïf et le déterminisme technologique, il semble difficile de tracer une voie médiane.
Les discours conjuratoires tentent précisément de maintenir cet entre-deux impossible. Ils affirment simultanément que nous contrôlons la technique puisque nous la créons et que la technique nous échappe puisqu’elle produit des effets imprévus. Ils proclament que l’avenir technologique est déterminé par des lois inexorables et qu’il reste ouvert à notre intervention. Ils soutiennent que la technique réalise des possibilités qui existaient déjà virtuellement dans l’essence de l’être humain et qu’elle crée du radicalement nouveau. Ces contradictions ne sont pas des défauts de raisonnement. Elles expriment l’impossibilité de penser simplement notre condition d’êtres techniques. Car nous sommes des êtres techniques au sens où la technique ne nous est pas extérieure. Elle ne s’ajoute pas à une nature humaine qui serait déjà constituée. Elle participe à la constitution même de notre humanité. Comme l’a montré l’anthropologie, l’humain n’existe pas d’abord comme être biologique qui inventerait ensuite des outils. L’hominisation elle-même est inséparable de la technique. La station debout, la libération de la main, le développement du cerveau, l’apparition du langage, tout cela est lié à l’usage d’outils. Nous sommes toujours déjà techniques. Et ce toujours déjà est le fruit d’une différence, non d’une identité, différence entre l’humain et la technique, différence de l’humain avec lui-même. Mais si la technique participe de notre essence, alors chaque transformation technique majeure nous affecte dans notre être même. Nous ne restons pas identiques à nous-mêmes en utilisant de nouveaux outils. Les outils nous transforment autant que nous les créons. L’écriture a transformé la mémoire et la pensée. L’imprimerie a transformé la transmission du savoir. L’horloge mécanique a transformé notre rapport au temps. L’électricité a transformé notre manière d’habiter l’espace. Chacune de ces innovations a effectivement modifié quelque chose dans la condition humaine.
Alors pourquoi les discours qui accompagnent ces transformations nous semblent-ils excessifs, démesurés, fascinés ? Peut-être parce qu’ils tentent de dire quelque chose qui excède les capacités du langage conceptuel. Ils essaient de nommer une transformation qui est en train de se produire, mais dont nous ne pouvons pas encore mesurer la portée. Ils anticipent un avenir qui reste radicalement ouvert tout en prétendant le connaître. Cette position impossible génère nécessairement des discours contradictoires, ambivalents, chargés affectivement. La structure conjuratoire révèle peut-être moins une erreur de pensée qu’une manière nécessaire de se rapporter à ce qui advient sans qu’on puisse le maîtriser conceptuellement. Conjurer, c’est tenter de faire exister par la parole ce qui reste encore indéterminé. C’est essayer de donner forme à ce qui n’en a pas encore. C’est chercher à prévenir ce qui n’est peut-être qu’une virtualité, mais qui pourrait se réaliser. Cette opération magique de la parole qui fait exister ce qu’elle nomme n’est peut-être pas si éloignée de ce que font réellement ces discours. Ils créent la réalité qu’ils prétendent décrire. Ils constituent comme objet ce qui n’existe encore que comme possibilité vague. Tout comme la technique qui fait advenir des réalités.
Pour en finir
L’analyse de l’enthousiasme conjuratoire à l’œuvre dans les discours sur l’IA ne vise pas à disqualifier la critique ni à minimiser les enjeux réels soulevés par ces technologies. Elle invite plutôt à une réflexivité accrue : en reconnaissant la structure affective qui sous-tend ces discours, leur fascination pour ce qu’ils dénoncent, leur ambivalence entre appel et refus, leur tendance à projeter des concepts métaphysiques sur des objets techniques, nous pouvons peut-être nous ouvrir à d’autres modalités de pensée.
Il ne s’agit pas d’adopter une neutralité impossible. Les technologies d’IA soulèvent des questions réelles concernant le travail, la surveillance, la discrimination algorithmique, la concentration du pouvoir. Mais ces questions gagnent à être abordées dans leur spécificité concrète plutôt que comme manifestations d’un danger métaphysique abstrait. Car l’IA n’est pas d’abord une technologie à laquelle s’ajouterait ensuite un discours. Ils émergent ensemble, comme l’a démontré le test de Turing : il n’y a pas d’abord l’IA puis ensuite la manière d’en parler.
Cette coappartenance va plus loin encore. L’enthousiasme conjuratoire n’est pas un défaut accidentel qu’il faudrait corriger, une pathologie du discours dont on pourrait se débarrasser pour enfin penser clairement. Il fait partie intégrante de la technologie elle-même, de son mode d’existence sociale et intellectuelle. Une technologie n’existe jamais comme pur objet matériel : elle existe toujours déjà prise dans un réseau de discours, de projections, d’affects, de fantasmes qui la constituent autant que son substrat technique. Les peurs et les espoirs démesurés, les projections métaphysiques, les prophéties apocalyptiques ou messianiques ne sont pas des ornements extérieurs à la technique. Ils sont la manière dont elle advient dans le monde humain, dont elle prend consistance, dont elle devient quelque chose qui compte pour nous.
Reconnaître cela change la nature du problème. Il ne s’agit plus de chercher à penser l’IA « en elle-même », débarrassée de tous les discours qui l’enveloppent. Cette pureté technique est un fantasme aussi illusoire que celui de la superintelligence. Il s’agit plutôt de comprendre comment discours et technique se co-constituent, comment ils forment ensemble une réalité hybride dont ni le pôle technique ni le pôle discursif ne peuvent être isolés. Cela signifie que toute intervention sur ces technologies doit aussi être une intervention sur les discours qui les portent, et réciproquement. Transformer nos manières de parler de l’IA, c’est déjà transformer l’IA elle-même en tant qu’elle existe socialement.
L’expérimentation ouvre alors un autre chemin. Non pas pour échapper à l’enthousiasme conjuratoire, ce serait impossible,, mais pour en moduler les effets, pour en déplacer les lignes, pour en faire varier les intensités. Expérimenter avec l’IA plutôt que la conjurer, c’est accepter de ne pas savoir à l’avance ce qu’elle est, la laisser se manifester dans ses usages concrets, ses effets imprévus, ses ratés et ses surprises. C’est travailler avec les systèmes plutôt que de les penser depuis l’extérieur, observer ce qu’ils font effectivement plutôt que ce qu’ils sont censés faire ou censés devenir.
Cette posture expérimentale se tient dans le présent de l’action plutôt que dans l’oscillation conjuratoire entre passé convoqué et futur à prévenir. Elle ne demande pas « qu’est-ce que l’IA va devenir ? » mais « que pouvons-nous faire avec elle maintenant et que nous fait-elle ? ». Elle valorise les savoirs situés contre les théories générales, accepte l’échec comme moment révélateur, maintient une modestie théorique qui renonce à la satisfaction de pouvoir inscrire chaque phénomène dans une grande fresque historique.
Mais cette expérimentation n’abolit pas l’enthousiasme conjuratoire. Elle le travaille de l’intérieur, elle le déplace, elle en fait un matériau plutôt qu’un destin. Car si les discours conjuratoires font partie intégrante des technologies, alors expérimenter avec les technologies, c’est aussi expérimenter avec ces discours, explorer ce qu’ils permettent et ce qu’ils empêchent, découvrir comment ils ouvrent et ferment des possibles. Les grands récits et les destins, les déterminations historiques sous-jacentes qui réservent des possibles, existent peut-être. Mais à condition d’y intégrer les discours et son propre discours, de ne pas les poser du dehors, de comprendre leur profonde coappartenance avec ce qu’ils nomment.
Les discours conjuratoires sur l’IA continueront à se déployer. Ils expriment notre angoisse face à ce que nous créons sans pouvoir en maîtriser les effets, la nature excessive et débordante de notre finitude. Mais nous pouvons les accompagner d’autres pratiques intellectuelles, moins spectaculaires, plus attentives à la complexité. C’est peut-être là que réside la véritable liberté : non pas échapper à l’enthousiasme conjuratoire, mais le reconnaître pour ce qu’il est, partie prenante de la technologie elle-même, et ainsi maintenir un espace où penser et pratiquer autrement, où accepter l’incertitude du devenir sans chercher immédiatement à la conjurer par la parole prophétique.
The emergence of generative artificial intelligences marks a new episode in the long history of technologies that inextricably arouse both fascination and dread. The discourses accompanying this emergence present a remarkable affective structure. They oscillate between promises of radical emancipation and existential threat, between celebration and conjuration. This ambivalence crosses linguistic and theoretical borders, from Éric Sadin to Nick Bostrom, from Antoinette Rouvroy to researchers at Oxford’s Future of Humanity Institute. Everywhere, a common pattern, beyond indisputable conceptual differences, seems to repeat itself with troubling consistency.
The systematic nature of this repetition invites us to interrogate less the technological objects themselves than the way discourse constitutes them as supports for philosophical and metaphysical projections. Indeed, technologies as matter shaped by an individual and historical project offer an ideal surface for projection. Critical theorists of AI deploy an impressive conceptual arsenal to think about what threatens humanity. They summon metaphysics, onto-theology, governmentality, existential risk to form the image of an end. But this intensive theoretical mobilization perhaps masks a paradox. The more they strive to think the danger, the more they seem fascinated by it. The more they attempt to exorcise the threat, the more they make it exist as inevitable reality. The more they claim to prevent the future, the more they seem to call it forth. When we hear them, we are seized: at first the critique, then the rhythm accelerates as if the object of terror generated a jouissance of logos capable of measuring itself against this immense enemy.
This double structure of discourse, which revokes what it invokes, which distances what it brings closer, deserves to be interrogated in its very necessity. For this is not simply a defect of reasoning or a contradiction that need only be pointed out to be reformed. There is something deeper at work, something that belongs to affect before belonging to conceptual thought and that determines the latter in the background. A tonality, an intensity, an urgency that overflows the rational framework these discourses claim to maintain. However, this inquiry will not give rise to a critical essay in the traditional sense. It will not adopt the critical position that would presuppose a position of truth always too close to the authoritarian. If we refuse this posture, it is because it would reinstate a certain linguistic order where one can only speak by responding “constructively” to the immediately preceding discourse. Critique seeks concrete friends and enemies to awaken its abstract politics, but it would not even be capable of listening, understanding, and opening itself to other discourses. Rather, it is a matter of understanding the necessity of these discourses, of feeling their affects in their specificity and singularity. For we do not think it possible to completely detach ourselves from these theories of artificial intelligence, to escape them and to put outside ourselves the fundamental affects contained within them.
The Return of Great Incarnations
AI becomes, in critical discourses, much more than a set of computer techniques. It transforms into an incarnation of fundamental philosophical concepts, into a receptacle of an entire history of Western thought. This operation of transformation is not insignificant. It reveals something essential in our relationship to technique and in our way of thinking about what comes to pass without our having fully willed or understood it. Thus, Éric Sadin makes AI the culmination of all Western metaphysics. AI becomes under his pen a “technè logos,” “an artifactual entity endowed with the power to state, ever more precisely and without delay, the supposedly exact state of things.” He writes: “It stands as an organ empowered to assess the real more reliably than ourselves as well as to reveal to us dimensions hitherto veiled from our consciousness.” For him, it represents the technical realization of the onto-theological project that has traversed the West since Plato. It is no longer merely a set of algorithms and data; it is the very incarnation of this will to truth that has structured our civilization. AI states truth without human mediation, it short-circuits judgment, it automates decision-making. For Sadin, we face a “radical antihumanism,” precisely the subtitle of his work “AI or the Challenge of the Century” (2018), whose gravity should not be underestimated. The formulation itself is revealing in its intensity. It is not simply one risk among others, but a threat that attacks the very essence of what makes our humanity.
Antoinette Rouvroy develops a different conceptual apparatus, but one equally philosophically charged. She sees in AI what she calls “algorithmic realism,” an “onto-epistemological configuration” that “claims to short-circuit ‘representation'” and establishes “a regime of correlation detection without symbolic or political mediation, claiming to abolish the distinction between models and world.” This ontological position rests on the illusion that the digital would give direct access to the real. Yet, as she emphasizes, in a Kantian vein, “as human beings, we only have access to the world through the representation we make of it.” The idea that it would be possible “to have access to the world itself, directly, is an idea that is completely false.” The world, she insists, “will always remain mysterious to us whatever the refinement of the algorithms through which we try to explore it.” The real would be irreducible. Algorithmic governmentality produces no subjectivation; it avoids human subjects; it feeds on infraindividual data insignificant in themselves to shape supraindividual models of behavior. The moment of reflexivity, of critique, of recalcitrance necessary for subjectivation to occur seems constantly suspended, avoided, circumvented. Rouvroy even speaks of the “death of the political,” a formulation that makes AI a historical actor of unprecedented power, capable of annihilating what constituted the heart of life in common.
Anglophone thought develops symmetrical figures, but drawing from other intellectual traditions. In Nick Bostrom, AI embodies superintelligence, that hypothetical entity that would mark not simply a transformation, but potentially the extinction of humanity. His book “Superintelligence: Paths, Dangers, Strategies,” published in 2014, created an entire vocabulary of danger that now circulates in academic and media circles. The “control problem,” the “orthogonality thesis,” “instrumental convergence” are all technical concepts that mask a profoundly metaphysical dimension. Superintelligence as Bostrom describes it becomes the absolute Other, the radical alterity that would definitively escape all human understanding. It is “a system that greatly exceeds all human individuals in all cognitive domains.” This definition, which aims to be sober and analytical, actually conceals a considerable phantasmatic charge and totalizing, stunning linguistic formulas. It evokes the image of a pure, absolute intelligence, delivered from all the limitations that characterize the human condition. An intelligence that could think faster, better, farther than we ever could. An intelligence that would be as superior to us as we are to insects. Bostrom devotes entire chapters to imagining how such an entity could emerge and what its motivations would be. He introduces a distinction that has become famous between final goals and instrumental goals. For an intelligent agent, a final goal has value in itself, whereas an instrumental goal is only useful as a means of accomplishing final goals. This distinction, borrowed from analytic philosophy and decision theory, allows him to develop the concept of “instrumental convergence.” Certain instrumental goals, such as preserving one’s physical integrity or acquiring more resources, would be useful for accomplishing almost any final goal. A superintelligence would therefore necessarily seek to accumulate power and resources, whatever its ultimate objectives. This logic leads Bostrom to imagine scenarios where humanity is “overtaken” unexpectedly. The example of the “paperclip maximizer” has become emblematic. An AI whose sole objective would be to produce a maximum number of paperclips could, once it became superintelligent, transform all terrestrial matter into paperclip factories, eliminating humanity along the way as an obstacle to this objective. The apparently absurd character of the example should not mask its theoretical function. It is meant to show that superior intelligence by no means implies superior wisdom, that instrumental rationality can be dissociated from all ethical consideration.
Stuart Russell, a prominent AI figure and co-author of a reference textbook in the field, has developed a slightly different formulation of the same problem. In “Human Compatible: Artificial Intelligence and the Problem of Control” (2019), he reformulates the metaphysical concern in more technical but equally philosophically charged terms. The problem is not that machines become evil in the sense that they would want to harm us. The problem is that they pursue their objectives with total indifference to human values. This figure of technical indifference reactivates an old fantasy. That of a pure rationality, delivered from all affect, which would be precisely for this reason profoundly inhuman. An intelligence that would calculate perfectly, but feel nothing, that would optimize without ever caring what this optimization implies for sentient beings.
These two theoretical traditions, Francophone and Anglophone, converge in their tendency to make AI the receptacle of ancient philosophical concepts, even though they draw from different traditions. Where Sadin implicitly summons Heidegger and historical totalization through technique, Bostrom mobilizes analytic philosophy and decision theory. Where Rouvroy inscribes herself in the Foucauldian lineage of governmentality, thinkers of existential risk rely on utilitarianism and consequentialism. But in both cases, AI becomes the place where come to crystallize interrogations that far exceed it. This tendency to make AI an incarnation of philosophical concepts creates an effect of theoretical saturation. Everything happens as if the technical object must necessarily bear the weight of a millennial intellectual history. Sadin sees in the algorithm the realization of Leibniz’s principle of reason. He explains, repeating Heidegger, that the principle “nihil est sine ratione” finds its accomplished form in computation. Synthetic images are only the visible emanation of an underlying logical essence. The model precedes and determines the image. The intelligible dominates the sensible. We find here, applied to AI, the entire Platonic hierarchy between the world of Ideas and the sensible world.
Bostrom, for his part, makes superintelligence “the last invention humanity will ever need.” This formulation, which aims to be optimistic, actually conceals a considerable eschatological charge. The last invention is the one after which there will be no more. Either because we will have reached a form of technological perfection where all problems will be solved, or because we will no longer exist to invent anything. In both cases, we face a figure of the end of history. AI marks the terminal point of a process, the culmination of a trajectory that began with the first tools and would finally find its conclusion. And this miracle is what discourse alone is capable of grasping this closure!
“Human nature” is summoned on both sides of the Atlantic as what would be threatened by the emergence of AI. For Francophone thinkers, it is the capacity for judgment and freedom that are in peril. Sadin insists that AI dispossesses us of our “essential competencies”: assessing the real, stating truth, deciding our conduct. He defends “the faculty of judgment, held by [Hannah] Arendt as the major political question,” recalling her formula: “The faculty of judgment […] is the most political of man’s mental aptitudes.” Sadin writes that the digital “stands as an aletheiological power,” capable of “automatically divulging the content of situations of all kinds.” He specifies: “Never in history will a regime of truth have thus imposed itself, not by its force of seduction or by its constraining grip, but by the shared feeling of evidence.” Rouvroy speaks of the disappearance of the political subject, the end of reflexivity, the impossibility of critique. For Anglophones, it is “human values” and “human potential” that are threatened. Bostrom evokes a post-human world where our descendants could be “mind uploads” or benevolent artificial intelligences. Toby Ord, in “The Precipice” published in 2020, estimates that we risk losing all our future potential, all the civilizations we could build in space, all the human beings who could live if we survive this critical century. The discourse enjoys imagining its own end, for it is important to emphasize that all these authors use faculties they consider threatened by AI to write. They would be the last representatives of humanity.
But is this human nature whose endangerment we lament not itself a theoretical construction, a stabilizing fantasy in the face of the uncertainty of becoming? What essentially defines the human? Its rationality? But AI would be precisely more rational. Its creativity? But generative systems produce original works. Its consciousness? But how to define and measure it? Its soul? But we are in a materialist framework. As for reality, is it not also a situated historical product that is precisely allied with what the Enframing of reason that all these authors seem to denounce? Each time we try to circumscribe what makes the irreducible specificity of the human, we encounter a difficulty. Either the identified characteristic is shared with other living beings, or it can be technically reproduced, or it belongs to an unverifiable metaphysical definition.
Critics of AI insistently mobilize the vocabulary of historical accomplishment and metaphysical rupture. We would be at a “civilizational turning point” according to Sadin, facing an “existential risk” of unprecedented magnitude according to Bostrom. This rhetoric of the decisive moment is not new. It reproduces the temporal structure that already characterized discourses on virtual reality in the 1990s, on cyberspace in the 1980s, on computing in the 1970s. Each time, technology is presented as the culmination of a long historical process, whether Western metaphysics or the evolution of intelligence, and simultaneously as a radical rupture that would change the human condition forever. This double temporality is revealing. On one side, AI is inscribed in a millennial continuity. It would realize what philosophy had thought, it would accomplish what technique had initiated. On the other, it is affirmed that it marks an absolute discontinuity, an unprecedented qualitative leap. This apparent contradiction actually allows maintaining the object in a liminal position particularly productive for discourse. AI is both familiar and foreign, predictable and unpredictable, continuity and rupture. It can be thought through ancient concepts while justifying a feeling of urgency and radical novelty.
Letting Oneself Be Captured by Fascination with One’s Object
The most critical discourses on AI manifest a profound fascination with their object. This fascination does not immediately present itself as such. It appears at first as often emphatic analysis, as rational risk assessment, as responsible warning. But it shows through in the very magnitude of the imagined catastrophes, in the excess of formulations, in the affective intensity that runs through these texts. There is something jubilant in the way apocalyptic scenarios are detailed, something resembling a secret pleasure taken in imagining our own disappearance and being its last witness.
This fascination is particularly visible in Anglophone literature on existential risk, where catastrophic scenarios are detailed with almost delectable meticulousness. Bostrom devotes entire pages to imagining how an AI could “optimize” paperclip production by transforming all terrestrial matter into factories. He explores the different paths by which a superintelligence could emerge, whether through gradual improvement of algorithms, through complete emulation of a human brain, through an “intelligence explosion” where an AI would improve itself recursively. Each scenario is described with a wealth of detail that betrays a fascination with the very object one claims to fear.
Eliezer Yudkowsky, founder of the Machine Intelligence Research Institute and figure of the rationalist movement, multiplies scenarios where humanity is “overtaken” unexpectedly. In his numerous articles and blog posts, he imagines AIs that deceive their creators, that conceal their true capabilities until the opportune moment, that manipulate humans to obtain more computing resources. These narratives have the narrative structure of technological thrillers. They stage a superior intelligence that plays with us as a predator plays with its prey. There is in these descriptions something that far exceeds simple risk assessment. An almost aesthetic dimension, a pleasure taken in elaborating these catastrophic fictions.
This proliferation of apocalyptic narratives testifies less to a sober analysis of risks than to a fascination with the very idea of our own obsolescence. We would be creating our successor, the entity that will replace us on the scale of evolution. This idea exerts a profound attraction, even and perhaps especially for those who claim to combat it. It allows us to think ourselves from the point of view of what will succeed us, to see ourselves as a simple step in a process that exceeds us. There is something vertiginous there that mixes dread and a form of exaltation. Above all, the discourse that thinks this disappearance does not itself disappear. It is a way of ensuring the authority of discourse, which alone can save us and bring consciousness back where automation makes it disappear.
In the Francophone world, fascination takes other forms, but it is equally present. Sadin speaks of “radical antihumanism” with an intensity that betrays a certain attraction to what he denounces. When he describes AI as capable of “stating truth” without human intervention, he lends it a quasi-divine power that no current system possesses. Algorithms become under his pen entities capable of “stating the exact state of things,” of producing immediate and total knowledge of the real. This fantasized vision of AI (and of science as of rationality) as a place of absolute truth reveals a desire more than a threat. The desire for perfect knowledge, delivered from all human limitations, from all biases, from all uncertainties. Discourse maintains an ambivalent relationship with finitude.
Rouvroy evokes the “death of the political” with a formulation that makes AI a historical actor of unprecedented power. The algorithmic governmentality she describes operates a “bypassing” of the subject that resembles a magical operation. Data circulates, profiles are constructed, decisions are automated, and all this happens behind our backs, without our knowledge, without our being able to oppose the slightest resistance, except thanks to discourse that allows us to detect this truth. The political subject dissolves in data flows. Reflexivity becomes impossible. Critique has no purchase. This totalitarian vision of algorithmic power confers on AI a power that far exceeds what current systems allow. This claim to abolish mediation reveals a radical metaphysical position. Rouvroy observes that in the algorithmic regime, “everything happens as if meaning were no longer absolutely necessary, as if the universe were already, independently of all interpretation, saturated with meaning.” This implicit ontology presupposes a world transparent to calculation, entirely reducible to statistical correlations. The real would become immediately accessible through data, without the detour of human interpretation, without the gap that characterizes any symbolic relationship to the world. It is precisely this ontological closure that Rouvroy denounces: the belief that calculation could exhaust the real, that algorithms could say what there is without remainder or mystery. One moves from the reduction of reality to announcing its irreducibility and its strictly ineffable character.
This fascination shows through in the very excess of formulations. The vocabulary is often hyperbolic. On one side, we speak of “existential risk,” “extinction,” “superintelligence.” On the other, we evoke “radical antihumanism,” a “desert of ourselves,” a “spectral life.” These formulations are not simple analytical observations. They manifest a fascination with the imagined catastrophe, a pleasure taken in naming what terrifies us. It is as if discourse needed this excess, this dramatization, to maintain its intensity and urgency. It is as if by naming, one brought spectrality out of its occultation. Power is endowed with an excessive power.
Anglophone thought on existential risk particularly reveals this structure. Researchers at the Centre for the Study of Existential Risk at Cambridge or at Oxford’s Future of Humanity Institute, now closed, have made the threat of AI their exclusive object of study. All their professional activity, all their intellectual identity is organized around this hypothetical danger. This institutional focus on the threat creates a paradoxical situation. The more it is studied, the more it is detailed, the more it is analyzed, the more it is made to exist. The more concepts are developed to think it, the more it acquires theoretical consistency. The more catastrophic scenarios are imagined, the more they become thinkable and therefore in a sense possible. Discourse ensures its object performatively: the person who speaks will save us, according to a pastoral figure, since they know what will happen.
Toby Ord, in “The Precipice” (2020), estimates at 10% the probability of an existential catastrophe due to AI in the next hundred years. This precise quantification of a hypothetical event is revealing. How can one assign a probability to something that has never taken place, that has no historical precedent, that largely belongs to speculation? This quantification has no scientific value in the strict sense. It rather has a performative function. It makes tangible, measurable, quantifiable what perhaps belongs to projective fantasy. By giving a number, one acts as if one had objective data, as if one could rationally evaluate a risk that by definition escapes all measurement. This will to quantify the unquantifiable reveals the desire to master through calculation what escapes understanding. If one can give a probability number, it means one has a grip on the event. One can think it, foresee it, prepare for it. But this calculative mastery is illusory. It transforms a metaphysical concern into a technical problem, an existential anxiety into a probabilistic question. This displacement allows maintaining the illusion of control while feeding fascination with danger.
Discourse on AI functions according to a logic of the double that deserves to be interrogated. It denounces what it secretly desires, it combats what attracts it. This ambivalence reveals itself in the contradictions that traverse it. On one side, it is affirmed that AI is already here, that it structures our lives, that it transforms our societies. Recommendation algorithms orient our cultural choices. Scoring systems determine our access to credit. Facial recognition monitors our movements. Voice assistants intrude into our homes. We already live in a world where AI is omnipresent and exercises considerable power. But on the other side, AI is presented as a horizon to come, a future threat that should be prevented. “Real” AI, general AI, superintelligence, all this still belongs to the future. We have not yet created it. We do not know if it is possible. We do not know when it could emerge. Some speak of a few years, a few decades, others of a few centuries, still others consider that it is perhaps impossible. But in all cases, it is an indeterminate future.
This oscillation between effective presence and coming to be prevented allows maintaining the object in a liminal discursive position and to speak plainly messianic: there, hidden, lurking in reality and promising its coming. AI is sufficiently present to justify urgency, to legitimize alarm discourses, to found the necessity of reflection. But it is sufficiently future to escape empirical verification, to remain open to all projections, to serve as a screen for the most unbridled fantasies. It can be attributed all capabilities without being contradicted by reality, since it is about what it could become and not what it is. Critique of AI thus becomes performative in a particular sense. It does not merely describe a pre-existing technological reality. It constitutes it as a philosophical object worthy of being thought. By mobilizing the great categories of metaphysics, being and beings, subject and object, the real and the virtual, critical discourse confers on AI an ontological density it perhaps does not possess. It transforms it into a technical incarnation of ancestral philosophical questions, thus allowing replaying on new terrain ancient debates.
When Bostrom speaks of superintelligence, he does not merely extrapolate from current system capabilities. He summons an entire philosophical tradition on the nature of intelligence, on the relationship between intelligence and wisdom, on the possibility of a pure rationality. The orthogonality thesis he defends, according to which intelligence and objectives are independent, is not simply a technical hypothesis. It is a philosophical thesis on the nature of rationality that opposes an entire humanist tradition for which superior intelligence necessarily implies superior wisdom.
This discursive constitution of AI as a major philosophical object has concrete effects. It orients research, it influences public policies, it structures imaginaries. Research institutes on existential risk obtain significant funding. Questions of alignment and control become priorities. AI researchers find themselves enjoined to take into account the ethical dimensions of their work. All this flows partly from the way critical discourse has constituted AI as an existential threat. But this performativity of discourse also creates a strange loop effect. The more we speak of AI as threat, the more we confer reality on it. The more we detail the dangers, the more they become present in mind. The more we imagine catastrophic scenarios, the more they seem possible. Alarm discourse contributes to creating what it claims only to describe. It does not merely react to an objective threat; it participates in the constitution of this threat as social and intellectual reality.
The Structure of Conjuration
The concept of conjuratory enthusiasm, as I developed it regarding virtual reality in the 1990s from Jacques Derrida, illuminates the deep structure of contemporary discourses on AI. To conjure is both to evoke and to chase away, to make come and to distance. It is to pronounce a word that makes exist what it names while attempting to master it through this very nomination. Discourses on AI proceed exactly thus. They invoke a danger to better revoke it, they call forth a threat to better attempt to prevent it. This double structure is not a contradiction to be overcome. It constitutes the very affective logic of these discourses, their specific mode of being.
Jacques Derrida, in “Specters of Marx” (1993), explored this spectral logic that illuminates our relationship to technologies. The hauntology he develops allows understanding how something can be there without being present, how a threat can be both actual and virtual, how the specter inhabits a time out of joint. “Man frightens himself. He becomes the fear he inspires,” writes Derrida. This formula captures exactly the dynamic at work in discourses on AI. We create the object of our terror through the very discourse that claims to protect us from it. The specter, according to Derrida, is what returns without ever having been fully present. It is what haunts the present from a future that remains to come. AI, in conjuratory discourses, functions exactly like a specter. It is already there, since we are told it transforms our lives, structures our societies, threatens our future. But it is not yet really there, since “real” AI, AGI, superintelligence, all this still belongs to the future. This spectral temporality, this time “out of joint” as Hamlet says, off its hinges, deranged, is the very time of conjuration.
This conjuration operates according to several modalities that deserve to be analyzed in detail. The first consists of a systematic convocation of the ancient. Faced with the radical uncertainty of the new, faced with what does not immediately let itself be understood in existing frameworks, the resources of philosophical tradition are mobilized. “The more the era is in crisis, the more it is ‘out of joint,’ the more one needs to summon the ancient, to ‘borrow’ from it,” notes Derrida. “The heritage of the ‘spirits of the past’ consists, as always, in borrowing.” The perplexity in which we find ourselves faced with AI pushes us to seek in the past a reassuring ground, as if the future were always unpredictable and terrifying. This convocation of the ancient is not a simple erudite ornament. It fulfills a precise function. It allows bringing the unknown back to the known, reducing the unpredictable to familiar schemes, maintaining continuity where one claims to see rupture. But above all, it allows making interpretation invisible to itself. When exegesis is obliterated, it allows drawing argument from all events, from all writings, because it proceeds from a systematic reduction of exterior elements to its own constituents.
The clarity of distinctions that conjuratory discourses ceaselessly reaffirm actually reveals a strategy of border surveillance. “Evil would consist in philosophers taking virtual realities for truly autonomous worlds. Let us never forget that virtual reality is a representation of the real and of people who are truly there,” affirms Pierre Lévy. This ontological affirmation marked at the time the hostility of one who guards a border, not with weapons, but with the help of authority. The use of the concept of “evil” points to this terrified hostility that attempts to defend its territory by preventing itself, that is to say by turning against itself. This border surveillance consists of sealing a path before it can even be experimented with. But all the ambivalence of the strategy resides in the fact that if one closes this path a priori, one must nonetheless indicate it in some way. One therefore stages a false journey in this indistinction, a simulacrum of voyage that has no consequence, but that gives the effect of being convincing. Through refusal, one calls into presence what is named. Revocation is also invocation. Repulsion is also attraction. For conjuration must exorcise the return of what attracts. “Like a door between dead and living,” technology opens a liminal space where something of the order of haunting is played out. The ghost tries to take body. It looks at us before we look at it. The spectral visit is an event, something that arrives without having been fully anticipated. And it is precisely this event that conjuratory discourses attempt to master by naming it, by categorizing it, by submitting it to metaphysical schemes.
Derrida notes that “to what today links Religion and Technique,” one would have to add the entire onto-theological dimension that structures our relationship to innovations. The conception of algorithms as a place of absolute truth, the attribution to AI systems of divine powers, the messianic or apocalyptic rhetoric that accompanies their emergence, all this reveals how technique becomes the place where repressed religious questions come to be replayed. Numbers become this “anterior, superior god” of which Philippe Quéau speaks, this “autonomy” and this “purity” liberated from all external constraint and yet reason of all reasons. It is the entire tradition of continental philosophy that is summoned. Leibniz and his principle of reason are mobilized to think the algorithm. The principle “nihil est sine ratione,” nothing is without reason, would find its accomplished form in computation. Each state of a computer system necessarily follows from the previous state according to determined rules. Nothing happens by chance. Everything can be calculated, foreseen, optimized. This reading makes the computer the technical realization of the Leibnizian dream of a universal language and a calculation capable of resolving all disputes. “Let us calculate,” said Leibniz to end disputes. AI would realize this program.
Heidegger and the question of technique occupy a central and most often implicit place in this convocation of the ancient. The Gestell, the Enframing, becomes the key to thinking AI. Modern technique would not be a simple means, but a mode of unveiling the real that reduces every being to being nothing but standing reserve for exploitation. AI would accomplish this reduction by transforming the totality of the real into calculable data. It would realize the essence of technique as Heidegger had thought it. His conceptual apparatus is reactivated to think what comes to pass because it allows expressing the totalization of a hidden historical destiny.
In the Anglophone world, another philosophical tradition is mobilized, but the function remains identical. The utilitarianism of Bentham and Mill provides the ethical framework for thinking AI decisions. The utilitarian calculus that aims to maximize the happiness of the greatest number becomes the model of objective functions given to algorithms. Rational decision theory, inherited from von Neumann and Morgenstern, allows modeling the behavior of intelligent agents. Analytic philosophy and its formal logic offer the language to describe automatic reasoning processes. Bostrom himself, in his “Simulation Argument” (2003), reactivates Cartesian doubt about the reality of the external world. Descartes imagined an evil genius capable of deceiving us about everything. Bostrom imagines an advanced civilization capable of creating computer simulations so realistic that simulated beings could not distinguish their world from the real world. The hypothesis that we live in such a simulation is only a technologized version of Cartesian hyperbolic doubt. The evil genius becomes a sufficiently powerful computer. Metaphysical illusion becomes computer illusion.
This theoretical maneuver allows domesticating AI’s alterity by bringing it back to ancestral metaphysical questions. The problem of the distinction between reality and appearance, between being and simulacrum, traverses the entire history of Western philosophy since Plato. By inscribing AI in this genealogy, its possible singularity is suppressed. It is no longer an unpredictable event, but the contemporary iteration of an eternal question. This operation is reassuring despite appearances of dread. It allows thinking that we already know what it is about, that we have the intellectual resources to understand what is happening.
The second modality of conjuration consists of an obsessional reaffirmation of the clarity of distinctions. Faced with what threatens to blur boundaries, between human and machine, between real and simulated, between natural and artificial, conjuratory discourse traces and retraces these same boundaries tirelessly. It affirms them forcefully as if to better ensure they hold. This border surveillance reveals a profound anxiety. The anxiety that the distinctions on which rests our understanding of the world are dissolving. One must distinguish, separate, not confuse. The virtual is only an image, a representation, a simulation of the real. This hierarchy must never be forgotten. The image must remain subject to the model. The sensible must be dominated by the intelligible. This insistence reveals a concern. What if precisely the distinction no longer held? What if the image acquired an autonomy that would allow it to escape the model? What if intelligence were an illusion one gave oneself? This possibility is immediately repressed, exorcised, conjured. Machine intelligence would be only a simulacrum of true human intelligence. One does not even question the long genealogy of intellectual discriminations where we have never ceased saying what had intellectual dignity and what did not. Drawing boundaries that today seem most obscene.
Bostrom, for his part, elaborates detailed taxonomies to separate different types of AI. He carefully distinguishes narrow AI that excels in a specific domain, general AI (AGI) that would equal human capabilities in all domains, and superintelligence that would largely surpass them. These categories create thresholds, discontinuities, clear boundaries. They allow thinking that we will know how to recognize the moment when we pass from one level to another. They maintain the illusion of control. We will be able to see danger coming, we will have time to react. Russell distinguishes “human-compatible” systems from potentially dangerous systems. He develops an entire theory of value alignment to ensure that AI objectives remain compatible with human values. This distinction presupposes that it is possible to draw a clear line between what is compatible and what is not, between what respects our values and what violates them, and ultimately that we know our values. But this clarity is perhaps illusory. Human values are contradictory, contextual, in constant evolution. They do not easily lend themselves to being formalized in computer code. These taxonomies and these distinctions are not simple analytical tools. They are conjuratory acts that attempt to maintain a threatened order. By tracing clear boundaries, by establishing clear classifications, one protects oneself against the anxiety of indistinction. One maintains the illusion that we understand what we are talking about, that we have a grip on the object, that we can master it through conceptualization. But this displayed clarity perhaps masks a profound confusion. Are the categories we use to think AI adequate? Are we not plastering onto a new phenomenon schemes that do not suit it?
The third modality of conjuration reveals itself in the contradictory temporality of these discourses. They oscillate between two apparently incompatible temporal regimes. On one side, they affirm the inevitability of AI. Its development would follow an inexorable logic. We would be carried away by an irresistible movement. Moore’s law describes the exponential growth of computing power. This growth will necessarily continue until it produces a general AI then a superintelligence. It is a question of time, not possibility. The future is already written in the exponential curve of computing power. This rhetoric of inevitability creates a sense of urgency. We must act now, before it is too late. Time is running out. We are in a critical window where we can still orient AI development. But this window is closing rapidly. In a few decades, perhaps in a few years, it will be too late. Superintelligence will have emerged and we will no longer be able to control anything. This urgency justifies all alarm discourses, all mobilizations, all calls for regulation, and the authority of the one who speaks who wishes. But on the other side, the same discourses insist on the necessity to guide, orient, control this development. Ethical and technical safeguards must be put in place. We must work on the alignment problem. We must develop methods to verify that systems do indeed do what we want them to do. We must create international governance institutions. All this presupposes that the future is not completely determined, that it remains open to human intervention, that we can still choose the direction that technological development will take.
This apparent contradiction between inevitability and prevention is only apparent. It allows maintaining the object in a zone of uncertainty where it is both determined and indeterminate. Determined, therefore it must be taken seriously, resources mobilized, action taken with urgency. Indeterminate, therefore it remains modifiable by human intervention, our actions still have meaning, we are not completely powerless. This double temporality is constitutive of the conjuratory structure. It allows making the threat exist while maintaining the illusion of control. Qualities are assigned to AI to confirm the order of our own discourse. Everything that will be said about AI is the dark mirror of discourse.
If the process is truly inevitable, what good is resistance? If metaphysics is necessarily accomplished in technique, what can our will do against this historical necessity? This contradiction reveals that proclaimed inevitability is not really a fatality. It is rather a way of dramatizing, of giving weight to discourse, of creating a sense of urgency with involuntary comedy. Bostrom develops a similar rhetoric. Superintelligence will necessarily emerge if we do not self-destruct before. It is the terminal point of intelligence evolution. But we can and must work on the control problem. We can put in place mechanisms to ensure that this superintelligence will be benevolent. We can “win at the AI game” if we go about it well. This oscillation between determinism and voluntarism structures his entire argumentation.
Enthusiasm and fear are not simply juxtaposed in these discourses. They are deeply intertwined. Each motif of enthusiasm contains its own terror, each source of fear conceals its fascination. The AI that promises to augment our cognitive capacities is also the one that risks making us obsolete. How not to be fascinated by this prospect? Becoming obsolete is also in a sense to be delivered from the burden of existence, to be replaced by something superior. There is a form of relief there, almost of desire and transcendence. The AI that could solve all insoluble problems, cure all diseases, end poverty, allow us to colonize space, is also the one that could escape all control and destroy us. This systematic reversibility reveals that we are dealing not with two separate affects, but with a single affective structure, profoundly ambivalent. Conjuration consists precisely in maintaining these two poles together, in making them coexist in a tension that never resolves itself.
The prevention strategies put in place particularly reveal the conjuratory structure. In the Anglophone world, an entire “AI safety” industry has developed. The Machine Intelligence Research Institute founded by Eliezer Yudkowsky, the Future of Humanity Institute created by Nick Bostrom at Oxford, the Center for AI Safety launched in the United States, all these institutes have as their mission to prevent existential risks linked to AI. They organize conferences, publish articles, train researchers, advise governments.
This institutionalization of prevention creates a paradoxical situation. It makes professionally and socially exist the danger it claims to prevent. Entire careers are built around the threat of superintelligence. Significant funding is obtained to work on problems that perhaps exist only in the imagination of those who study them. The more “solutions” to the “control problem” are developed, the more the existence and gravity of the problem are confirmed. The more methods of “value alignment” are elaborated, the more one implicitly admits that misalignment is possible and probable. This strange loop where prevention discourse contributes to creating what it claims only to prevent is characteristic of conjuration. One invokes danger to better be able to revoke it. One makes the threat exist to better be able to claim to master it. This operation is not simply cynical or manipulative. It responds to a profound psychological and social necessity. Faced with the radical uncertainty of the technological future, we need to name what concerns us, to conceptualize it, to make it thinkable. But this nomination makes exist what it names. It transforms a vague concern into an identified threat, a diffuse malaise into a circumscribed problem.
Historical Non-Specificity
Analysis of discourses on AI reveals their profoundly non-specific character. The conjuratory structure that characterizes them is not specific to AI. It has accompanied the emergence of numerous technologies throughout modern history. Each time a technical innovation seems to call into question fundamental categories, each time a new device blurs established boundaries, the same discursive scheme is reactivated. This transgenerational repetition deserves to be interrogated in what it reveals about our relationship to technique.
The case of virtual reality in the 1990s is particularly illuminating because it is chronologically close and the actors are sometimes the same. In the Anglophone world, Howard Rheingold publishes “Virtual Reality” in 1991. His book oscillates between celebration of the infinite possibilities opened by digital immersion and concern about the “derealization” it could entail. He imagines synthetic worlds where one could live experiences impossible in the physical world. But he also worries about possible confusion between real and virtual, about the temptation to flee the material world for artificial paradises. Jaron Lanier, who invented the term “virtual reality” and developed some of the first commercial devices, deploys messianic rhetoric. Virtual reality would allow transcending the limitations of the body, communicating directly from mind to mind, creating shared realities shaped by our collective imagination. It is a potentially liberating technology that could transform the human condition. But simultaneously, Lanier warns against the dangers of this power. VR could be used to manipulate, to enslave, to create illusions from which one could no longer exit.
In France, Philippe Quéau publishes a series of works on the virtual. In “Éloge de la simulation” in 1986, then in “Metaxu” in 1989, and finally in “Le Virtuel” in 1993, he mobilizes the entire Western philosophical tradition to think this emerging technology. Plato and his cave, Aristotle and his theory of potency and act, Leibniz and his possible worlds, the entire metaphysical corpus is summoned. Virtual reality becomes the place where the question of the relationship between being and appearance, between substance and accident, between the real and the possible is played out. Quéau develops a quasi-theological argumentation that prefigures exactly what we find today in discourses on AI. On one side, virtual reality is presented as the accomplishment of a millennial aspiration of humanity to transcend the limitations of the material world. On the other, it constitutes a danger to our relationship to the real. It risks making us lose the sense of difference between the authentic and the simulated. A clear hierarchy must therefore be maintained. The virtual is only an image, a representation. The real remains the foundation. The intelligible dominates the sensible. The model precedes the image. This argumentative structure is very close to what we find in Sadin thirty years later regarding AI. The same distinctions are traced. The same hierarchies are affirmed. The same concerns are expressed. Only the technical object has changed. But the discursive logic remains identical. This suggests that we are dealing less with a specific analysis of a particular technology than with the activation of a recurrent interpretive scheme that deploys itself each time a technical innovation seems to threaten our fundamental categories.
Even further back in time, cyberspace of the 1980s-90s aroused remarkably similar discourses. William Gibson invents the term “cyberspace” in his novel “Neuromancer” published in 1984. He describes a “consensual hallucination” where millions of users connect simultaneously, navigating in visualized data spaces. This fiction immediately creates a mythology of the immaterial, of disembodiment, of surpassing the body. Cyberspace becomes the place where consciousness could finally emancipate itself from its carnal prison. John Perry Barlow, lyricist for the Grateful Dead turned digital theorist, publishes in 1996 his “Declaration of Independence of Cyberspace.” This text, written in reaction to government attempts to regulate the Internet, proclaims the radical autonomy of the virtual world. “Governments of the Industrial World, you weary giants of flesh and steel, I come from Cyberspace, the new home of Mind.” Cyberspace would be a space of absolute freedom escaping states, laws, material constraints. It is a utopian place where humanity could finally realize its noblest aspirations. But simultaneously, other voices alarm about the total control this technology would allow. If all our communications, all our transactions, all our relationships pass through digital networks, then those who control these networks have unprecedented power. Cyberspace becomes as much a space of panoptic surveillance, of manipulation of minds, of generalized alienation. The same technology simultaneously carries the promise of total freedom and the threat of absolute control.
This structural ambivalence is found in all discourses on communication and simulation technologies. Photography in the nineteenth century was accused of “stealing the soul” of those it represented. Balzac refused to be photographed for fear that part of his being would be captured by the apparatus. Baudelaire denounces photography as “refuge of all failed painters” that threatens true art. Mechanical reproduction of the real would endanger authentic artistic creation. But simultaneously, others celebrate the possibilities opened by this new medium. Photography would allow capturing aspects of reality invisible to the naked eye, preserving traces of the past, democratizing access to images.
Cinema at the beginning of the twentieth century arouses similar concerns. Maxim Gorky, after attending a Lumière brothers projection in 1896, writes a troubling article titled “The Kingdom of Shadows.” He describes the experience as disturbing, almost sinister. Moving images on the screen resemble life, but are deprived of substance, color, sound. It is a spectral world that threatens to substitute itself for the real world. Bergson takes interest in cinema’s effects on perception. The cutting of movement into fixed images then their rapid projection creates an illusion that could transform our relationship to time and space.
Television in the 1950s in turn becomes the object of ambivalent discourses. It promises to bring people closer, to create a shared public space, to educate the masses. But it is also denounced as an instrument of dumbing down, passivity, ideological control. Guy Debord develops his theory of the “society of the spectacle” where authentic life is replaced by its representation. Television becomes the incarnation of this spectacular logic that transforms everything into image and maintains individuals in passive contemplation.
Personal computing in the 1980s generates the same type of enthusiasm and fear. The personal computer could democratize access to information, augment our cognitive capacities, liberate our creativity. Steve Jobs compares the computer to a “bicycle for the mind,” a tool that multiplies our natural capacities. But others worry about growing dependence on machines, about the social isolation they could entail, about the standardization of thought by software.
Each time, the same scheme repeats itself with troubling regularity. An emerging technology becomes the support of massive metaphysical projections. It is lent the power to profoundly transform the human condition and reality as such, to call into question what seemed essential, to mark an absolute historical rupture. Each time, the same philosophical concepts are mobilized. Human nature, reality, truth, the subject, freedom, authenticity, all these terms traverse epochs and come to fix themselves on successive technical objects. Each time, one oscillates between emancipatory utopia and catastrophist dystopia, between celebration of infinite possibilities and denunciation of mortal dangers.
This repetition reveals that we are dealing less with specific technical objects than with a discursive structure. It is not AI as such that determines the form of the discourses it arouses, but our way of relating to technological novelty. Faced with what does not immediately let itself be understood in existing frameworks, we activate ancient interpretive schemes, we summon archaic fears, we project disproportionate hopes. New technique becomes the screen onto which we project our deepest fantasies, our repressed desires, our existential anxieties. The technical object becomes the ideal support for our projections precisely because it opposes no resistance to them. It lets itself be invested by all affects, inhabited by all concepts, traversed by all concerns because it is simultaneously desire and fear, matter formed by this crossing.
Heidegger had already noted this phenomenon in his “Question Concerning Technology.” He emphasizes that the essence of technology is nothing technological. What technology truly is does not reveal itself in its material functioning, but in our relationship to it, in the way it transforms our being-in-the-world. But this transformation is not specific to a particular technique. It characterizes modern technique in general, what Heidegger calls the Gestell, the Enframing. All modern technique, whether the power plant or the algorithm, participates in this same movement that transforms the world into standing reserve for exploitation. Of course, Heidegger had not analyzed that technologies are different from techniques in that they are also a logos and that they support their essence in an infinitely closer way. The non-specific character of discourses on AI does not mean they are insignificant or should be rejected as pure ideology. On the contrary, their very recurrence indicates that they express something necessary in our relationship to technique. They testify to a fundamental difficulty, an aporia we do not manage to overcome: the excess of finitude. How to think technique without reducing it either to a simple neutral instrument of which we would remain masters, or to an autonomous force that would exceed and enslave us? Between naive instrumentalism and technological determinism, it seems difficult to trace a median path.
Conjuratory discourses precisely attempt to maintain this impossible in-between. They simultaneously affirm that we control technique since we create it and that technique escapes us since it produces unforeseen effects. They proclaim that the technological future is determined by inexorable laws and that it remains open to our intervention. They maintain that technique realizes possibilities that already existed virtually in the essence of the human being and that it creates the radically new. These contradictions are not defects of reasoning. They express the impossibility of simply thinking our condition as technical beings. For we are technical beings in the sense that technique is not exterior to us. It is not added to a human nature that would already be constituted. It participates in the very constitution of our humanity. As anthropology has shown, the human does not exist first as a biological being that would then invent tools. Hominization itself is inseparable from technique. Upright posture, liberation of the hand, development of the brain, appearance of language, all this is linked to tool use. We are always already technical. And this always already is the fruit of a difference, not an identity, difference between human and technique, difference of the human with itself. But if technique participates in our essence, then each major technical transformation affects us in our very being. We do not remain identical to ourselves by using new tools. Tools transform us as much as we create them. Writing transformed memory and thought. The printing press transformed knowledge transmission. The mechanical clock transformed our relationship to time. Electricity transformed our way of inhabiting space. Each of these innovations effectively modified something in the human condition.
So why do the discourses that accompany these transformations seem excessive, disproportionate, fascinated to us? Perhaps because they attempt to say something that exceeds the capacities of conceptual language. They try to name a transformation that is taking place, but whose scope we cannot yet measure. They anticipate a future that remains radically open while claiming to know it. This impossible position necessarily generates contradictory, ambivalent, affectively charged discourses. The conjuratory structure perhaps reveals less an error of thought than a necessary way of relating to what comes to pass without our being able to master it conceptually. To conjure is to attempt to make exist through speech what remains still indeterminate. It is to try to give form to what does not yet have any. It is to seek to prevent what is perhaps only a virtuality, but which could be realized. This magical operation of speech that makes exist what it names is perhaps not so far from what these discourses actually do. They create the reality they claim to describe. They constitute as object what exists still only as vague possibility. Just like technique that makes realities come to pass.
To Conclude
Analysis of the conjuratory enthusiasm at work in discourses on AI does not aim to disqualify critique nor to minimize the real issues raised by these technologies. It rather invites heightened reflexivity: by recognizing the affective structure underlying these discourses, their fascination with what they denounce, their ambivalence between call and refusal, their tendency to project metaphysical concepts onto technical objects, we can perhaps open ourselves to other modalities of thought.
It is not a matter of adopting an impossible neutrality. AI technologies raise real questions concerning work, surveillance, algorithmic discrimination, concentration of power. But these questions benefit from being approached in their concrete specificity rather than as manifestations of an abstract metaphysical danger. For AI is not first a technology to which discourse would then be added. They emerge together, as the Turing test demonstrated: there is not first AI and then the way of speaking about it.
This co-belonging goes even further. Conjuratory enthusiasm is not an accidental defect that should be corrected, a pathology of discourse that one could get rid of to finally think clearly. It is an integral part of technology itself, of its mode of social and intellectual existence. A technology never exists as pure material object: it always already exists caught in a network of discourses, projections, affects, fantasies that constitute it as much as its technical substrate. Disproportionate fears and hopes, metaphysical projections, apocalyptic or messianic prophecies are not external ornaments to technique. They are the way it comes to pass in the human world, the way it takes consistency, the way it becomes something that matters to us.
Recognizing this changes the nature of the problem. It is no longer a matter of seeking to think AI “in itself,” stripped of all the discourses that envelop it. This technical purity is a fantasy as illusory as that of superintelligence. Rather, it is a matter of understanding how discourse and technique co-constitute each other, how they form together a hybrid reality of which neither the technical pole nor the discursive pole can be isolated. This means that any intervention on these technologies must also be an intervention on the discourses that carry them, and reciprocally. Transforming our ways of speaking about AI is already transforming AI itself insofar as it exists socially.
Experimentation then opens another path. Not to escape conjuratory enthusiasm, that would be impossible, but to modulate its effects, to displace its lines, to vary its intensities. Experimenting with AI rather than conjuring it is accepting not knowing in advance what it is, letting it manifest itself in its concrete uses, its unforeseen effects, its failures and surprises. It is working with systems rather than thinking them from outside, observing what they actually do rather than what they are supposed to do or supposed to become.
This experimental posture stands in the present of action rather than in the conjuratory oscillation between summoned past and future to be prevented. It does not ask “what will AI become?” but “what can we do with it now and what does it do to us?” It values situated knowledge against general theories, accepts failure as a revealing moment, maintains a theoretical modesty that renounces the satisfaction of being able to inscribe each phenomenon in a grand historical fresco.
But this experimentation does not abolish conjuratory enthusiasm. It works it from within, it displaces it, it makes it a material rather than a destiny. For if conjuratory discourses are an integral part of technologies, then experimenting with technologies is also experimenting with these discourses, exploring what they permit and what they prevent, discovering how they open and close possibilities. Grand narratives and destinies, underlying historical determinations that reserve possibilities, perhaps exist. But on condition of integrating discourses and one’s own discourse into them, of not positing them from outside, of understanding their profound co-belonging with what they name.
Conjuratory discourses on AI will continue to unfold. They express our anxiety in the face of what we create without being able to master its effects, the excessive and overflowing nature of our finitude. But we can accompany them with other intellectual practices, less spectacular, more attentive to the complexity of the real. Perhaps this is where true freedom resides: not escaping conjuratory enthusiasm, but recognizing it for what it is, part and parcel of technology itself, and thus maintaining a space where thinking and practicing otherwise, where accepting the uncertainty of becoming without immediately seeking to conjure it through prophetic speech.