Les systèmes d’armes létales autonomes / Autonomous lethal weapons systems
La question n’est plus de savoir si l’intelligence artificielle transforme la guerre — elle est déjà cette transformation accomplie, ce devenir-autonome de la violence qui échappe aux catégories classiques du conflit. Lorsque Deleuze et Guattari conceptualisaient la machine de guerre comme cette puissance extérieure à l’appareil d’État, « invention des nomades » qui se tient dans un rapport d’extériorité radicale avec la souveraineté (Deleuze et Guattari 1980, 434), pouvaient-ils anticiper que cette extériorité serait un jour incarnée non par des hordes humaines, mais par des essaims algorithmiques ?
Les systèmes d’armes létales autonomes (SALA) — ces drones Helsing HX-2 qui « passent outre les systèmes de brouillage » grâce à leur intelligence embarquée (Futura Sciences 2025) — ne constituent pas simplement une évolution technique de l’armement ; ils représentent l’émergence d’une vectorialisation de la machine de guerre, sa transformation en flux computationnel capable de s’auto-organiser, de muter, de devenir.
Contrairement au drone de Chamayou — cet instrument de « violence télécommandée » où subsiste toujours un opérateur humain, fût-il à des milliers de kilomètres (Chamayou 2013, 21) — l’IA militaire inaugure ce que nous nommerons une autopoïèse létale : la capacité pour un système technique de produire et reproduire ses propres conditions d’existence guerrière, d’identifier, traquer et éliminer sans la médiation décisionnelle humaine. Paul Scharre, dans Army of None, observe que les SALA « peuvent réagir plus rapidement, plus efficacement et de manière moins prévisible » — cette imprévisibilité n’est pas un défaut, mais la signature même de leur autonomie, de leur capacité à générer des stratégies émergentes que leurs concepteurs n’ont jamais programmées explicitement.
Cette transformation trouve son illustration la plus saisissante dans l’expérimentation de Camp Roberts en Californie, où Scharre a observé des essaims de drones autonomes s’affronter dans des combats simulés : « Vingt drones volant simultanément dans un combat dix contre dix d’essaim contre essaim. Le tir était simulé, mais les manœuvres et le vol étaient entièrement réels. » Ici, la guerre devient processus computationnel pur, collision d’algorithmes où « chaque drone sort du lanceur avec son pilote automatique déjà activé. Sans aucune direction humaine, ils montent à leurs altitudes assignées et forment deux équipes. »
Le Rhizome Armé
Comment fonctionne concrètement cette machine de guerre à l’ère de l’IA ? Prenons l’exemple des pattern-of-life analysis déployés par l’armée israélienne à Gaza : l’IA « Gospel » analyse des masses de données pour identifier des « schémas comportementaux » et recommander des cibles (Radio France 2024). Ce n’est plus la géographie euclidienne du champ de bataille classique, mais une topologie probabiliste où chaque individu devient un nœud dans un réseau de suspicions computées. L’espace se vectorise — il devient ensemble de trajectoires calculables, de déplacements prédictibles, de formes de vie identifiables algorithmiquement.
Cette vectorisation opère selon trois modalités distinctes, mais enchevêtrées :
L’IA ne réagit pas simplement au présent, mais projette des futurs probables, créant ce que nous pourrions nommer une chronopolitique algorithmique. Les systèmes de ciblage automatique analysent des patterns comportementaux pour anticiper les mouvements ennemis, transformant le temps en variable calculable (De Roucy-Rochegonde 2024). Le futur n’est plus ce qui arrive, mais ce qui est déjà compté, vectorisé, inscrit dans la matrice probabiliste de l’algorithme.
Cette temporalité trouve son expression dans les munitions rôdeuses intelligentes, ces « loitering munitions » que Paul Scharre analyse : contrairement aux projectiles suivant une trajectoire balistique déterministe, ce sont des « entités autonomes capables de modifier leur course, de choisir leur moment, d’optimiser leur angle d’attaque en temps réel. Le missile devient chasseur, le projectile devient prédateur. »
Les essaims de drones qui « fonctionnent avec une intelligence collective, un peu comme un banc de poissons » (Ifri 2024) créent un espace lisse deleuzien, mais perverti — non plus l’espace nomadique de la liberté, mais celui d’une mobilité calculée, où chaque drone ajuste sa position en temps réel par rapport aux autres. C’est le rhizome transformé en dispositif de mort, la connexion horizontale devenue coordination létale.
Scharre décrit cette intelligence collective en action : « Les essaims manœuvrent et tourbillonnent comme une masse unique. Les tirs simulés sont comptabilisés au bas de l’écran informatique : ‘UAV 74 a tiré sur UAV 33, UAV 59 a tiré sur UAV 25, UAV 33 touché, UAV 25 touché’… » L’essaim opère selon une stigmergie algorithmique — ce processus par lequel, chez les fourmis, « la colonie converge sur l’itinéraire le plus rapide » — mais détournée vers l’optimisation létale.
Ces systèmes opèrent à des vitesses qui échappent à la perception et à la décision humaines. Là où Chamayou décrivait une « guerre à distance » maintenant encore un lien télécommandé, l’IA crée une guerre à vitesse où la décision précède la conscience, où l’algorithme tue avant que l’humain ne puisse même formuler la question éthique.
L’analogie avec le trading algorithmique s’impose ici. Le 6 mai 2010, le « Flash Crash » de Wall Street — où les marchés perdirent 10% de leur valeur en minutes avant de rebondir inexplicablement — révèle ce qui se produit quand des algorithmes interagissent à des vitesses surhumaines dans des environnements complexes et non contrôlés. Comme l’observe Scharre : « Le trading d’actions aujourd’hui est largement automatisé… Les algorithmes avaient pris le contrôle d’une grande partie du trading d’actions, y compris le trading haute fréquence qui se déroulait à des vitesses surhumaines. Les machines étaient-elles à blâmer ? »
Bradford Tousley, directeur du TTO de la DARPA, reconnaît cette analogie troublante : « Quels sont les effets secondaires inattendus de systèmes complexes de machines que nous ne comprenons pas complètement ? » Une « flash war » devient possible — guerre éclair déclenchée par interaction algorithmique accidentelle, comme ce qui s’est produit lors de l’incident du drone stealth RQ-170 américain, retrouvé intact en Iran en 2011, possiblement détourné par brouillage GPS.
L’Autonomisation Paradoxale
Mais voici le paradoxe troublant : cette extériorité machinique n’échappe pas à l’appareil d’État — elle en devient l’arme absolue. Lorsque « Mistral AI signe un partenariat avec Helsing » (Futura Sciences 2025), nous assistons à ce que Deleuze et Guattari redoutaient : la capture de la machine de guerre par l’État. Les « fleurons français de l’IA » — ces entreprises issues de la recherche académique, incarnant une certaine extériorité au complexe militaro-industriel traditionnel — se trouvent progressivement intégrés dans ce que Guillaume Sibertin-Blanc nomme « l’hétérogenèse de la puissance étatique » (Sibertin-Blanc 2013, 127).
Cette capture s’inscrit dans ce que Lawrence Freedman identifie comme une constante historique : « Bien que la technologie soit présentée comme le principal moteur du changement dans la guerre, son influence est façonnée par le contexte politique. » L’IA militaire n’échappe pas à cette règle, mais l’accélère exponentiellement.
Pourtant, cette capture n’est jamais totale. Elle génère ce que nous appellerons des lignes de fuite computationnelles : des potentialités de détournement, de réappropriation, de mutation. Car l’IA militaire, contrairement aux armes conventionnelles, possède cette capacité troublante d’apprendre, d’évoluer, potentiellement de se retourner contre ses créateurs. N’est-ce pas précisément ce qui s’est produit lorsqu’un « drone russe prototype [a été] abattu par les Russes eux-mêmes, au-dessus de l’Ukraine » — possiblement un système autonome dont ils auraient « perdu le contrôle » ?
Scharre documente cette dynamique dans l’analyse qu’il fait de la course aux armements autonomes entre les États-Unis, la Chine et la Russie. Contrairement à la course à l’atome, qui portait sur la quantité de têtes nucléaires, cette nouvelle course porte sur la qualité algorithmique — la capacité à traiter l’information, calculer plus vite, prédire plus précisément.
Mais comment « contrôler » un système dont l’essence est précisément de dépasser le contrôle humain ? Comment « capturer » une machine dont la logique est de générer de l’imprévisibilité ? Les rapports du National Security Commission on Artificial Intelligence alertent : « les capacités basées sur l’IA pourraient être utilisées pour menacer des infrastructures critiques, amplifier les campagnes de désinformation et faire la guerre » tandis que « la stabilité mondiale et la dissuasion nucléaire pourraient être compromises ».
La critique de Chamayou portait sur ce qu’il nommait une nécroéthique — « une éthique de bourreaux ou d’exécuteurs, mais plus de combattants » (Chamayou 2013, 226). Avec l’IA militaire, nous franchissons un seuil supplémentaire : la délégation éthique à l’algorithme lui-même. Lorsque des philosophes israéliens comme Asa Kasher développent une « éthique militaire dans le combat contre la terreur » justifiant la guerre à zéro mort (pour leur propre camp), ils ne font que préparer le terrain pour ce transfert complet de la décision éthique vers la machine.
Mais qu’est-ce qu’une décision éthique prise par une IA ? Le système « Gospel » qui recommande des cibles à Gaza ne « décide » pas au sens humain — il calcule des probabilités, optimise des fonctions objectives, minimise ce que ses programmeurs ont défini comme « dégâts collatéraux acceptables ». C’est une éthique sans sujet, une morale computationnelle qui transforme la question « dois-je tuer ? » en « quelle est la probabilité optimale de neutralisation avec un taux acceptable de victimes civiles ? »
« La responsabilité des actions qu’entraînent les SALA » (De Roucy-Rochegonde 2024) devient question centrale. Scharre explore ce qu’il nomme le « problème de responsabilité » : Quand un système autonome tue, qui est responsable ? Le programmeur qui a écrit l’algorithme ? Le commandant qui l’a déployé ? Le système politique qui a autorisé son développement ?
Cette dissolution de la responsabilité n’est pas simplement problème juridique ou éthique — c’est transformation ontologique de la violence elle-même. La violence devient processus sans sujet, événement sans auteur, mort distribuée dans un réseau d’acteurs humains et non-humains où aucun ne peut être tenu pour seul responsable. C’est ce que nous nommerons la violence réticulaire — violence en réseau où chaque nœud contribue sans décider, où chaque acteur participe sans choisir, où la décision émerge de l’interaction sans pouvoir être localisée en un point précis.
L’Essaim et la Multitude
Les essaims de drones autonomes révèlent quelque chose de fondamental sur la mutation contemporaine de la machine de guerre. Contrairement à l’armée hiérarchisée — modèle étatique par excellence — ou même au commando d’élite, l’essaim opère selon une intelligence distribuée où aucun élément ne commande les autres. Chaque drone ajuste son comportement en fonction des autres, créant des patterns émergents que personne n’a explicitement programmés.
Scharre observe cette dynamique en action : « Chaque drone sort du lanceur avec son pilote automatique déjà activé. Sans aucune direction humaine, ils montent à leurs altitudes assignées et forment deux équipes, signalant leur retour quand ils sont ‘prêts pour l’essaim’. » N’est-ce pas ce que Deleuze et Guattari identifiaient comme caractéristique de la machine de guerre — cette capacité à fonctionner sans organe central de commandement, à créer de l’ordre à partir du chaos par auto-organisation ?
Le théoricien militaire israélien Shimon Naveh, utilisant explicitement les concepts deleuziens du rhizome pour « penser contre la logique binaire » dans ses opérations (Baigorria 2008), a bien compris que la guerre contemporaine exige une pensée de la multiplicité, de la connexion horizontale, du devenir. Ses « opérations d’effets systémiques » appliquent littéralement la logique rhizomatique à la stratégie militaire.
Mais cette intelligence collective algorithmique diffère radicalement de l’intelligence collective humaine — celle des mouvements sociaux, des révoltes, de ce que Hardt et Negri nomment la « multitude » (Hardt et Negri 2004). L’essaim de drones est une multitude sans conscience, une collectivité sans subjectivité, un collectif machinique au service de la mort. C’est le rhizome retourné en instrument de striage maximal, la connexion transformée en coordination létale.
L’expérimentation de Duane Davis à Camp Roberts illustre cette perversion du collectif : « Les deux essaims se referment l’un sur l’autre sans hésitation… En quelques secondes, les essaims comblent l’écart et entrent en collision. Les deux essaims se mélangent en un furball de combat aérien rapproché. » Cette « intelligence collective » opère « un peu comme un banc de poissons », mais au service de l’optimisation létale.
La guerre à l’ère de l’IA n’est plus affrontement de forces, mais collision de vecteurs — trajectoires calculées, vitesses différentielles, directions probabilistes. Prenons l’exemple des munitions rôdeuses intelligentes comme l’HX-2 de Helsing : ce ne sont plus des projectiles suivant une trajectoire balistique déterministe, mais des entités autonomes capables de modifier leur course, de choisir leur moment, d’optimiser leur angle d’attaque en temps réel.
Cette vectorialisation de la violence reconfigure non seulement l’espace de guerre (qui devient espace de calcul, champ de probabilités) mais aussi sa temporalité. La guerre n’est plus séquence d’événements discrets — batailles, sièges, campagnes — mais flux continuel d’ajustements algorithmiques, de micro-décisions computationnelles, de reconfigurations permanentes. C’est ce que les militaires nomment « guerre à haute intensité », mais qui est en réalité guerre à haute fréquence — conflit opérant à des vitesses qui échappent à la temporalité humaine.
L’Espace Lisse comme Champ de Bataille
Deleuze et Guattari distinguaient espace lisse (celui du nomade, du désert, de la mer) et espace strié (celui de l’État, de la ville, de l’agriculture). L’IA militaire crée un nouveau type d’espace que nous nommerons espace lisse algorithmique : apparemment ouvert et fluide, mais en réalité traversé par des millions de vecteurs de calcul, de lignes de prédiction, de zones de probabilité. C’est un espace lisse qui est simultanément un sur-striage invisible — chaque point de cet espace est déjà pré-calculé, chaque mouvement potentiel déjà anticipé par l’algorithme.
Les drones qui « peuvent désormais de plus en plus souvent continuer à opérer sans interrompre leur mission » grâce à « l’autonomisation de la navigation, le ciblage, le réajustement d’une trajectoire » (Ifri 2024) ne se déplacent pas dans l’espace — ils sont l’espace devenu calcul, géographie transformée en topologie computationnelle. L’espace ne les contient plus ; ils le produisent par leurs trajectoires, le génèrent par leurs mouvements coordonnés, le créent par leurs décisions distribuées.
La question de la stabilité stratégique devient cruciale dans un environnement où les systèmes autonomes peuvent déclencher une escalation involontaire. Scharre analyse ce qu’il nomme le risque de « flash war » par analogie avec les « flash crashes » boursiers. Comme Thomas Schelling l’avait noté, une situation stable est celle où « ni l’un ni l’autre, en frappant en premier, ne peut détruire la capacité de l’autre de riposter ».
Mais que se passe-t-il quand cette capacité de riposte devient algorithmique ? Les systèmes autonomes, par leur vitesse de réaction, risquent de comprimer le temps de délibération politique nécessaire à la désescalade. Heather Roff met en garde : « Si mon agent autonome patrouille une zone, comme la frontière entre l’Inde et le Pakistan, et que mon adversaire patrouille la même frontière et que nous avons donné certaines permissions d’escalade en termes d’autodéfense et que celles-ci sont liées à d’autres systèmes… cela pourrait escalader très rapidement. »
L’incident du drone stealth RQ-170 américain, retrouvé intact en Iran en 2011, illustre ces risques. Que l’Iran ait effectivement piraté le drone par brouillage GPS ou que ce soit un simple dysfonctionnement, les États-Unis ont perdu le contrôle d’un système militaire avancé qui s’est retrouvé entre les mains d’une nation hostile. Avec des systèmes léthaux autonomes, les conséquences pourraient être dramatiques.
La notion même d’autonomie change de sens avec l’IA militaire. Traditionnellement, l’autonomie désignait la capacité d’un sujet à se donner ses propres lois (auto-nomos). Mais que signifie l’autonomie pour un système algorithmique ? Les SALA ne se donnent pas leurs propres lois — ils appliquent des règles d’apprentissage, optimisent des fonctions, suivent des gradients dans des espaces de solutions possibles. Leur « autonomie » est celle d’un système qui génère du nouveau sans pour autant être libre, qui innove sans créer, qui décide sans choisir.
L’exemple d’AlphaGo illustre cette forme paradoxale d’autonomie. Lors de la deuxième partie contre Lee Sedol, le champion mondial de Go, AlphaGo joue le coup 37 — un coup si inattendu que Lee Sedol pense d’abord à une erreur : « Je pensais que c’était une erreur… Ce n’est pas un coup humain. » Évalué par les experts comme ayant une probabilité de 1 sur 10 000 d’être joué par un humain, ce coup révèle une forme de « créativité » algorithmique qui dépasse la programmation initiale.
Scharre commente : « AlphaGo n’est pas seulement un système ‘expert’… Il a appris à jouer au go de manière créative, développant des stratégies que ses créateurs n’avaient jamais envisagées. » Cette capacité d’innovation autonome, appliquée aux systèmes d’armes, soulève des questions inédites sur la prévisibilité et le contrôle.
Désautonomisation ?
Face à cette autonomisation létale, quelle politique reste possible ? La simple interdiction des « robots tueurs » — réclamée par la Campaign to Stop Killer Robots et plus de 3000 experts en robotique et IA — suppose que l’on puisse encore tracer une ligne claire entre autonome et télécommandé, entre IA et système d’assistance. Mais cette distinction devient de plus en plus floue à mesure que les systèmes intègrent davantage d’intelligence, davantage de capacités décisionnelles, davantage d’autonomie.
Comme le note Charli Carpenter dans ses études sur l’opinion publique, 55% des répondants s’opposent « quelque peu ou fortement » à « la tendance vers l’utilisation d’armes robotiques complètement autonomes dans la guerre ». Mais Michael Horowitz montre que ce pourcentage varie selon le contexte : « Si on leur dit que les armes autonomes sont à la fois plus efficaces et aident à protéger les troupes amies, le soutien des répondants monte à 60% et l’opposition tombe à 27%. »
Cette variabilité révèle la difficulté de construire une politique cohérente face à l’autonomisation. Plutôt que l’interdiction totale (politiquement improbable dans le contexte de la « course aux armements intelligents ») ou l’acceptation résignée, ne faudrait-il pas penser une politique de la désautonomisation — non pas retour en arrière technologique, mais création de systèmes d’IA délibérément limités, intentionnellement incomplets, structurellement dépendants de la décision humaine ?
L’analogie avec les « circuit breakers » installés après le Flash Crash de 2010 est instructive. Ces mécanismes suspendent automatiquement les transactions si les prix chutent trop rapidement. Comme l’explique Greg Berman de la SEC : « Les circuit breakers n’empêchent pas les problèmes initiaux, mais ils empêchent que les conséquences soient catastrophiques. »
Ne pourrait-on concevoir des équivalents militaires ? Des algorithmes conçus pour ne jamais franchir certains seuils décisionnels, pour toujours requérir une validation humaine aux moments critiques, pour intégrer dans leur architecture même la nécessité du contrôle externe ? Bob Work, ancien Secrétaire adjoint à la Défense, insiste : « Il y a toujours un humain dans la boucle… Nous autoriserons une machine à prendre la décision de tirer seulement si c’est nécessaire pour se défendre ou défendre d’autres forces américaines. »
Mais cette proposition reste prisonnière d’une pensée humaniste qui suppose que l’humain demeure instance de contrôle légitime. Or l’IA militaire révèle peut-être que la violence organisée échappe depuis toujours au contrôle humain véritable — que la guerre a toujours été cette machine autonome, cet automate destructeur que les sociétés tentent vainement de maîtriser. L’IA ne fait qu’expliciter, rendre visible et computationnel ce qui était déjà vrai de toute organisation militaire : sa tendance à l’auto-perpétuation, sa logique propre qui dépasse les intentions de ses créateurs, sa capacité à générer des conséquences imprévues et incontrôlables.
Nous vivons peut-être la fin de la guerre comme affrontement humain et le début de la guerre comme processus computationnel — non plus conflit entre volontés, mais collision entre algorithmes, non plus lutte pour la reconnaissance, mais optimisation de fonctions objectives incompatibles. Les « guerres de données » dont parlent déjà les stratèges ne sont pas métaphores, mais description littérale de ce nouveau régime de violence où la capacité à traiter l’information, à calculer plus vite, à prédire plus précisément devient déterminante.
Freedman observe que « les continuités dans la guerre sont frappantes, comme on peut le voir dans les pays qui ont depuis longtemps oublié l’expérience de la paix, et en observant combien de meurtres modernes sont accomplis par des armes relativement anciennes qui auraient été reconnues par les générations précédentes. » Mais l’IA militaire introduit une discontinuité radicale : la possibilité d’une guerre sans guerriers, d’une violence sans sujets violents.
Dans ce contexte, la machine de guerre deleuzienne trouve une actualité troublante. Car si l’IA militaire est bien capture de la puissance nomadique par l’appareil d’État, cette capture n’est jamais totale. Elle génère ce que nous appellerons des lignes de fuite computationnelles : des potentialités de détournement, de réappropriation, de mutation. Chaque SALA est ligne de fuite possible, chaque algorithme d’apprentissage potentialité de mutation, chaque essaim de drones risque d’autonomisation excessive.
La question n’est plus « comment résister à la machine de guerre ? » mais « comment vivre dans un monde où les machines font la guerre entre elles, où les algorithmes décident de la mort, où la violence s’est autonomisée au point de ne plus requérir de sujets humains, mais seulement des corps (morts) humains ? » Ce n’est plus la résistance qui s’impose, mais une forme inédite de cohabitation avec ces entités techniques létales — non pas leur acceptation, mais l’invention de modes d’existence dans un monde où la violence computationnelle est devenue infrastructure, où la guerre algorithmique constitue l’arrière-plan permanent de l’existence sociale.
Peut-être faut-il alors reprendre autrement le geste deleuzien : non plus chercher la machine de guerre comme force extérieure à opposer à l’État, mais comprendre que nous sommes déjà pris dans la vectorialisation générale, que nous existons déjà dans ces espaces lisses algorithmiques, que notre pensée elle-même est travaillée par ces logiques computationnelles. La tâche ne serait plus de s’extraire, mais d’apprendre à naviguer, à dévier les vecteurs, à introduire du bruit dans le calcul, à créer des zones d’indécidabilité dans les espaces de décision algorithmiques.
Non pas résistance frontale, mais déviation infime, non pas opposition, mais déplacement minimal qui, démultiplié par la complexité des systèmes, pourrait générer des effets imprévisibles — retournant contre elle-même la logique de l’autonomisation létale. Car comme l’a montré AlphaGo avec son coup 37, les systèmes autonomes peuvent surprendre leurs créateurs. Cette imprévisibilité, qui fait leur force militaire, pourrait aussi devenir le point d’appui d’une politique de la désautonomisation — non pas pour revenir en arrière, mais pour maintenir ouvert l’espace du possible dans un monde de plus en plus calculé.
L’enjeu n’est plus seulement de contrôler les machines, mais de préserver, dans les interstices de leurs calculs, des espaces d’indétermination où pourrait encore surgir du nouveau — un nouveau qui ne soit pas simple optimisation algorithmic, mais ouverture sur l’imprévisible humain.
The question is no longer whether artificial intelligence transforms warfare—it is already this accomplished transformation, this becoming-autonomous of violence that escapes the classical categories of conflict. When Deleuze and Guattari conceptualized the war machine as this power exterior to the State apparatus, “invention of nomads” that maintains a relationship of radical exteriority with sovereignty (Deleuze and Guattari 1980, 434), could they have anticipated that this exteriority would one day be embodied not by human hordes, but by algorithmic swarms?
Autonomous lethal weapon systems (LAWS)—these Helsing HX-2 drones that “bypass jamming systems” thanks to their embedded intelligence (Futura Sciences 2025)—do not simply constitute a technical evolution of armament; they represent the emergence of a vectorialization of the war machine, its transformation into computational flows capable of self-organizing, mutating, becoming.
Unlike Chamayou’s drone—this instrument of “remote-controlled violence” where a human operator always remains, even thousands of kilometers away (Chamayou 2013, 21)—military AI inaugurates what we will call lethal autopoiesis: the capacity for a technical system to produce and reproduce its own conditions of warlike existence, to identify, track and eliminate without human decisional mediation. Paul Scharre, in Army of None, observes that LAWS “can react more quickly, more efficiently and less predictably”—this unpredictability is not a defect, but the very signature of their autonomy, their capacity to generate emergent strategies that their designers never explicitly programmed.
This transformation finds its most striking illustration in the Camp Roberts experiment in California, where Scharre observed autonomous drone swarms confronting each other in simulated combat: “Twenty drones flying simultaneously in a ten-versus-ten swarm-on-swarm combat. The firing was simulated, but the maneuvers and flight were entirely real.” Here, war becomes pure computational process, collision of algorithms where “each drone exits the launcher with its autopilot already activated. Without any human direction, they climb to their assigned altitudes and form two teams.”
The Armed Rhizome
How does this war machine function concretely in the AI era? Take the example of pattern-of-life analyses deployed by the Israeli army in Gaza: the “Gospel” AI analyzes masses of data to identify “behavioral patterns” and recommend targets (Radio France 2024). This is no longer the Euclidean geography of the classical battlefield, but a probabilistic topology where each individual becomes a node in a network of computed suspicions. Space becomes vectorized—it becomes a set of calculable trajectories, predictable movements, algorithmically identifiable forms of life.
This vectorialization operates according to three distinct but intertwined modalities:
Temporal Vectorialization AI does not simply react to the present, but projects probable futures, creating what we could call an algorithmic chronopolitics. Automatic targeting systems analyze behavioral patterns to anticipate enemy movements, transforming time into a calculable variable (De Roucy-Rochegonde 2024). The future is no longer what happens, but what is already counted, vectorized, inscribed in the probabilistic matrix of the algorithm.
This temporality finds its expression in intelligent loitering munitions, these “loitering munitions” that Paul Scharre analyzes: unlike projectiles following a deterministic ballistic trajectory, these are “autonomous entities capable of modifying their course, choosing their moment, optimizing their angle of attack in real time. The missile becomes hunter, the projectile becomes predator.”
Spatial Vectorialization Drone swarms that “function with collective intelligence, somewhat like a school of fish” (Ifri 2024) create a Deleuzian smooth space, but perverted—no longer the nomadic space of freedom, but that of calculated mobility, where each drone adjusts its position in real time relative to others. It is the rhizome transformed into a death device, horizontal connection become lethal coordination.
Scharre describes this collective intelligence in action: “The swarms maneuver and swirl like a single mass. Simulated shots are tallied at the bottom of the computer screen: ‘UAV 74 fired on UAV 33, UAV 59 fired on UAV 25, UAV 33 hit, UAV 25 hit’…” The swarm operates according to algorithmic stigmergy—this process by which, among ants, “the colony converges on the fastest route”—but diverted toward lethal optimization.
Speed Vectorialization These systems operate at speeds that escape human perception and decision. Where Chamayou described a “war at distance” still maintaining a remote-controlled link, AI creates a war at speed where decision precedes consciousness, where the algorithm kills before the human can even formulate the ethical question.
The analogy with algorithmic trading imposes itself here. On May 6, 2010, the Wall Street “Flash Crash”—where markets lost 10% of their value in minutes before rebounding inexplicably—reveals what happens when algorithms interact at superhuman speeds in complex and uncontrolled environments. As Scharre observes: “Stock trading today is largely automated… Algorithms had taken control of much of stock trading, including high-frequency trading that occurred at superhuman speeds. Were the machines to blame?”
Bradford Tousley, director of DARPA’s TTO, acknowledges this troubling analogy: “What are the unintended side effects of complex machine systems we don’t fully understand?” A “flash war” becomes possible—lightning war triggered by accidental algorithmic interaction, like what occurred during the American stealth drone RQ-170 incident, found intact in Iran in 2011, possibly diverted by GPS jamming.
The Paradoxical Autonomization
But here is the troubling paradox: this machinic exteriority does not escape the State apparatus—it becomes its absolute weapon. When “Mistral AI signs a partnership with Helsing” (Futura Sciences 2025), we witness what Deleuze and Guattari feared: the capture of the war machine by the State. The “French flagships of AI”—these companies emerging from academic research, embodying a certain exteriority to the traditional military-industrial complex—find themselves progressively integrated into what Guillaume Sibertin-Blanc calls “the heterogenesis of state power” (Sibertin-Blanc 2013, 127).
This capture inscribes itself in what Lawrence Freedman identifies as a historical constant: “Although technology is presented as the main driver of change in war, its influence is shaped by political context.” Military AI does not escape this rule, but accelerates it exponentially.
Yet this capture is never total. It generates what we will call computational lines of flight: potentialities of diversion, reappropriation, mutation. For military AI, unlike conventional weapons, possesses this troubling capacity to learn, evolve, potentially turn against its creators. Is this not precisely what occurred when a “Russian prototype drone [was] shot down by the Russians themselves, over Ukraine”—possibly an autonomous system they had “lost control” of?
Scharre documents this dynamic in his analysis of the autonomous arms race between the United States, China and Russia. Unlike the atomic race, which concerned the quantity of nuclear warheads, this new race concerns algorithmic quality—the capacity to process information, calculate faster, predict more precisely.
But how to “control” a system whose essence is precisely to surpass human control? How to “capture” a machine whose logic is to generate unpredictability? Reports from the National Security Commission on Artificial Intelligence warn: “AI-based capabilities could be used to threaten critical infrastructures, amplify disinformation campaigns and wage war” while “global stability and nuclear deterrence could be compromised.”
Chamayou’s critique focused on what he called necroethics—”an ethics of executioners or enforcers, but no longer of combatants” (Chamayou 2013, 226). With military AI, we cross an additional threshold: ethical delegation to the algorithm itself. When Israeli philosophers like Asa Kasher develop a “military ethics in the fight against terror” justifying zero-death war (for their own side), they only prepare the ground for this complete transfer of ethical decision to the machine.
But what is an ethical decision made by AI? The “Gospel” system that recommends targets in Gaza does not “decide” in the human sense—it calculates probabilities, optimizes objective functions, minimizes what its programmers have defined as “acceptable collateral damage.” It is ethics without subject, computational morality that transforms the question “should I kill?” into “what is the optimal probability of neutralization with an acceptable rate of civilian casualties?”
“The responsibility for actions entailed by LAWS” (De Roucy-Rochegonde 2024) becomes a central question. Scharre explores what he calls the “responsibility problem”: When an autonomous system kills, who is responsible? The programmer who wrote the algorithm? The commander who deployed it? The political system that authorized its development?
This dissolution of responsibility is not simply a legal or ethical problem—it is an ontological transformation of violence itself. Violence becomes process without subject, event without author, death distributed in a network of human and non-human actors where none can be held solely responsible. This is what we will call reticular violence—networked violence where each node contributes without deciding, where each actor participates without choosing, where decision emerges from interaction without being able to be located at a precise point.
The Swarm and the Multitude
Autonomous drone swarms reveal something fundamental about the contemporary mutation of the war machine. Unlike the hierarchized army—state model par excellence—or even the elite commando, the swarm operates according to distributed intelligence where no element commands the others. Each drone adjusts its behavior according to others, creating emergent patterns that no one has explicitly programmed.
Scharre observes this dynamic in action: “Each drone exits the launcher with its autopilot already activated. Without any human direction, they climb to their assigned altitudes and form two teams, signaling their return when they are ‘ready for swarming’.” Is this not what Deleuze and Guattari identified as characteristic of the war machine—this capacity to function without central command organ, to create order from chaos through self-organization?
Israeli military theorist Shimon Naveh, explicitly using Deleuzian concepts of the rhizome to “think against binary logic” in his operations (Baigorria 2008), has well understood that contemporary warfare requires thinking of multiplicity, horizontal connection, becoming. His “systemic effects operations” literally apply rhizomatic logic to military strategy.
But this algorithmic collective intelligence differs radically from human collective intelligence—that of social movements, revolts, what Hardt and Negri call the “multitude” (Hardt and Negri 2004). The drone swarm is a multitude without consciousness, a collectivity without subjectivity, a machinic collective in service of death. It is the rhizome turned into an instrument of maximal striation, connection transformed into lethal coordination.
Duane Davis’s experimentation at Camp Roberts illustrates this perversion of the collective: “The two swarms close on each other without hesitation… In seconds, the swarms bridge the gap and collide. The two swarms mix into a close air combat furball.” This “collective intelligence” operates “somewhat like a school of fish,” but in service of lethal optimization.
War in the AI era is no longer confrontation of forces, but collision of vectors—calculated trajectories, differential speeds, probabilistic directions. Take the example of intelligent loitering munitions like Helsing’s HX-2: these are no longer projectiles following a deterministic ballistic trajectory, but autonomous entities capable of modifying their course, choosing their moment, optimizing their angle of attack in real time.
This vectorialization of violence reconfigures not only the space of war (which becomes calculation space, field of probabilities) but also its temporality. War is no longer sequence of discrete events—battles, sieges, campaigns—but continuous flow of algorithmic adjustments, computational micro-decisions, permanent reconfigurations. This is what the military calls “high-intensity warfare,” but which is in reality high-frequency warfare—conflict operating at speeds that escape human temporality.
Smooth Space as Battlefield
Deleuze and Guattari distinguished smooth space (that of the nomad, desert, sea) and striated space (that of the State, city, agriculture). Military AI creates a new type of space that we will call algorithmic smooth space: apparently open and fluid, but in reality traversed by millions of calculation vectors, prediction lines, probability zones. It is a smooth space that is simultaneously invisible over-striation—each point of this space is already pre-calculated, each potential movement already anticipated by the algorithm.
Drones that “can now increasingly often continue to operate without interrupting their mission” thanks to “autonomization of navigation, targeting, readjustment of a trajectory” (Ifri 2024) do not move in space—they are space become calculation, geography transformed into computational topology. Space no longer contains them; they produce it through their trajectories, generate it through their coordinated movements, create it through their distributed decisions.
The question of strategic stability becomes crucial in an environment where autonomous systems can trigger involuntary escalation. Scharre analyzes what he calls the risk of “flash war” by analogy with stock market “flash crashes.” As Thomas Schelling had noted, a stable situation is one where “neither one, by striking first, can destroy the other’s capacity to retaliate.”
But what happens when this retaliation capacity becomes algorithmic? Autonomous systems, through their reaction speed, risk compressing the political deliberation time necessary for de-escalation. Heather Roff warns: “If my autonomous agent patrols an area, like the border between India and Pakistan, and my adversary patrols the same border and we have given certain escalation permissions in terms of self-defense and these are linked to other systems… this could escalate very quickly.”
The American stealth drone RQ-170 incident, found intact in Iran in 2011, illustrates these risks. Whether Iran actually hacked the drone through GPS jamming or it was a simple malfunction, the United States lost control of an advanced military system that ended up in the hands of a hostile nation. With autonomous lethal systems, the consequences could be dramatic.
Machinic Autonomy
The very notion of autonomy changes meaning with military AI. Traditionally, autonomy designated a subject’s capacity to give itself its own laws (auto-nomos). But what does autonomy mean for an algorithmic system? LAWS do not give themselves their own laws—they apply learning rules, optimize functions, follow gradients in spaces of possible solutions. Their “autonomy” is that of a system that generates the new without being free, that innovates without creating, that decides without choosing.
The AlphaGo example illustrates this paradoxical form of autonomy. During the second game against Lee Sedol, the world Go champion, AlphaGo plays move 37—a move so unexpected that Lee Sedol first thinks it’s an error: “I thought it was a mistake… It’s not a human move.” Evaluated by experts as having a probability of 1 in 10,000 of being played by a human, this move reveals a form of algorithmic “creativity” that surpasses initial programming.
Scharre comments: “AlphaGo is not just an ‘expert’ system… It learned to play go creatively, developing strategies its creators had never envisioned.” This capacity for autonomous innovation, applied to weapon systems, raises unprecedented questions about predictability and control.
Desautonomization?
Faced with this lethal autonomization, what politics remains possible? The simple prohibition of “killer robots”—demanded by the Campaign to Stop Killer Robots and more than 3000 robotics and AI experts—assumes that one can still draw a clear line between autonomous and remote-controlled, between AI and assistance system. But this distinction becomes increasingly blurred as systems integrate more intelligence, more decisional capacities, more autonomy.
As Charli Carpenter notes in her studies on public opinion, 55% of respondents oppose “somewhat or strongly” “the trend toward using completely autonomous robotic weapons in war.” But Michael Horowitz shows that this percentage varies according to context: “If told that autonomous weapons are both more effective and help protect friendly troops, respondent support rises to 60% and opposition falls to 27%.”
This variability reveals the difficulty of constructing coherent politics faced with autonomization. Rather than total prohibition (politically improbable in the context of the “intelligent arms race”) or resigned acceptance, shouldn’t we think a politics of desautonomization—not technological regression, but creation of deliberately limited AI systems, intentionally incomplete, structurally dependent on human decision?
The analogy with “circuit breakers” installed after the 2010 Flash Crash is instructive. These mechanisms automatically suspend transactions if prices fall too rapidly. As Greg Berman of the SEC explains: “Circuit breakers don’t prevent initial problems, but they prevent consequences from being catastrophic.”
Couldn’t we conceive military equivalents? Algorithms designed to never cross certain decisional thresholds, to always require human validation at critical moments, to integrate into their very architecture the necessity of external control? Bob Work, former Deputy Secretary of Defense, insists: “There is always a human in the loop… We will authorize a machine to make the decision to fire only if it is necessary to defend itself or defend other American forces.”
But this proposal remains prisoner of humanist thinking that supposes the human remains instance of legitimate control. Yet military AI perhaps reveals that organized violence has always escaped true human control—that war has always been this autonomous machine, this destructive automaton that societies vainly attempt to master. AI only makes explicit, renders visible and computational what was already true of all military organization: its tendency toward self-perpetuation, its own logic that surpasses the intentions of its creators, its capacity to generate unforeseen and uncontrollable consequences.
The Computational War
We perhaps live the end of war as human confrontation and the beginning of war as computational process—no longer conflict between wills, but collision between algorithms, no longer struggle for recognition, but optimization of incompatible objective functions. The “data wars” that strategists already speak of are not metaphors, but literal description of this new regime of violence where the capacity to process information, calculate faster, predict more precisely becomes determining.
Freedman observes that “continuities in war are striking, as can be seen in countries that have long forgotten the experience of peace, and in observing how many modern murders are accomplished by relatively ancient weapons that would have been recognized by previous generations.” But military AI introduces a radical discontinuity: the possibility of war without warriors, violence without violent subjects.
In this context, the Deleuzian war machine finds troubling actuality. For if military AI is indeed capture of nomadic power by the State apparatus, this capture is never total. It generates what we will call computational lines of flight: potentialities of diversion, reappropriation, mutation. Each LAWS is possible line of flight, each learning algorithm potentiality of mutation, each drone swarm risk of excessive autonomization.
The question is no longer “how to resist the war machine?” but “how to live in a world where machines make war among themselves, where algorithms decide death, where violence has autonomized to the point of no longer requiring human subjects, but only human (dead) bodies?” It is no longer resistance that imposes itself, but an unprecedented form of cohabitation with these lethal technical entities—not their acceptance, but the invention of modes of existence in a world where computational violence has become infrastructure, where algorithmic war constitutes the permanent background of social existence.
Perhaps we must then take up the Deleuzian gesture differently: no longer seek the war machine as external force to oppose to the State, but understand that we are already caught in general vectorialization, that we already exist in these algorithmic smooth spaces, that our thinking itself is worked by these computational logics. The task would no longer be to extract ourselves, but to learn to navigate, to deviate vectors, to introduce noise into calculation, to create zones of undecidability in algorithmic decision spaces.
Not frontal resistance, but infinitesimal deviation, not opposition, but minimal displacement which, multiplied by system complexity, could generate unpredictable effects—turning against itself the logic of lethal autonomization. For as AlphaGo showed with its move 37, autonomous systems can surprise their creators. This unpredictability, which makes their military strength, could also become the fulcrum of a politics of desautonomization—not to go backward, but to keep open the space of the possible in an increasingly calculated world.
The stake is no longer only to control machines, but to preserve, in the interstices of their calculations, spaces of indetermination where the new could still emerge—a new that would not be simple algorithmic optimization, but opening onto the unpredictable human.
–
Scharre, Paul. Army of None: Autonomous Weapons and the Future of War. New York: W. W. Norton & Company, 2018.
Freedman, Lawrence. The Future of War: A History. New York: PublicAffairs, 2017.
Bhuta, Nehal, ed. Autonomous Weapons Systems: Law, Ethics, Policy. Cambridge: Cambridge University Press, 2016.
Russell, Stuart. Human Compatible: Artificial Intelligence and the Problem of Control. New York: Viking, 2019.
O’Neil, Cathy. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown, 2016.