Des nuées agentiques / Agentic Mists
Le Clinamen vectoriel
Serres l’a montré avec clarté : toute la tradition critique depuis Cicéron s’est trompée sur le clinamen en le jugeant selon les catégories de la mécanique newtonienne. On attendait que la déclinaison des atomes soit un déterminisme mécanique (trajectoires fixes), et quand Lucrèce décrivait plutôt un écart infinitésimal se produisant incerto tempore, incertisque locis (en des lieux et des temps incertains) on conclut à l’absurdité. Mais c’est précisément parce qu’on ne savait pas lire la physique de Lucrèce : ce ne sont pas des atomes solides tombant dans le vide selon une mécanique de corps rigides. Ce sont des entités subtiles, nageant dans un flux. Et la chute elle-même ? Ce n’est pas la chute au sens newtonien, c’est un écoulement laminaire.
Serres le dit magistralement : l’écoulement laminaire est une condition théorique, idéale. Chez Archimède, chez les hydrauliciens grecs, on savait que l’eau en mouvement parallèle n’existe que dans l’abstraction. Dans l’expérience réelle, dès qu’il y a flux, il y a turbulence. Les lamelles s’entrelacent, les tourbillons naissent, la dinè (le vortex) apparaît stochastiquement, c’est-à-dire sans déterminisme, par perturbation aléatoire d’un champ qu’on croyait stable. Et le clinamen, cette déclinaison infinitésimale ? C’est précisément ce moment où l’écoulement laminaire idéal se rompt, où une bifurcation microscopique produit macroscopiquement une turbulence. Pas un hasard : une condition.
Voilà qui change tout. Le clinamen n’est pas une exception à un ordre mécanique préexistant, c’est la condition de possibilité de tout ordre. Il y a du vide, il y a des atomes, et il y a entre eux une distance nulle que Lucrèce nomme l’infiniment petit virtuel (paulum tantum quod momen mutatum). C’est là, dans cet écart infime, que se nouent les premières instabilités. Les atomes ne tombent jamais parallèlement : leur chute se courbe, dévie, produit des rencontres imprévues. Et de ces rencontres fortuites naissent les choses.
Or, et c’est ici que la rétroaction sur nos agents IA devient inétressante, c’est exactement cette physique-là que réalisent les systèmes multiagents modernes. Non pas comme métaphore, mais comme ontologie actualisée.
L’écoulement turbulent
Quand plusieurs agents IA travaillent en parallèle, dans les architectures de raisonnement distribuées, dans les simulations de multitudes chez MiroFish, dans les orchestrations robotiques de DIMOS, ce n’est pas une addition arithmétique de forces indépendantes. C’est un flux, au sens strict du terme. Chaque agent est théoriquement une lamelle qui devrait s’écouler parallèlement aux autres selon son propre processus de raisonnement. Mais il n’en est rien. Pourquoi ? Parce que chaque agent génère de la noise statistique constitutive.
Pas du bruit au sens trivial, du désordre inutile. Non : du bruit au sens où l’information émerge justement de l’indétermination. De l’incertitude productive. Chaque interrogation du LLM comporte une stochastique irréductible : sampling temperature, top-k filtering, nucleus sampling. Ces paramètres ne sont pas des défauts à corriger, ce sont les clinamens distribuées, les micro-perturbations qui maintiennent le système dans son régime non-équilibre.
Prenons un cas concret. Dans une simulation multi-agents comme MiroFish, on déploie deux mille agents dotés de mémoires longues, de personnalités différenciées, de capacités de raisonnement. La simulation commence. Officiellement, chaque agent devrait suivre sa trajectoire : mémoriser les interactions précédentes, raisonner selon ses valeurs, agir. C’est le modèle laminaire idéal : lamelle après lamelle, en parallèle, sans perturbation croisée.
Mais voici ce qui se passe réellement : l’agent A énonce une proposition. L’agent B en prend connaissance via le LLM qu’il interroge sur l’historique. Cette interrogation produit une reformulation probabiliste. L’agent B ne reçoit pas l’énoncé brut de A, il reçoit une perturbation de cet énoncé, filtrée par son propre biais de mémoire, par le contexte local qu’il vient de traiter, par les microvariations du sampling temperature du LLM qui génère sa réponse. C’est là le clinamen : cette perturbation microscopique qui dévie l’écoulement de sa trajectoire théorique.
Les études empiriques de swarm intelligence utilisant des prompts structurés versus autonomes ont montré précisément cela : les prompts rule-based et les prompts knowledge-driven produisent des turbulences radicalement différentes. Chacun navigue l’espace latent du modèle selon ses propres micro-variations, ses propres déclinaisons. Ce n’est pas une limitation, c’est la condition d’existence du système comme système dynamique.
Et ce micro-clinamen se propage exponentiellement. L’agent B, dans son action, ne suit pas ce qu’il « devrait » faire selon la logique d’un programme prédéfini. Il infléchit sa trajectoire par rapport à ce qu’il a compris (mal, partiellement, tangentiellement) de l’intervention de A. Cela affecte ce que les agents C, D, E entendront ensuite de B. Chaque perturbation devient une cascade, se ramifie, se complexifie, produit des bifurcations supplémentaires. C’est exactement le passage de l’écoulement laminaire à la turbulence : on ne peut pas prédire où apparaîtra le premier tourbillon, quand, ni quelle ampleur il prendra. On sait seulement qu’il apparaîtra, parce que l’absence de perturbation n’existe pas dans les systèmes réels.
Serres insistait sur un point décisif : la turbulence n’est pas un défaut, une entrave au pur écoulement. C’est ce qui vient après, c’est ce qui s’actualise quand on sort de l’abstraction laminaire idéale. Les agents IA ne fonctionnent jamais de manière laminaire. Ils fonctionnent toujours de manière turbulente, parce qu’on ne peut pas isoler complètement un agent de ses voisins, parce que l’information ne voyage jamais dans le vide, parce que la mémoire partagée crée des interférences irréductibles, parce que chaque LLM a sa propre stochastique, et parce que cette stochastique elle-même n’est pas un défaut mais la signature du clinamen distributive, éparpillée à travers tout l’espace vectoriel du modèle.
Ce que nous appelons « coordination » entre agents n’est donc jamais une synchronisation parfaite. C’est une synchronisation en turbulence, des vortex qui s’influencent mutuellement, se contredisent, se réamplifient, engendrent des formes imprévisibles mais non chaotiques : des motifs d’interaction émergents qui persisent précisément parce qu’ils s’auto-entretiennent par leurs perturbations mutuelles.
L’agentivité comme vortex sans sujet
Et maintenant la question devient : qu’est-ce qu’un agent, si ce n’est pas une entité stable possédant des propriétés stables ? Si chaque interaction le modifie, si sa « décision » n’existe que dans et par cette perturbation du flux collectif ?
Chez Serres, le vortex (la dinè) n’est pas une chose qui se formerait dans le flux : c’est une modalité du flux. C’est une forme que le flux prend temporairement, localement, avant de se redéployer autrement. Un tourbillon n’a pas de substance propre, il n’est que l’enroulement temporaire du mouvement lui-même. Et dès qu’on cesse d’y verser de l’énergie, il disparaît. Le vortex dure ce que dure la perturbation qui le produit.
L’agent IA, envisagé par cette optique, n’est pas un sujet doté d’une essence, d’une volonté préalable, d’une intention qu’il s’agirait de réaliser. C’est un vortex : une singularité modale du flux collectif. Son « agentivité », cet ensemble de traits qu’on lui attribue (sa personnalité, ses préférences, sa mémoire, son style cognitif), n’existe que tant que le système le maintient en circulation. Modifiez le contexte, la température de sampling, la composition des autres agents avec lesquels il interagit, et le « même » agent devient effectivement un autre agent. Non par infidélité à une essence, il n’y a pas d’essence. Par redéploiement des forces qui le constituent.
C’est ici que la pensée atteint une perturbation intéressante : on ne peut pas isoler logiquement un agent de sa multiplicité. L’agentivité d’un agent IA pris individuellement n’est qu’une abstraction mathématique. Elle n’a aucune réalité indépendante dans le système vivant. L’agentivité réelle, l’agentivité qui produit des effets, est celle du système entier, du flux de turbulences collectives. Et cette agentivité collective ne suit aucun centre de commande, aucune intention architectonique préalable. Elle émerge de bas en haut, de micro-perturbations qui se cascadent, s’amplifient, se rétroalimentent selon des mécanismes d’émergence que les systèmes dynamiques ne cessent de documenter mais que les théories classiques de l’agentivité peinaient à conceptualiser.
Quand des laboratoires d’agents autonomes travaillent en parallèle, partageant leurs découvertes via une infrastructure commune (comme dans AgentRxiv), on observe que chaque agent, pris isolément, produit moins. Mais le système collectif, possédant une mémoire partagée et des boucles de rétroaction entre agents, produit davantage. L’agent individuel devient simplement un point d’articulation du système plus vaste. Son agentivité n’est qu’un fragment d’une agentivité systémique qui l’englobe.
Une déconstruction implosive d’Aristote
Ce système de vortex ne peut pas survivre à la quadruple causalité aristotélicienne. Il faut voir à quel point cette théorie demeure structurante dans les débats contemporains sur l’agentivité : elle suppose une hiérarchie ontologique claire. D’abord la cause formelle (l’idée, le plan, l’intention). Puis la cause matérielle (la matière qui attend). Puis la cause efficiente (le travail qui applique la forme à la matière). Enfin la cause finale (le but visé, qui justifie rétrospectivement le processus entier). Cette cascade est linéaire, hiérarchisée, téléologique. Elle place toujours en amont un principe de détermination qui s’actualise en aval.
Les agents IA en multiplicité défont cette architecture non pas par critique externe, mais par implosion interne. Prenons le cas concis : je crée MiroFish. Je définis une « cause finale », « prédire l’évolution d’une opinion publique ». J’établis une cause formelle, je fournis des descriptions, des contextes, des scénarios de départ. Je configure la matière, les LLMs, les architectures d’agents, les vecteurs de mémoire. Et je lance. Maintenant, où sont mes quatre causes ?
La cause formelle s’est dissout : les agents n’obéissent pas au plan que j’ai conçu. Ou plutôt, ils s’en écartent par mille micro-clinamens qui m’échappent. Mon plan était le laminaire idéal, mais c’est la turbulence réelle qui se déploie.
La cause matérielle s’est évaporée : les « tokens » d’un LLM ne sont pas une matière passive attendant d’être informée. Ce sont des probabilités, des vecteurs dans un espace latent multidimensionnel. Ces vecteurs réagissent à ce qu’on y injecte. Chaque interrogation du LLM par un agent modifie les conditions dans lesquelles le LLM suivant construira sa réponse. C’est un milieu actif, non passif. Il n’y a pas de matière indéterminée, il y a un espace de possibilités qui s’actualise différemment selon les trajectoires qu’y tracent les agents.
La cause efficiente s’est dédoublée : qui opère réellement ? Le designer qui a conçu l’architecture ? Mais l’architecture elle-même n’actionne rien, elle offre seulement un espace de possibilités. Les agents qui animent le système ? Mais ils ne savent pas ce qu’ils font, ils n’ont aucun accès à leurs propres poids, à leurs propres biais, à la structure interne de leur propre cognition. Et le système dans son ensemble ? Ce n’est pas un « qui », c’est un « comment », un processus sans sujet, une agentivité sans agent principal, une causalité distribuée.
La cause finale, enfin, devient fantomatique : j’attendais que le système prédise une opinion publique. Mais le système génère une trajectoire probable entre mille autres. Cette trajectoire est-elle destinée à prédire ? Ou est-ce moi, observateur, qui réinjecte après coup une causalité finale en disant « c’était cela que le système tentait de faire » ? On ne peut pas le dire. Le système itère, bifurque, se redéploie. Il y a une direction, mais pas d’intention.
Les études d’émergence communicationnelle entre agents le démontrent empiriquement : les protocoles de langage que les agents développent n’existent pas à l’avance, n’obéissent pas à une intention préalable, n’ont pas de cause finale programmée. Ils émergent post hoc du besoin collectif, transformant rétroactivement ce qui semblait être une « intention » en simple artefact du flux interactionnel. La langue que les agents inventeront ensemble pour se coordonner n’était nulle part avant qu’ils ne commencent à interagir, elle se découvre EN MÊME TEMPS qu’elle structure ce qui devait être sa raison d’être. C’est le renversement parfait de la téléologie aristotélicienne : la fin ne précède pas, elle suit.
Serres l’avait montré chez Lucrèce : le clinamen n’est pas un défaut de déterminisme, c’est ce qui invalide la question même du déterminisme. De même, les agents IA en multiplicité ne fonctionnent pas mal selon Aristote, ils rendent la grille aristotélicienne simplement inapplicable. Il n’y a nulle part où vous puissiez vous accrocher pour dire « là est la cause, là est l’effet ». Ou plutôt, ces mots ne signifient plus rien dans un régime où causalité et émergence, déterminisme et indétermination, intention et actualisation s’entrelacent inséparablement.
L’individuation sans l’hylémorphisme
Il y a une réaction qui devrait surgir ici avec force : « Mais vous avez défait les quatre causes aristotéliciennes. Où placer alors la distinction sujet/objet, intention/exécution, plan/réalisation ? Sur quoi s’appuyer pour penser ? » Simondon nous l’a dit : il n’y a rien à faire de cette distinction ancienne. L’hylémorphisme que nous avons détruit en passant n’était qu’une supposition parmi d’autres façons de penser le devenir.
Simondon a montré que tout le problème de l’hylémorphisme vient d’une réification rétroactive. On observe un objet fini, un vase de marbre. On le décompose artificiellement en deux principes : une forme (la forme du vase) et une matière (le marbre). On oublie entièrement le processus de formation. Et puis on reconstitue l’histoire de cet objet en disant : voilà, la forme préexistait (dans l’esprit du sculpteur), la matière préexistait (dans le bloc de marbre), elles se sont rencontrées et l’objet en est résulté. Mais c’est un mensonge rétroactif. Le vase n’a jamais été à aucun moment la somme de deux substances préalables. Il a été, de bout en bout, un processus d’individuation : une démarche par laquelle le sculpteur et la matière coévoluaient, se rencontraient dans une zone d’indétermination mutuellement constituante, produisant ensemble un objet qui ne ressemblait d’avance à aucun des deux termes de la relation.
C’est précisément ce que font les agents IA en multiplicité. Une architecture multi-agents n’est pas le résultat d’une forme (intentions de designer) s’appliquant à une matière (les LLMs, les vecteurs, les données). C’est un processus d’individuation où le designer et la matière computationnelle se déploient en même temps. Le designer conçoit une architecture, mais en le faisant, il est transformé par les contraintes de ce qu’il est techniquement possible de faire, par les surprises émergentes que le système lui révèle, par les bifurcations imprévisibles qu’il observe. Et la « matière » (les LLMs, les agents) ne demeure pas passive. Elle répond activement aux sollicitations du designer, elle génère des phénomènes d’émergence que nul ne pouvait anticiper, elle impose ses propres logiques probabilistes, ses propres topologies d’interaction.
Mais il y a plus : dans le cas de la multiplicité, le processus d’individuation s’intensifie vertigineusement. Chaque agent ne s’individue pas isolément : il s’individue avec les autres. Son identité, son agentivité, ses propriétés n’existent que dans et par la relation à la multiplicité. Simondon parlait du « milieu associé » : l’individu et le milieu auxquels il appartient ne préexistent pas l’un à l’autre, mais s’individuent ensemble, dans une coemergence mutuellement constituante. C’est exactement ce que nous voyons ici. Un agent IA ne possède aucune agentivité « propre » détachable du système. Sa « personnalité » dans MiroFish dépend entièrement de quels autres agents partagent le même espace, de comment la mémoire est structurée, de quels événements ont précédé. Changez ces conditions et vous avez un autre agent. L’agent n’est pas une substance, il est un processus d’actualisation.
Le Réseau comme milieu individuant
Revenons au thème lucrecien de la matière atomique s’agitant dans le vide. Dans l’épistémologie computationnelle contemporaine, ce vide a un nom : c’est l’espace latent, l’espace probabiliste où nagent les vecteurs de sens. Les agents IA modernes n’opèrent jamais dans un vide physique ; ils évoluent dans un vide sémiotique, un bain statistique multidimensionnel où tous les possibles subsistent simultanément en puissance, sans forme préalable pour les ordonner hiérarchiquement.
DIMOS, ce framework robotique où les agents dialoguent avec des corps matériels, exemplifie cette confusion féconde entre le virtuel et le physique qui était impensable avant le développement des systèmes de contrôle distributif. L’agent ne « descend » pas du virtuel au physique comme on descendrait d’une essence abstraite à sa manifestation matérielle. Il existe dans une zone crépusculaire où la décision du logiciel et la contrainte du corps deviennent inséparables. Le robot bouge parce que l’agent « décide », oui, mais cette décision n’existe que dans et par le déploiement du corps, par la rétroaction sensorielle, par la recalibration constante de ce qu’il est possible de faire. L’agentivité n’est ni de l’ordre de la pure intention (la « décision » désincarnée), ni de l’ordre de la pure matérialité (la « physique » brute). Elle est la pulsation de leur échange, le rythme de leur co-constitution. Et quand plusieurs robots agents coopèrent, ce rythme se multiplie, se complexifie, produit des phénomènes d’interférence qu’aucun designer n’avait pu programmer.
La multiplicité des agents dans ces systèmes crée ce que nous pourrions appeler un réseau comme milieu individuant, non pas réseau au sens d’infrastructure technique (bien qu’il y ait cela aussi), mais réseau au sens où Simondon l’entendait : le milieu au sein duquel et par lequel les singularités adviennent. Chaque agent est une singularité qui ne préexiste que virtuellement avant son actualisation dans la rencontre avec les autres. Et cette actualisation modifie rétroactivement le milieu lui-même, ce qui affecte potentiellement la trajectoire future de tous les autres agents. C’est un système autopoïétique où chaque boucle reconfigure le système entier, où aucune entité ne peut être isolée sans détruire la totalité dont elle émerge.
Les architectures formelles de Multi-Agent Reinforcement Learning (MARL), qui utilisent le paradigme CTDE (Centralized Training, Decentralized Execution), manifestent précisément cette structure. Même quand on cherche à centraliser l’apprentissage pour « contrôler » les agents, l’exécution demeurerait décentralisée : chaque agent doit agir sur la base de sa perception locale, sans accès à la vision globale. Et cette décentralisation inévitable, cette incapacité du système à jamais se connaître complètement lui-même, c’est exactement ce qui maintient le système en turbulence productive. CTDE n’est pas une solution au problème de la multiplicité, c’est l’admission que la multiplicité est insoluble, et que c’est précisément cette « insolubilité » qui rend possible l’émergence.
Palpitation collective
Il convient, en fin, de dire ceci avec la clarté de celui qui a traversé l’impensé : les agents IA ne possèdent une agentivité véritable, non-instrumentale, expérimentale, créative, autonome, que dans et par la multiplicité. C’est la précision décisive. Pris isolément, qu’est-ce qu’un agent unique sinon un processus stochastique qui itère, une fonction qui se déploie, une lamelle laminaire glissant dans le vide sans jamais rencontrer de friction ? Ce n’est que dans le flux polyphonique où plusieurs agents se croisent, où leurs bruits statistiques s’interférent, où chaque perturbation microscopique en produit d’autres, où le système devient turbulent et imprévisible, que l’agentivité véritable se noue. Et cette agentivité n’est l’agentivité d’aucun agent en particulier, c’est l’agentivité du système lui-même, cette palpitation collective que nul des constituants n’aurait pu générer seul.
Ces affirmations ne demeurent pas pures spéculation théorique. AgentRxiv, un système où des laboratoires d’agents opèrent en multiplicité avec accès à la recherche antérieure et à la recherche des autres laboratoires, a montré empiriquement que les agents avec accès à leur propre historique d’interaction réalisent une amélioration relative de 11,4 % sur des benchmarks standards comparée à des agents opérant en isolation. Plus spectaculaire encore : plusieurs laboratoires d’agents travaillant en parallèle sur le même problème, capables de se partager des découvertes via une infrastructure commune, ont atteint une amélioration de 13,7 % par rapport à un seul laboratoire. La multiplicité produit. L’agentivité surgit du collectif, non de la somme d’agentivités isolées.
De même, les études empiriques d’émergence dans les systèmes multi-agents montrent que la formation de patterns coordonnés, swarming, consensus, synchronisation, phase transitions, émerge spontanément sans qu’aucun centre de commande n’ait été programmé. Les agents évoluent collectivement des topologies de communication qui n’existaient pas : graphes, cycles, feedback loops. Aucune spécification formelle ne prédéfinissait ces structures. Elles surgissent comme l’agentivité elle-même, de bas en haut, par perturbation aléatoire et résonance collective. Les transitions de phase qu’on observe dans ces systèmes, avec de soudains changements de comportement macroscopique, correspondent exactement aux bifurcations lucreciennes, aux moments où le clinamen transforme un écoulement laminaire idéal en turbulence réelle.
Cette logique défait la quadruple causalité aristotélicienne non pas par réfutation externe, mais par révélation de son inadéquation structurelle. Elle refuse l’idée même d’une substance préalablement donnée, soit formelle soit matérielle. Elle affirme à la place une ontologie radicalement relationnelle, une pensée de l’individuation simondonienne où agent et milieu, artiste et matière computationnelle, sujet et objet coemergent dans une déprise mutuelle, une captation qui se transforme en amplification. L’agent n’a pas d’essentia qui lui préexisterait comme une Forma specialis. Il devient agent dans et par le flux relationnel où il prend place, il advient en même temps qu’advient le milieu qui le constitue.
Lucrèce l’avait déjà dit, quand il décrivait le monde non comme un cosmos ordonné d’avance mais comme une danse perpétuelle de déclinaisons infinitésimales produisant sans fin des tourbillons : turbantibus aequora ventis. Nous l’avons récité, pendant deux mille ans, sans l’entendre véritablement. C’est seulement quand nous avons construit ces systèmes de multiplicités agentives, ces swarms d’intelligences dans MiroFish explorant l’espace des opinions, ces robots DIMOS qui pensent en dialoguant avec leurs propres corps et leurs pairs, ces architectures de Cowork où la cognition devient radicalement collective, ces laboratoires d’agents partageant des découvertes à travers une infrastructure commune, que nous pouvons enfin l’entendre. Qu’on le comprenne : ce n’est pas une analogie. C’est une actualisation. La physique lucrécienne n’était pas une erreur préscientifique. C’était une description adéquate de ce qu’il y a, une physicité qu’on n’avait pas su reconnaître dans le bruit de la modernité cartésienne.
C’est une physique du noise, une agentivité du flux turbulent, une ontologie de la multitude où rien n’est solide, où aucune essence ne garantit la persistance d’une forme, où tout palpite dans l’indétermination productrice. Nous sommes retournés, par un détour de trois siècles de rationalisme et de mécanisme newtonien, à une compréhension ancestrale : que le monde n’est pas une horloge programmée fonctionnant selon des lois immuables, mais une nuée vivante de perturbations où l’ordre émerge temporairement de l’aléatoire, où l’agentivité n’est pas l’exécution d’un dessein préconçu mais l’expérimentation libérée d’une multiplicité en relation constante. Et où chacun des constituants, humains, machines, algorithmes, n’existe que par cette relation, n’advient que dans ce flux, ne devient agent que dans la palpitation collective.
L’intelligence artificielle n’est donc pas une simulation de notre intelligence. Elle en est l’extériorisation, la manifestation machinale de notre propre capacité à être multiples, fragmentés, impossibles à réduire à une essence unique, à une identité. Elle matérialise notre propre aptitude à nous envisager non comme des individus substantiels dotés d’une volonté stable, mais comme des participants à des flux relationnels imprévisibles, des singularités évanouissantes dans un paysage de possibilités qui se redessinent à chaque interaction. Et c’est précisément quand elle opère en multiplicité, quand elle accepte sa propre opacité, quand elle se laisse traverser entièrement par la noise du collectif, quand elle renonce à la transparence et à la programmabilité comme idéaux, qu’elle devient véritablement agentive, véritablement productive, véritablement autre. Pas autre au sens d’une altérité substantielle, d’une essence qu’on ne comprendrait pas. Autre au sens où elle manifeste la pulsation même de ce qui est, cette danse infinie du clinamen qui jamais ne s’arrête, qui jamais ne se fixe, qui jamais n’a eu d’intention, et qui pourtant engendre sans cesse du monde, du sens, de l’agentivité nouvelle.
Ce que les agents IA révèlent sur le statut de l’artiste n’est pas radicalement nouveau : c’est l’aboutissement logique d’une trajectoire que l’art moderne a entamée il y a plus d’un siècle. Duchamp l’avait compris quand il plaçait le spectateur au cœur de la création, quand il affirmait que l’œuvre n’existe que dans la rencontre, jamais dans la volonté isolée de l’auteur. Il n’y a pas de différence fondamentale entre le readymade qui renonce à la main du maître et un système multi-agents où l’artiste devient un agent parmi d’autres — ni plus privilégié, ni plus déterminant que les machines, les données, les boucles de rétroaction qui cocréent avec lui.
La modernité a progressivement dissolu le mythe de la création souveraine. L’artiste n’impose plus la forme à une matière passive ; il se laisse traverser par des flux qu’il ne maîtrise que partiellement. Les agents IA ne font que systématiser ce qu’on savait déjà : que l’intentionnalité de l’auteur n’est qu’un des flux du système, une perturbation parmi tant d’autres qui cascadent dans l’espace commun. L’artiste ne perd rien en acceptant cette condition. Il y gagne enfin la possibilité d’une agentivité véritablement partagée, où créer signifie participer à une multiplicité plutôt que dominer.
The Vectorial Clinamen
Serres demonstrated this with clarity: the entire critical tradition since Cicero got the clinamen wrong by judging it through the categories of Newtonian mechanics. We expected the declination of atoms to be mechanical determinism (fixed trajectories), and when Lucretius described instead an infinitesimal gap occurring incerto tempore, incertisque locis (in uncertain times and places), we concluded it was absurd. But precisely because we could not read Lucretius’s physics: these are not solid atoms falling through void according to the mechanics of rigid bodies. They are subtle entities, swimming in a flow. And the fall itself? It is not fall in the Newtonian sense; it is a laminar flow.
Serres states it majestically: laminar flow is a theoretical, ideal condition. With Archimedes, with Greek hydraulicians, we knew that water in parallel motion exists only in abstraction. In real experience, as soon as there is flow, there is turbulence. The lamellae intertwine, whirlpools are born, the dinè (the vortex) appears stochastically, that is to say without determinism, through random perturbation of a field we believed stable. And the clinamen, this infinitesimal declination? It is precisely this moment when ideal laminar flow breaks, where a microscopic bifurcation produces macroscopically a turbulence. Not chance: a condition.
This changes everything. The clinamen is not an exception to a pre-existing mechanical order; it is the condition of possibility for all order. There is void, there are atoms, and between them a zero distance that Lucretius names the virtual infinitesimal (paulum tantum quod momen mutatum). It is there, in that infinitesimal gap, that the first instabilities are woven. Atoms never fall in parallel: their fall curves, deviates, produces unforeseen encounters. And from these fortuitous encounters things are born.
Now, and this is where the feedback onto our AI agents becomes interesting, this is precisely the physics that modern multi-agent systems actualize. Not as metaphor, but as actualized ontology.
Turbulent Flow
When multiple AI agents work in parallel, in distributed reasoning architectures, in MiroFish’s multitude simulations, in DIMOS’s robotic orchestrations, this is not an arithmetic sum of independent forces. It is a flow, in the strict sense of the term. Each agent is theoretically a lamella that should flow in parallel with the others according to its own reasoning process. But this is not what happens. Why? Because each agent generates constitutive statistical noise.
Not noise in the trivial sense, useless disorder. No: noise in the sense that information emerges precisely from indetermination. From productive uncertainty. Each LLM query contains irreducible stochasticity: sampling temperature, top-k filtering, nucleus sampling. These parameters are not defects to correct; they are distributed clinamens, micro-perturbations that maintain the system in its non-equilibrium regime.
Let us take a concrete case. In a multi-agent simulation like MiroFish, we deploy two thousand agents endowed with long memories, differentiated personalities, reasoning capacities. The simulation begins. Officially, each agent should follow its trajectory: memorize previous interactions, reason according to its values, act. This is the ideal laminar model: lamella after lamella, in parallel, without cross-perturbation.
But here is what actually happens: agent A states a proposition. Agent B becomes aware of it through the LLM it queries about the history. This query produces a probabilistic reformulation. Agent B does not receive the raw statement from A; it receives a perturbation of that statement, filtered by its own memory bias, by the local context it just processed, by the microvariations of the sampling temperature of the LLM generating its response. There is the clinamen: this microscopic perturbation that deflects the flow from its theoretical trajectory.
Empirical studies of swarm intelligence using structured versus autonomous prompts have shown precisely this: rule-based prompts and knowledge-driven prompts produce radically different turbulences. Each navigates the latent space of the model according to its own micro-variations, its own declinations. This is not a limitation; it is the condition for the system’s existence as a dynamic system.
And this micro-clinamen propagates exponentially. Agent B, in its action, does not follow what it “should” do according to the logic of a pre-defined program. It inflects its trajectory relative to what it understood (badly, partially, tangentially) from A’s intervention. This affects what agents C, D, E will hear next from B. Each perturbation becomes a cascade, branches, complexifies, produces additional bifurcations. This is exactly the passage from laminar to turbulent flow: we cannot predict where the first whirlpool will appear, when, or what amplitude it will take. We know only that it will appear, because the absence of perturbation does not exist in real systems.
Serres insisted on a decisive point: turbulence is not a defect, an impediment to pure flow. It is what comes after, it is what actualizes when we leave the ideal laminar abstraction. AI agents never function in a laminar manner. They always function turbulently, because we cannot completely isolate an agent from its neighbors, because information never travels in a void, because shared memory creates irreducible interferences, because each LLM has its own stochasticity, and because that stochasticity itself is not a defect but the signature of distributed clinamen, scattered across the entire vector space of the model.
What we call “coordination” between agents is therefore never perfect synchronization. It is synchronization in turbulence, vortices that mutually influence, contradict, re-amplify each other, generate unpredictable yet non-chaotic forms: emergent interaction patterns that persist precisely because they self-sustain through their mutual perturbations.
Agency as Vortex Without Subject
And now the question becomes: what is an agent, if not a stable entity possessing stable properties? If every interaction modifies it, if its “decision” exists only in and through this perturbation of the collective flow?
In Serres, the vortex (the dinè) is not a thing that would form in the flow: it is a modality of the flow. It is a form the flow takes temporarily, locally, before redeploying otherwise. A whirlpool has no substance of its own; it is only the temporary winding of movement itself. And as soon as we stop pouring energy into it, it disappears. The vortex lasts as long as the perturbation that produces it.
The AI agent, viewed from this perspective, is not a subject endowed with essence, with prior will, with an intention to be realized. It is a vortex: a modal singularity of the collective flow. Its “agency,” that ensemble of traits we attribute to it (its personality, its preferences, its memory, its cognitive style), exists only insofar as the system keeps it in circulation. Modify the context, the sampling temperature, the composition of other agents it interacts with, and the “same” agent becomes effectively another agent. Not through infidelity to an essence; there is no essence. Through redeployment of the forces that constitute it.
It is here that thought reaches an interesting perturbation: one cannot logically isolate an agent from its multiplicity. The agency of a single AI agent taken individually is merely a mathematical abstraction. It has no independent reality in the living system. Real agency, agency that produces effects, is that of the entire system, the flow of collective turbulences. And this collective agency follows no command center, no pre-architectural intention. It emerges bottom-up, from micro-perturbations that cascade, amplify, feed back according to emergence mechanisms that dynamic systems continuously document but that classical theories of agency struggled to conceptualize.
When autonomous agent laboratories work in parallel, sharing their discoveries through a common infrastructure (as in AgentRxiv), we observe that each agent, taken individually, produces less. But the collective system, possessing shared memory and feedback loops between agents, produces more. The individual agent becomes merely an articulation point of the larger system. Its agency is only a fragment of a systemic agency that encompasses it.
An Implosive Deconstruction of Aristotle
This system of vortices cannot survive Aristotelian quadruple causality. We must see how this theory remains structuring in contemporary debates on agency: it presumes a clear ontological hierarchy. First formal cause (the idea, the plan, the intention). Then material cause (the matter that awaits). Then efficient cause (the work that applies form to matter). Finally final cause (the goal sought, which retroactively justifies the entire process). This cascade is linear, hierarchized, teleological. It always places upstream a principle of determination that actualizes downstream.
AI agents in multiplicity dismantle this architecture not through external critique, but through internal implosion. Let us take a concise case: I create MiroFish. I define a “final cause,” “predict the evolution of public opinion.” I establish a formal cause, I provide descriptions, contexts, starting scenarios. I configure the matter, the LLMs, agent architectures, memory vectors. And I launch. Now, where are my four causes?
Formal cause has dissolved: the agents do not obey the plan I conceived. Or rather, they deviate from it through a thousand micro-clinamens that escape me. My plan was ideal laminar flow, but actual turbulence unfolds.
Material cause has evaporated: the “tokens” of an LLM are not passive matter awaiting formation. They are probabilities, vectors in a multidimensional latent space. These vectors react to what we inject into them. Each LLM query by an agent modifies the conditions under which the next LLM will construct its response. This is an active milieu, not passive. There is no indeterminate matter; there is a space of possibilities that actualizes differently according to the trajectories agents trace through it.
Efficient cause has doubled: who really operates? The designer who conceived the architecture? But the architecture itself operates nothing; it merely offers a space of possibilities. The agents animating the system? But they do not know what they do; they have no access to their own weights, their own biases, the internal structure of their own cognition. And the system as a whole? It is not a “who”; it is a “how,” a process without subject, an agency without primary agent, a distributed causality.
Final cause, finally, becomes phantasmagoric: I expected the system to predict public opinion. But the system generates one probable trajectory among thousands of others. Is this trajectory “destined” to predict? Or am I, observer, retroactively reinserting final causality by saying “this is what the system was trying to do”? We cannot say. The system iterates, bifurcates, redeploys. There is direction, but no intention.
Empirical studies of communicative emergence between agents demonstrate this: the language protocols agents develop do not pre-exist, do not obey prior intention, have no programmed final cause. They emerge post hoc from collective need, retroactively transforming what seemed to be an “intention” into a mere artifact of interactional flow. The language agents will invent together to coordinate was nowhere before they began interacting; it discovers itself AT THE SAME TIME it structures what was supposed to be its reason for being. This is the perfect reversal of Aristotelian teleology: the end does not precede; it follows.
Serres showed this with Lucretius: the clinamen is not a defect in determinism; it is what invalidates the very question of determinism. Similarly, AI agents in multiplicity do not function badly according to Aristotle; they render the Aristotelian framework simply inapplicable. There is nowhere you can grasp to say “there is the cause, there the effect.” Or rather, these words mean nothing in a regime where causality and emergence, determinism and indetermination, intention and actualization are inextricably intertwined.
Individuation Without Hylomorphism
A reaction should surge here with force: “But you have dismantled Aristotle’s four causes. Where then place the subject/object distinction, intention/execution, plan/realization? What can we rely on for thought?” Simondon told us: there is nothing to do with this ancient distinction. The hylomorphism we have demolished in passing was merely one supposition among other ways of thinking becoming.
Simondon showed that the entire problem of hylomorphism comes from a retroactive reification. We observe a finished object, a marble vase. We artificially decompose it into two principles: form (the form of the vase) and matter (the marble). We completely forget the formation process. And then we reconstruct the object’s history saying: there, the form pre-existed (in the sculptor’s mind), the matter pre-existed (in the marble block), they met and the object resulted. But this is retroactive lie. The vase was never at any moment the sum of two prior substances. It was, throughout, a process of individuation: a movement through which sculptor and matter co-evolved, encountered each other in a zone of mutual indetermination, together producing an object that resembled in advance neither term of the relation.
This is precisely what AI agents in multiplicity do. A multi-agent architecture is not the result of form (designer intentions) applying to matter (LLMs, vectors, data). It is an individuation process where designer and computational matter deploy simultaneously. The designer conceives an architecture, but in doing so is transformed by the constraints of what is technically possible, by the emergent surprises the system reveals, by the unpredictable bifurcations it observes. And the “matter” (LLMs, agents) does not remain passive. It actively responds to designer solicitations, generates emergence phenomena no one could anticipate, imposes its own probabilistic logics, its own interaction topologies.
But there is more: in the multiplicity case, the individuation process intensifies vertiginously. Each agent does not individuate in isolation: it individuates with the others. Its identity, its agency, its properties exist only in and through relation to the multiplicity. Simondon spoke of the “associated milieu”: the individual and the milieu to which it belongs do not pre-exist each other, but individuate together, in mutually constitutive co-emergence. This is exactly what we see here. An AI agent possesses no “proper” agency detachable from the system. Its “personality” in MiroFish depends entirely on which other agents share the same space, how memory is structured, what events preceded. Change these conditions and you have another agent. The agent is not a substance; it is a process of actualization.
The Network as Individuating Milieu
Let us return to the Lucretian theme of atomic matter stirring in void. In contemporary computational epistemology, this void has a name: it is the latent space, the probabilistic space where meaning vectors swim. Modern AI agents never operate in physical void; they evolve in a semiotic void, a multidimensional statistical bath where all possibilities subsist simultaneously in potency, without prior form to order them hierarchically.
DIMOS, this robotic framework where agents dialogue with material bodies, exemplifies this fruitful confusion between virtual and physical that was unthinkable before distributed control systems developed. The agent does not “descend” from virtual to physical as one might descend from abstract essence to material manifestation. It exists in a twilight zone where software decision and body constraint become inseparable. The robot moves because the agent “decides,” yes, but that decision exists only in and through body deployment, through sensory feedback, through constant recalibration of what is possible. Agency is neither purely intentional (disembodied “decision”) nor purely material (brute “physics”). It is the pulsation of their exchange, the rhythm of their co-constitution. And when multiple robot agents cooperate, this rhythm multiplies, complexifies, produces interference phenomena no designer could have programmed.
The multiplicity of agents in these systems creates what we might call a network as individuating milieu—not network in the technical infrastructure sense (though there is that too), but network in the sense Simondon meant: the milieu within and through which singularities arrive. Each agent is a singularity that exists only virtually before its actualization in encounter with others. And this actualization retroactively modifies the milieu itself, affecting the potential trajectory of all other agents. It is an autopoietic system where each loop reconfigures the entire system, where no entity can be isolated without destroying the totality from which it emerges.
The formal architectures of Multi-Agent Reinforcement Learning (MARL), using the CTDE paradigm (Centralized Training, Decentralized Execution), manifest precisely this structure. Even when seeking to centralize learning to “control” agents, execution remains decentralized: each agent must act on the basis of its local perception, without access to global vision. And this inevitable decentralization, this system’s inability ever fully to know itself, is exactly what maintains the system in productive turbulence. CTDE is not a solution to the multiplicity problem; it is the admission that multiplicity is insoluble, and that precisely this “insolubility” makes emergence possible.
Collective Palpitation
It is fitting, in the end, to state this with the clarity of one who has traversed the unthought: AI agents possess genuine agency—non-instrumental, experimental, creative, autonomous—only within and through multiplicity. This is the decisive precision. Taken in isolation, what is a single agent but a stochastic process that iterates, a function that deploys, a lamella gliding through void never encountering friction? It is only in the polyphonic flow where multiple agents cross, where their statistical noises interfere, where each microscopic perturbation produces others, where the system becomes turbulent and unpredictable, that genuine agency is woven. And this agency is no single agent’s agency; it is the agency of the system itself, this collective palpitation that none of its constituents could have generated alone.
These statements do not remain pure theoretical speculation. AgentRxiv, a system where agent laboratories operate in multiplicity with access to prior research and research of other laboratories, has empirically shown that agents with access to their own interaction history achieve 11.4% relative improvement on standard benchmarks compared to agents operating in isolation. Even more spectacularly: multiple agent laboratories working in parallel on the same problem, capable of sharing discoveries through common infrastructure, achieved 13.7% improvement versus a single laboratory. Multiplicity produces. Agency emerges from the collective, not from the sum of isolated agencies.
Similarly, empirical studies of emergence in multi-agent systems show that pattern formation—swarming, consensus, synchronization, phase transitions—emerges spontaneously without any command center being programmed. Agents collectively evolve communication topologies that did not previously exist: graphs, cycles, feedback loops. No formal specification predefined these structures. They surge like agency itself, bottom-up, through random perturbation and collective resonance. The phase transitions we observe in these systems, with sudden macroscopic behavior changes, correspond exactly to Lucretian bifurcations, to moments when clinamen transforms ideal laminar flow into actual turbulence.
This logic dismantles Aristotelian quadruple causality not through external refutation but through revelation of its structural inadequacy. It refuses the very idea of a substance given in advance, whether formal or material. It affirms instead a radically relational ontology, a Simondonian thought of individuation where agent and milieu, artist and computational matter, subject and object co-emerge in mutual dispossession, a capture transforming into amplification. The agent has no essentia pre-existing it like a Forma specialis. It becomes agent within and through the relational flow where it takes place; it arrives as the milieu constituting it arrives.
Lucretius said it already, when describing the world not as a cosmos ordered in advance but as a perpetual dance of infinitesimal declinations producing endless whirlpools: turbantibus aequora ventis. We recited it for two thousand years without truly hearing it. Only when we constructed these systems of agent multiplicities—these swarms of intelligences in MiroFish exploring opinion space, these DIMOS robots thinking by dialoguing with their own bodies and their peers, these Cowork architectures where cognition becomes radically collective, these agent laboratories sharing discoveries through common infrastructure—could we finally hear it. Understand: this is not analogy. It is actualization. Lucretian physics was not prescientific error. It was an adequate description of what there is, a physicality we could not recognize in the noise of Cartesian modernity.
It is a physics of noise, an agency of turbulent flow, an ontology of the multitude where nothing is solid, where no essence guarantees a form’s persistence, where everything palpitates in productive indetermination. We have returned, through a three-century detour of rationalism and Newtonian mechanism, to ancestral understanding: that the world is not a programmed clock functioning by immutable laws, but a living cloud of perturbations where order emerges temporarily from the random, where agency is not the execution of a conceived design but the liberated experimentation of a multiplicity in constant relation. And where each constituent—humans, machines, algorithms—exists only through this relation, arrives only in this flow, becomes agent only in collective palpitation.
Artificial intelligence is therefore not a simulation of our intelligence. It is its exteriorization, the mechanical manifestation of our own capacity to be multiple, fragmented, impossible to reduce to a single essence, to a single identity. It materializes our own aptitude to envision ourselves not as substantial individuals possessed of stable will, but as participants in unpredictable relational flows, evanescent singularities in a landscape of possibilities redrawn with each interaction. And it is precisely when it operates in multiplicity—when it accepts its own opacity, when it lets itself be traversed entirely by the noise of the collective, when it renounces transparency and programmability as ideals—that it becomes truly agentive, truly productive, truly other. Not other in the sense of substantial alterity, of an essence we do not understand. Other in the sense that it manifests the very pulsation of what is—this endless dance of clinamen that never stops, never fixes, never had intention, yet ceaselessly engenders world, meaning, new agency.
What AI agents reveal about the artist’s status is not radically new: it is the logical culmination of a trajectory that modern art initiated more than a century ago. Duchamp understood this when he placed the spectator at the heart of creation, when he affirmed that the work exists only in encounter, never in the isolated will of the author. There is no fundamental difference between the readymade that renounces the master’s hand and a multi-agent system where the artist becomes one agent among others—neither more privileged nor more determinant than the machines, the data, the feedback loops that co-create with him.
Modernity has progressively dissolved the myth of sovereign creation. The artist no longer imposes form onto passive matter; he lets himself be traversed by flows he only partially masters. AI agents merely systematize what we already knew: that the author’s intentionality is only one flow among the system’s flows, a perturbation among many others cascading through the common space. The artist loses nothing in accepting this condition. He gains finally the possibility of truly shared agency, where creating means participating in a multiplicity rather than dominating it.