La vectorisation politique / Political Vectorization

Le débat politique contemporain se caractérise par un ensemble de mutations profondes dont l’analyse reste à faire. Parmi celles-ci, l’émergence de nouvelles stratégies discursives constitue un phénomène qui transforme radicalement la nature même de l’espace politique. Ce que nous nommerons ici la « vectorisation » des opinions et des croyances représente un processus par lequel les positions politiques sont progressivement réduites à des vecteurs manipulables, comparables et interchangeables, vidés de leur substance historique et de leur singularité contextuelle. Cette vectorisation, loin d’être un simple phénomène rhétorique, participe d’une entreprise plus vaste de normalisation du débat politique qui facilite à la fois l’émergence de l’extrême droite et la paralysie de la gauche.

Les stratégies d’équivalence : l’opération du brouillage historique

Plusieurs stratégies discursives de normalisation se répandent et constituent des expressions de la mise en vectorisation des opinions et croyances.

D’une part, l’équivalence qui consiste à rapprocher deux termes habituellement opposés. C’est la vieille stratégie de l’extrême droite qui aime à renvoyer dos à dos le nazisme et le communisme et qui aujourd’hui a pris un tournant en estimant que Mussolini fut socialiste, que le nazisme contient le mot « sozialistisch » et qu’on peut en conclure que les deux sont des expressions de la gauche non de l’extrême droite.

On aura beau contester historiquement ce rapprochement, on n’aura pas réussi à comprendre que cette équivalence protège un des deux termes en l’annulant. Dans ce contexte, l’extrême droite gagne une certaine innocence historique lui autorisant une seconde naissance.

Cette stratégie d’équivalence n’est pas nouvelle, mais elle atteint aujourd’hui un degré d’efficacité inédit grâce à la prolifération des canaux d’information et à l’affaiblissement des instances traditionnelles de validation du savoir. Elle opère comme un virus sémantique qui contamine progressivement l’ensemble du débat public. Le processus est d’une redoutable simplicité : il s’agit d’abord d’établir une équivalence nominale (le terme « socialiste » dans « national-socialiste »), puis de s’appuyer sur cette équivalence pour suggérer une identité de nature, et enfin d’en déduire une équivalence morale et politique.

Ainsi, le fascisme historique est absorbé dans la catégorie plus large du « totalitarisme », elle-même conçue comme une manifestation de la pensée collectiviste, et donc in fine attribuée à la gauche. Ce tour de passe-passe rhétorique permet d’effacer la spécificité historique du fascisme — son anticommunisme viscéral, son alliance avec le grand capital, sa défense de l’ordre social traditionnel, son nationalisme exacerbé — pour n’en retenir que des caractéristiques formelles (l’autoritarisme d’État) artificiellement rapprochées d’expériences politiques radicalement différentes.

Cette opération n’est pas simplement une falsification de l’histoire ; elle constitue une neutralisation stratégique du passé comme ressource critique pour penser le présent. En rendant équivalents des phénomènes historiques hétérogènes, elle les transforme en vecteurs indifférenciés qui peuvent être manipulés, combinés, réarrangés à volonté dans l’espace abstrait du débat politique contemporain. L’histoire perd sa densité propre, sa texture singulière, pour devenir un simple réservoir d’exemples interchangeables au service des argumentations présentes.

La gauche peine à répondre efficacement à cette stratégie, car elle se trouve placée devant un dilemme : soit contester l’équivalence en rappelant les faits historiques, au risque de paraître défendre un « camp » contre un autre ; soit accepter le cadre de l’équivalence en essayant d’en neutraliser les effets, au risque de contribuer elle-même à la vectorisation du débat.

La maximisation des continuités : le piège de l’indifférenciation

La seconde stratégie, plus retorse, infiltrant certains discours de gauche, consiste à maximiser les continuités. Nous avons l’habitude de faire face à des personnes qui, face à un événement contemporain, nous expliquent que celui-ci ne poursuit qu’un long mouvement provenant du passé. Rien de très nouveau donc. Cette explication n’est pas inexacte, mais en la maximisant on normalise et on devient inattentif aux singularités et aux mélanges.

D’une manière analogue, certains estiment que l’Amérique de Trump ne change rien, car elle poursuit ce que ce pays fait de manière hypocrite depuis des siècles : colonisation, racisme, inégalité, etc. On pourrait presque savoir gré à Trump d’être du moins plus sincère.

Cette normalisation par continuité n’est inexacte que parce qu’elle est maximisée et qu’elle rend tout indifférent et empêche donc toute agentivité : à quoi bon puisque tout se ressemble. C’est l’argument de plus en plus utilisé selon lequel les démocraties libérales n’auraient rien à envier aux régimes autoritaires parce qu’elles ne sont pas aussi pures qu’elles croient l’être. Elles dominent, colonisent, tuent, font des guerres, etc.

Cette stratégie de maximisation des continuités est particulièrement pernicieuse en ce qu’elle se présente comme une forme de lucidité critique. Elle semble démasquer les hypocrisies, révéler les structures profondes derrière les apparences changeantes, dévoiler les mécanismes cachés de domination qui persistent à travers les transformations superficielles des régimes politiques. En cela, elle emprunte la posture classique de la critique sociale radicale, mais pour produire un effet radicalement opposé : non pas la mobilisation pour le changement, mais la résignation face à un système perçu comme immuable dans son essence et dont on étend la surface jusqu’au point où il est inatteignable.

Le problème fondamental de cette approche n’est pas qu’elle identifie des continuités — car il en existe indéniablement — mais qu’elle érige ces continuités en principe explicatif totalisant. Tout se passe comme si ces continuités constituaient l’essence même des phénomènes politiques, tandis que les ruptures, les innovations, les singularités ne seraient que des variations superficielles sans importance. Cette réduction de la complexité historique à un principe unique d’explication représente précisément ce que nous entendons par vectorisation : la transformation de réalités multidimensionnelles en entités unidimensionnelles comparables et manipulables.

S’il faut n’avoir jamais expérimenté dans sa chair un régime autoritaire pour ainsi rallier cet argument, le raisonnement repose sur une vérité : la ligne de partage entre démocratie et autoritarisme est impure et parfois (de plus en plus souvent) la première traverse la limite par rapport au second. Mais l’analyse de la continuité ne saurait permettre d’identifier et de confondre, c’est-à-dire de perdre toute différenciation de définition et d’extension. Elle est par ailleurs le résultat du libre exercice de la réflexivité dans les démocraties.

Car c’est bien là le paradoxe : cette critique radicale des démocraties libérales n’est possible que dans le cadre de ces démocraties elles-mêmes, grâce aux libertés qu’elles garantissent et à l’espace critique qu’elles préservent, si imparfaitement soit-il. La dénonciation de l’équivalence entre régimes démocratiques et autoritaires ne peut s’énoncer librement que dans les premiers, ce qui suffit à en démontrer la limite.

Mais plus fondamentalement, cette stratégie d’indifférenciation par maximisation des continuités produit un effet de neutralisation politique : si tout se vaut, si aucune différence significative n’existe entre démocratie et autoritarisme, entre résistance et collaboration, entre progrès et régression, alors toute action politique perd son sens et sa légitimité. Nous tombons dans ce que Mark Fisher nommait le « réalisme capitaliste » : cet état d’esprit qui considère qu’il est plus facile d’imaginer la fin du monde que la fin du capitalisme, et qui constitue peut-être un forme de la vectorisation du politique.

La matrice algorithmique du nihilisme

Ces stratégies deviennent de plus en plus fréquentes et il est difficile de les réfuter du fait de leur exactitude de surface et du fait qu’il faudrait nuancer ce que justement ces stratégies réfutent d’avance dans la mesure où elles maximisent.

La généralisation de cette discursivité est une des conséquences politiques de l’espace latent : pour faire entrer des phénomènes dans le champ d’une compréhension politique, on va d’abord les rendre équivalents à autre chose, ce qui est analogue au passage entre analogique et numérique où on découpe (échantillonnage) une onde en 0 et 1. Une fois cette équivalence réalisée et l’entrée dans l’espace latent assurée, on pourra opérer toutes les mises en relation qui ne seront pas des chaînes explicatives, mais des comparaisons, identifications, confusions.

Cette référence à l’espace latent n’est pas fortuite. La vectorisation du politique emprunte directement ses méthodes et sa logique aux technologies contemporaines de traitements de l’information, en particulier à l’intelligence artificielle. Dans les modèles d’apprentissage profond, les données de nature diverse (textes, images, sons) sont transformées en vecteurs numériques dans un « espace latent » multidimensionnel où elles peuvent être comparées, manipulées, recombinées. Cette réduction facilite le traitement algorithmique, mais au prix d’une perte considérable d’information contextuelle et de spécificité.

De façon analogue, les stratégies discursives que nous avons identifiées opèrent une réduction des phénomènes politiques complexes à des vecteurs qui peuvent être aisément déplacés dans l’espace abstrait du débat public. Le nazisme devient un vecteur « totalitarisme » qui peut être rapproché du vecteur « communisme » ; la démocratie libérale devient un vecteur « domination » équivalent au vecteur « autoritarisme ». Cette réduction vectorielle permet des opérations de comparaison, d’opposition, de combinaison qui seraient impossibles si l’on maintenait la complexité historique et contextuelle des phénomènes concernés.

Ce n’est pas un hasard si ces stratégies discursives se généralisent à l’ère des réseaux sociaux et des algorithmes de recommandation. Ces technologies favorisent structurellement la vectorisation, car elles fonctionnent précisément en réduisant les contenus complexes à des vecteurs de caractéristiques manipulables algorithmiquement. Le tweet politique, avec sa limite de caractères et sa circulation décontextualisée, représente sans doute une forme de cette vectorisation : le phénomène politique y est réduit à un signe qui circule indépendamment de son contexte d’énonciation et de sa densité historique.

Mais cette vectorisation n’est pas simplement un effet collatéral des technologies numériques ; elle constitue une transformation profonde de notre rapport au politique, qui s’inscrit dans une tendance plus large que Nietzsche avait identifiée comme le nihilisme : cet « inquiétant visiteur » qui se caractérise par la dévalorisation des valeurs les plus hautes et la réduction de tout à une logique d’équivalence généralisée. La vectorisation du politique est l’expression contemporaine de ce nihilisme : elle traduit un monde où toute singularité est absorbée dans l’équivalence généralisée, où tout devenir est aplati dans la répétition du même.

Combattre la vectorisation : pour une politique de la singularité

On oublie alors qu’un raisonnement ne consiste pas qu’à créer des liens de continuité, mais qu’il faut également, et en une égale mesure, se souvenir que chaque phénomène est absolument différent de tout autre phénomène et n’est donc jamais absolument réductible à notre discursivité. Le fait de transformer les phénomènes en vecteurs statistiques c’est-à-dire en probabilités comparables à d’autres probabilités (les démocraties sont une vectorisation des régimes autoritaires) est l’expression de la volonté de puissance entendue comme nihilisme : le monde dans la tête plutôt que hors de notre tête, l’oubli du crâne dans lequel notre voix résonne solitairement.

Face à cette vectorisation généralisée du politique, quelles stratégies pouvons-nous développer ? Comment préserver la singularité des phénomènes politiques contre leur réduction à des vecteurs interchangeables ? Comment maintenir la possibilité d’une pensée politique qui ne succombe ni à l’équivalence nihiliste ni à la maximisation des continuités ?

La première exigence consiste à réaffirmer l’irréductible singularité des événements historiques et politiques. Contre la logique de l’équivalence généralisée, il faut maintenir que le nazisme n’est pas le communisme, que Trump n’est pas simplement la continuation de la politique américaine par d’autres moyens, que les démocraties libérales, malgré leurs contradictions et leurs hypocrisies, ne sont pas identiques aux régimes autoritaires. Cette affirmation n’implique pas de nier les continuités, les connexions, les ressemblances partielles, mais de refuser leur transformation en équivalences totales qui effacent la spécificité des phénomènes.

La seconde exigence consiste à restaurer la densité historique des phénomènes politiques. Contre la logique de la décontextualisation, qui transforme les événements en signes flottants détachés de leur ancrage historique, il faut réinscrire chaque phénomène dans le réseau complexe de déterminations qui le constituent comme singularité. Cela implique un travail patient d’analyse historique, sociologique, économique, qui résiste à la tentation des généralisations hâtives et des équivalences faciles.

La troisième exigence consiste à développer une pensée de la différence qui ne soit pas une simple opposition binaire. Contre la logique du « tout ou rien » qui structure souvent le débat politique contemporain, il faut élaborer une pensée capable de saisir les nuances, les gradations, les transitions, sans pour autant tomber dans le relativisme de l’équivalence généralisée. Il s’agit de penser la différence comme différence, et non comme simple variation quantitative sur un axe unidimensionnel. L’IA générative peut remplir un rôle important en ce domaine du fait de ses capacités transformatives.


Contemporary political debate is characterized by a set of profound transformations whose analysis remains to be done. Among these, the emergence of new discursive strategies constitutes a phenomenon that radically transforms the very nature of political space. What we shall call here the “vectorization” of opinions and beliefs represents a process by which political positions are progressively reduced to manipulable, comparable and interchangeable vectors, emptied of their historical substance and contextual singularity. This vectorization, far from being a simple rhetorical phenomenon, participates in a broader enterprise of normalizing political debate that facilitates both the emergence of the far right and the paralysis of the left.

Strategies of Equivalence: The Operation of Historical Blurring

Several discursive strategies of normalization are spreading and constitute expressions of the vectorization of opinions and beliefs.

On one hand, equivalence consists of bringing together two usually opposed terms. This is the old strategy of the far right that likes to equate Nazism and communism, and which today has taken a turn by claiming that Mussolini was socialist, that Nazism contains the word “sozialistisch” and that we can conclude that both are expressions of the left, not the far right.

We may historically contest this comparison, but we will not have succeeded in understanding that this equivalence protects one of the two terms by canceling it out. In this context, the far right gains a certain historical innocence authorizing it a second birth.

This strategy of equivalence is not new, but it reaches an unprecedented degree of effectiveness today thanks to the proliferation of information channels and the weakening of traditional instances of knowledge validation. It operates like a semantic virus that progressively contaminates the entire public debate. The process is of formidable simplicity: it first involves establishing a nominal equivalence (the term “socialist” in “national-socialist”), then relying on this equivalence to suggest an identity of nature, and finally deducing a moral and political equivalence.

Thus, historical fascism is absorbed into the broader category of “totalitarianism,” itself conceived as a manifestation of collectivist thought, and therefore ultimately attributed to the left. This rhetorical sleight of hand allows the historical specificity of fascism to be erased—its visceral anti-communism, its alliance with big capital, its defense of traditional social order, its exacerbated nationalism—to retain only formal characteristics (state authoritarianism) artificially brought close to radically different political experiences.

This operation is not simply a falsification of history; it constitutes a strategic neutralization of the past as a critical resource for thinking about the present. By making heterogeneous historical phenomena equivalent, it transforms them into undifferentiated vectors that can be manipulated, combined, rearranged at will in the abstract space of contemporary political debate. History loses its own density, its singular texture, to become a simple reservoir of interchangeable examples serving present arguments.

The left struggles to respond effectively to this strategy because it finds itself faced with a dilemma: either contest the equivalence by recalling historical facts, at the risk of appearing to defend one “camp” against another; or accept the framework of equivalence by trying to neutralize its effects, at the risk of contributing itself to the vectorization of debate.

Maximization of Continuities: The Trap of Indifferentiation

The second strategy, more devious and infiltrating certain left-wing discourses, consists of maximizing continuities. We are accustomed to facing people who, faced with a contemporary event, explain to us that it merely continues a long movement from the past. Nothing very new therefore. This explanation is not inaccurate, but by maximizing it we normalize and become inattentive to singularities and mixtures.

Similarly, some believe that Trump’s America changes nothing because it continues what this country has hypocritically done for centuries: colonization, racism, inequality, etc. We could almost be grateful to Trump for being at least more sincere.

This normalization by continuity is inaccurate only because it is maximized and makes everything indifferent, thus preventing any agency: what’s the point since everything resembles everything else. This is the increasingly used argument according to which liberal democracies would have nothing to envy authoritarian regimes because they are not as pure as they believe themselves to be. They dominate, colonize, kill, wage wars, etc.

This strategy of maximizing continuities is particularly pernicious in that it presents itself as a form of critical lucidity. It seems to unmask hypocrisies, reveal deep structures behind changing appearances, unveil hidden mechanisms of domination that persist through superficial transformations of political regimes. In this, it borrows the classic posture of radical social criticism, but to produce a radically opposite effect: not mobilization for change, but resignation in the face of a system perceived as immutable in its essence and whose surface is extended to the point where it becomes unreachable.

The fundamental problem with this approach is not that it identifies continuities—for they undeniably exist—but that it erects these continuities into a totalizing explanatory principle. Everything happens as if these continuities constituted the very essence of political phenomena, while ruptures, innovations, singularities would be only superficial variations of no importance. This reduction of historical complexity to a single principle of explanation precisely represents what we mean by vectorization: the transformation of multidimensional realities into unidimensional entities that are comparable and manipulable.

If one must never have experienced an authoritarian regime in one’s flesh to thus rally to this argument, the reasoning rests on a truth: the dividing line between democracy and authoritarianism is impure and sometimes (increasingly often) the former crosses the limit in relation to the latter. But the analysis of continuity cannot allow us to identify and confuse, that is, to lose all differentiation of definition and extension. It is moreover the result of the free exercise of reflexivity in democracies.

For this is indeed the paradox: this radical critique of liberal democracies is only possible within the framework of these democracies themselves, thanks to the freedoms they guarantee and the critical space they preserve, however imperfectly. The denunciation of equivalence between democratic and authoritarian regimes can only be freely stated in the former, which is enough to demonstrate its limit.

But more fundamentally, this strategy of indifferentiation through maximization of continuities produces an effect of political neutralization: if everything is equivalent, if no significant difference exists between democracy and authoritarianism, between resistance and collaboration, between progress and regression, then all political action loses its meaning and legitimacy. We fall into what Mark Fisher called “capitalist realism”: that state of mind that considers it easier to imagine the end of the world than the end of capitalism, and which perhaps constitutes a form of political vectorization.

The Algorithmic Matrix of Nihilism

These strategies become increasingly frequent and it is difficult to refute them because of their surface accuracy and because it would be necessary to nuance what precisely these strategies refute in advance insofar as they maximize.

The generalization of this discursivity is one of the political consequences of latent space: to bring phenomena into the field of political understanding, we will first make them equivalent to something else, which is analogous to the passage between analog and digital where we cut up (sampling) a wave into 0s and 1s. Once this equivalence is realized and entry into latent space assured, we can operate all the relationships that will not be explanatory chains, but comparisons, identifications, confusions.

This reference to latent space is not fortuitous. The vectorization of the political directly borrows its methods and logic from contemporary information processing technologies, particularly artificial intelligence. In deep learning models, data of diverse nature (texts, images, sounds) are transformed into numerical vectors in a multidimensional “latent space” where they can be compared, manipulated, recombined. This reduction facilitates algorithmic processing, but at the cost of considerable loss of contextual information and specificity.

Similarly, the discursive strategies we have identified operate a reduction of complex political phenomena to vectors that can be easily moved in the abstract space of public debate. Nazism becomes a “totalitarianism” vector that can be brought close to the “communism” vector; liberal democracy becomes a “domination” vector equivalent to the “authoritarianism” vector. This vectorial reduction allows operations of comparison, opposition, combination that would be impossible if we maintained the historical and contextual complexity of the phenomena concerned.

It is no coincidence that these discursive strategies are generalizing in the era of social networks and recommendation algorithms. These technologies structurally favor vectorization because they function precisely by reducing complex contents to vectors of characteristics that can be manipulated algorithmically. The political tweet, with its character limit and decontextualized circulation, probably represents a form of this vectorization: the political phenomenon is reduced to a sign that circulates independently of its context of enunciation and its historical density.

But this vectorization is not simply a side effect of digital technologies; it constitutes a profound transformation of our relationship to the political, which is part of a broader tendency that Nietzsche had identified as nihilism: that “disturbing visitor” characterized by the devaluation of the highest values and the reduction of everything to a logic of generalized equivalence. The vectorization of the political is the contemporary expression of this nihilism: it translates a world where all singularity is absorbed in generalized equivalence, where all becoming is flattened in the repetition of the same.

Fighting Vectorization: For a Politics of Singularity

We then forget that reasoning does not consist only in creating links of continuity, but that we must also, and in equal measure, remember that each phenomenon is absolutely different from any other phenomenon and is therefore never absolutely reducible to our discursivity. The fact of transforming phenomena into statistical vectors, that is, into probabilities comparable to other probabilities (democracies are a vectorization of authoritarian regimes) is the expression of the will to power understood as nihilism: the world in the head rather than outside our head, the forgetting of the skull in which our voice resonates solitarily.

Faced with this generalized vectorization of the political, what strategies can we develop? How can we preserve the singularity of political phenomena against their reduction to interchangeable vectors? How can we maintain the possibility of political thought that succumbs neither to nihilistic equivalence nor to the maximization of continuities?

The first requirement consists in reaffirming the irreducible singularity of historical and political events. Against the logic of generalized equivalence, it is necessary to maintain that Nazism is not communism, that Trump is not simply the continuation of American politics by other means, that liberal democracies, despite their contradictions and hypocrisies, are not identical to authoritarian regimes. This affirmation does not imply denying continuities, connections, partial resemblances, but refusing their transformation into total equivalences that erase the specificity of phenomena.

The second requirement consists in restoring the historical density of political phenomena. Against the logic of decontextualization, which transforms events into floating signs detached from their historical anchoring, it is necessary to reinscribe each phenomenon in the complex network of determinations that constitute it as singularity. This implies patient work of historical, sociological, economic analysis that resists the temptation of hasty generalizations and easy equivalences.

The third requirement consists in developing a thought of difference that is not a simple binary opposition. Against the logic of “all or nothing” that often structures contemporary political debate, it is necessary to elaborate a thought capable of grasping nuances, gradations, transitions, without however falling into the relativism of generalized equivalence. It is a matter of thinking difference as difference, and not as simple quantitative variation on a unidimensional axis. Generative AI can play an important role in this domain due to its transformative capacities.