La vectorisation politique
Le débat politique contemporain se caractérise par un ensemble de mutations profondes dont l’analyse reste à faire. Parmi celles-ci, l’émergence de nouvelles stratégies discursives constitue un phénomène qui transforme radicalement la nature même de l’espace politique. Ce que nous nommerons ici la « vectorisation » des opinions et des croyances représente un processus par lequel les positions politiques sont progressivement réduites à des vecteurs manipulables, comparables et interchangeables, vidés de leur substance historique et de leur singularité contextuelle. Cette vectorisation, loin d’être un simple phénomène rhétorique, participe d’une entreprise plus vaste de normalisation du débat politique qui facilite à la fois l’émergence de l’extrême droite et la paralysie de la gauche.
Les stratégies d’équivalence : l’opération du brouillage historique
Plusieurs stratégies discursives de normalisation se répandent et constituent des expressions de la mise en vectorisation des opinions et croyances.
D’une part, l’équivalence qui consiste à rapprocher deux termes habituellement opposés. C’est la vieille stratégie de l’extrême droite qui aime à renvoyer dos à dos le nazisme et le communisme et qui aujourd’hui a pris un tournant en estimant que Mussolini fut socialiste, que le nazisme contient le mot « sozialistisch » et qu’on peut en conclure que les deux sont des expressions de la gauche non de l’extrême droite.
On aura beau contester historiquement ce rapprochement, on n’aura pas réussi à comprendre que cette équivalence protège un des deux termes en l’annulant. Dans ce contexte, l’extrême droite gagne une certaine innocence historique lui autorisant une seconde naissance.
Cette stratégie d’équivalence n’est pas nouvelle, mais elle atteint aujourd’hui un degré d’efficacité inédit grâce à la prolifération des canaux d’information et à l’affaiblissement des instances traditionnelles de validation du savoir. Elle opère comme un virus sémantique qui contamine progressivement l’ensemble du débat public. Le processus est d’une redoutable simplicité : il s’agit d’abord d’établir une équivalence nominale (le terme « socialiste » dans « national-socialiste »), puis de s’appuyer sur cette équivalence pour suggérer une identité de nature, et enfin d’en déduire une équivalence morale et politique.
Ainsi, le fascisme historique est absorbé dans la catégorie plus large du « totalitarisme », elle-même conçue comme une manifestation de la pensée collectiviste, et donc in fine attribuée à la gauche. Ce tour de passe-passe rhétorique permet d’effacer la spécificité historique du fascisme — son anticommunisme viscéral, son alliance avec le grand capital, sa défense de l’ordre social traditionnel, son nationalisme exacerbé — pour n’en retenir que des caractéristiques formelles (l’autoritarisme d’État) artificiellement rapprochées d’expériences politiques radicalement différentes.
Cette opération n’est pas simplement une falsification de l’histoire ; elle constitue une neutralisation stratégique du passé comme ressource critique pour penser le présent. En rendant équivalents des phénomènes historiques hétérogènes, elle les transforme en vecteurs indifférenciés qui peuvent être manipulés, combinés, réarrangés à volonté dans l’espace abstrait du débat politique contemporain. L’histoire perd sa densité propre, sa texture singulière, pour devenir un simple réservoir d’exemples interchangeables au service des argumentations présentes.
La gauche peine à répondre efficacement à cette stratégie, car elle se trouve placée devant un dilemme : soit contester l’équivalence en rappelant les faits historiques, au risque de paraître défendre un « camp » contre un autre ; soit accepter le cadre de l’équivalence en essayant d’en neutraliser les effets, au risque de contribuer elle-même à la vectorisation du débat.
La maximisation des continuités : le piège de l’indifférenciation
La seconde stratégie, plus retorse, infiltrant certains discours de gauche, consiste à maximiser les continuités. Nous avons l’habitude de faire face à des personnes qui, face à un événement contemporain, nous expliquent que celui-ci ne poursuit qu’un long mouvement provenant du passé. Rien de très nouveau donc. Cette explication n’est pas inexacte, mais en la maximisant on normalise et on devient inattentif aux singularités et aux mélanges.
D’une manière analogue, certains estiment que l’Amérique de Trump ne change rien, car elle poursuit ce que ce pays fait de manière hypocrite depuis des siècles : colonisation, racisme, inégalité, etc. On pourrait presque savoir gré à Trump d’être du moins plus sincère.
Cette normalisation par continuité n’est inexacte que parce qu’elle est maximisée et qu’elle rend tout indifférent et empêche donc toute agentivité : à quoi bon puisque tout se ressemble. C’est l’argument de plus en plus utilisé selon lequel les démocraties libérales n’auraient rien à envier aux régimes autoritaires parce qu’elles ne sont pas aussi pures qu’elles croient l’être. Elles dominent, colonisent, tuent, font des guerres, etc.
Cette stratégie de maximisation des continuités est particulièrement pernicieuse en ce qu’elle se présente comme une forme de lucidité critique. Elle semble démasquer les hypocrisies, révéler les structures profondes derrière les apparences changeantes, dévoiler les mécanismes cachés de domination qui persistent à travers les transformations superficielles des régimes politiques. En cela, elle emprunte la posture classique de la critique sociale radicale, mais pour produire un effet radicalement opposé : non pas la mobilisation pour le changement, mais la résignation face à un système perçu comme immuable dans son essence et dont on étend la surface jusqu’au point où il est inatteignable.
Le problème fondamental de cette approche n’est pas qu’elle identifie des continuités — car il en existe indéniablement — mais qu’elle érige ces continuités en principe explicatif totalisant. Tout se passe comme si ces continuités constituaient l’essence même des phénomènes politiques, tandis que les ruptures, les innovations, les singularités ne seraient que des variations superficielles sans importance. Cette réduction de la complexité historique à un principe unique d’explication représente précisément ce que nous entendons par vectorisation : la transformation de réalités multidimensionnelles en entités unidimensionnelles comparables et manipulables.
S’il faut n’avoir jamais expérimenté dans sa chair un régime autoritaire pour ainsi rallier cet argument, le raisonnement repose sur une vérité : la ligne de partage entre démocratie et autoritarisme est impure et parfois (de plus en plus souvent) la première traverse la limite par rapport au second. Mais l’analyse de la continuité ne saurait permettre d’identifier et de confondre, c’est-à-dire de perdre toute différenciation de définition et d’extension. Elle est par ailleurs le résultat du libre exercice de la réflexivité dans les démocraties.
Car c’est bien là le paradoxe : cette critique radicale des démocraties libérales n’est possible que dans le cadre de ces démocraties elles-mêmes, grâce aux libertés qu’elles garantissent et à l’espace critique qu’elles préservent, si imparfaitement soit-il. La dénonciation de l’équivalence entre régimes démocratiques et autoritaires ne peut s’énoncer librement que dans les premiers, ce qui suffit à en démontrer la limite.
Mais plus fondamentalement, cette stratégie d’indifférenciation par maximisation des continuités produit un effet de neutralisation politique : si tout se vaut, si aucune différence significative n’existe entre démocratie et autoritarisme, entre résistance et collaboration, entre progrès et régression, alors toute action politique perd son sens et sa légitimité. Nous tombons dans ce que Mark Fisher nommait le « réalisme capitaliste » : cet état d’esprit qui considère qu’il est plus facile d’imaginer la fin du monde que la fin du capitalisme, et qui constitue peut-être un forme de la vectorisation du politique.
La matrice algorithmique du nihilisme
Ces stratégies deviennent de plus en plus fréquentes et il est difficile de les réfuter du fait de leur exactitude de surface et du fait qu’il faudrait nuancer ce que justement ces stratégies réfutent d’avance dans la mesure où elles maximisent.
La généralisation de cette discursivité est une des conséquences politiques de l’espace latent : pour faire entrer des phénomènes dans le champ d’une compréhension politique, on va d’abord les rendre équivalents à autre chose, ce qui est analogue au passage entre analogique et numérique où on découpe (échantillonnage) une onde en 0 et 1. Une fois cette équivalence réalisée et l’entrée dans l’espace latent assurée, on pourra opérer toutes les mises en relation qui ne seront pas des chaînes explicatives, mais des comparaisons, identifications, confusions.
Cette référence à l’espace latent n’est pas fortuite. La vectorisation du politique emprunte directement ses méthodes et sa logique aux technologies contemporaines de traitements de l’information, en particulier à l’intelligence artificielle. Dans les modèles d’apprentissage profond, les données de nature diverse (textes, images, sons) sont transformées en vecteurs numériques dans un « espace latent » multidimensionnel où elles peuvent être comparées, manipulées, recombinées. Cette réduction facilite le traitement algorithmique, mais au prix d’une perte considérable d’information contextuelle et de spécificité.
De façon analogue, les stratégies discursives que nous avons identifiées opèrent une réduction des phénomènes politiques complexes à des vecteurs qui peuvent être aisément déplacés dans l’espace abstrait du débat public. Le nazisme devient un vecteur « totalitarisme » qui peut être rapproché du vecteur « communisme » ; la démocratie libérale devient un vecteur « domination » équivalent au vecteur « autoritarisme ». Cette réduction vectorielle permet des opérations de comparaison, d’opposition, de combinaison qui seraient impossibles si l’on maintenait la complexité historique et contextuelle des phénomènes concernés.
Ce n’est pas un hasard si ces stratégies discursives se généralisent à l’ère des réseaux sociaux et des algorithmes de recommandation. Ces technologies favorisent structurellement la vectorisation, car elles fonctionnent précisément en réduisant les contenus complexes à des vecteurs de caractéristiques manipulables algorithmiquement. Le tweet politique, avec sa limite de caractères et sa circulation décontextualisée, représente sans doute une forme de cette vectorisation : le phénomène politique y est réduit à un signe qui circule indépendamment de son contexte d’énonciation et de sa densité historique.
Mais cette vectorisation n’est pas simplement un effet collatéral des technologies numériques ; elle constitue une transformation profonde de notre rapport au politique, qui s’inscrit dans une tendance plus large que Nietzsche avait identifiée comme le nihilisme : cet « inquiétant visiteur » qui se caractérise par la dévalorisation des valeurs les plus hautes et la réduction de tout à une logique d’équivalence généralisée. La vectorisation du politique est l’expression contemporaine de ce nihilisme : elle traduit un monde où toute singularité est absorbée dans l’équivalence généralisée, où tout devenir est aplati dans la répétition du même.
Combattre la vectorisation : pour une politique de la singularité
On oublie alors qu’un raisonnement ne consiste pas qu’à créer des liens de continuité, mais qu’il faut également, et en une égale mesure, se souvenir que chaque phénomène est absolument différent de tout autre phénomène et n’est donc jamais absolument réductible à notre discursivité. Le fait de transformer les phénomènes en vecteurs statistiques c’est-à-dire en probabilités comparables à d’autres probabilités (les démocraties sont une vectorisation des régimes autoritaires) est l’expression de la volonté de puissance entendue comme nihilisme : le monde dans la tête plutôt que hors de notre tête, l’oubli du crâne dans lequel notre voix résonne solitairement.
Face à cette vectorisation généralisée du politique, quelles stratégies pouvons-nous développer ? Comment préserver la singularité des phénomènes politiques contre leur réduction à des vecteurs interchangeables ? Comment maintenir la possibilité d’une pensée politique qui ne succombe ni à l’équivalence nihiliste ni à la maximisation des continuités ?
La première exigence consiste à réaffirmer l’irréductible singularité des événements historiques et politiques. Contre la logique de l’équivalence généralisée, il faut maintenir que le nazisme n’est pas le communisme, que Trump n’est pas simplement la continuation de la politique américaine par d’autres moyens, que les démocraties libérales, malgré leurs contradictions et leurs hypocrisies, ne sont pas identiques aux régimes autoritaires. Cette affirmation n’implique pas de nier les continuités, les connexions, les ressemblances partielles, mais de refuser leur transformation en équivalences totales qui effacent la spécificité des phénomènes.
La seconde exigence consiste à restaurer la densité historique des phénomènes politiques. Contre la logique de la décontextualisation, qui transforme les événements en signes flottants détachés de leur ancrage historique, il faut réinscrire chaque phénomène dans le réseau complexe de déterminations qui le constituent comme singularité. Cela implique un travail patient d’analyse historique, sociologique, économique, qui résiste à la tentation des généralisations hâtives et des équivalences faciles.
La troisième exigence consiste à développer une pensée de la différence qui ne soit pas une simple opposition binaire. Contre la logique du « tout ou rien » qui structure souvent le débat politique contemporain, il faut élaborer une pensée capable de saisir les nuances, les gradations, les transitions, sans pour autant tomber dans le relativisme de l’équivalence généralisée. Il s’agit de penser la différence comme différence, et non comme simple variation quantitative sur un axe unidimensionnel. L’IA générative peut remplir un rôle important en ce domaine du fait de ses capacités transformatives.