Communisme cognitif de l’induction statistique / Cognitive communism of statistical induction

Il peut sembler choquant de présenter les LLM (et leurs futurs descendants) comme constituant un communisme cognitif alors même que beaucoup appartiennent ou sont financés par des entités capitalistes et que leurs datasets ont souvent été constituées par l’exploitation de travailleurs du clic et par un extractivisme culturel aveugle.

Ce texte a plutôt pour objectif de montrer comment les LLM modifient déjà la dissémination de la connaissance et pourquoi il faut les communaliser d’urgence afin d’éviter que la connaissance devienne plus encore une économie au profit d’une minorité et source d’une inégalité supplémentaire, si cela est encore possible. Il y a une contradiction entre la propriété privée des LLM et la nature de leurs interactions avec les êtres humains, de sorte que leur destin est profondément ambivalent.

Qu’entendons-nous par communisme cognitif ? Si la dissémination de la connaissance est toujours prise dans une dialectique entre une mise en commun (qui diffuse et multiple sans prendre à personne) et une prise de pouvoir et de domination (qui concentre et exclue pour reproduire les inégalités), dans le cas de l’induction statistique il faut remarquer une intensification et un changement de nature de la cognition. En effet, l’IA permet l’automatisation de l’apprentissage et par là même une dissémination accélérée des connaissances. Tout se passe comme si le « machine learning » déplaçait l’apprentissage anthropologique en l’intériorisant. Tout se passe comme si l’apprentissage était dorénavant biface avec un versant machinique et un versant humain.

C’est ainsi que des savoirs spécialisés, telle la programmation informatique en Python, deviennent plus aisément accessibles sans pour autant s’automatiser complètement. Il faut en effet donner quelques indications au logiciel qui suppose une compréhension minimale de ce langage et des finalités poursuivies pour obtenir des résultats. Si la démarche reste en son fond instrumentale, on ne peut éviter de ressentir, en l’utilisant et en l’expérimentant, que notre pouvoir d’agir augmente parce qu’on a accès à des connaissances sans être bloqué par des nouveaux apprentissages dont la pente serait trop ardue. Nous utilisons des apprentissages en les arpentant plutôt que nous ne les intériorisons.

L’externalisation de la cognition permet à chacun d’avoir accès à des connaissances qui étaient réputées difficiles et qui avaient été valorisées dans les années 90 telles que la programmation informatique, la créativité rédactionnelle, visuelle, sonore, etc. C’est le secteur tertiaire, c’est-à-dire à cette fameuse économie de la connaissance, que déplacent les LLM. Cette dissémination, du fait de la multiplication des flux qu’elle implique, suppose, pour obtenir un résultat singulier, de solides connaissances du contexte historique qui sont la seule manière de naviguer et de se repérer dans les espaces latents. À moins de cette historicité, les médias produits ne seront que des médias de plus qui seront oubliés aussi rapidement qu’ils ont été produits.

J’aimerais souligner la nature profondément ambivalente du déplacement cognitif qu’on a trop vite fait de ramener à sa version capitaliste (et en croyant critiquer celle-ci, la renforçant en la naturalisant et en surjouant sa mise en scène). Car si pour l’instant, les LLM sont aux mains du capitalisme qui fait ce qu’il sait faire : s’approprier par le vol et l’exploitation la connaissance, transformer la connaissance commune en propriété privée en rendant son usage payant et opaque, concentrer la plus-value dans les proportions encore supérieures aux GAFAM, la communalisation des LLM est une autre perspective déjà en gestation dans le croisement entre l’open source et la documentation des sources des datasets.

Dans les mesures où les LLM (et les futures IA qui seront sans doute plus alignées et déterministes) affectent en profondeur la connaissance en transformant les rétentions ternaires (c.-à-d. des supports matériels de la mémoire tels que les livres ou les disques durs) en des distentions quaternaires (c.-à-d. des mises en statistiques vectorielles des supports matériels pour transformer les données en possibilités), ils peuvent marquer une privatisation quasiment définitive de la cognition ou, grâce à une nationalisation intensive des LLM et des centres de calcul, une mise en commun du patrimoine culturel humain et le moyen d’un communisme permettant une dissémination plus égalitaire des connaissances et de leurs usages.


It may seem shocking to present LLMs (and their future descendants) as constituting cognitive communism, even though many of them are owned or financed by capitalist entities, and their datasets have often been constituted by the exploitation of click workers and blind cultural extractivism.

Rather, this text aims to show how LLMs are already changing the dissemination of knowledge, and why they must be communalized as a matter of urgency to prevent knowledge from becoming even more of an economy for the benefit of the few and a source of further inequality, if that is even possible. There is a contradiction between the private ownership of LLMs and the nature of their interactions with human beings, so that their fate is deeply ambivalent.

What do we mean by cognitive communism? If the dissemination of knowledge is always caught up in a dialectic between pooling (which spreads and multiplies without taking from anyone) and taking power and domination (which concentrates and excludes to reproduce inequalities), in the case of statistical induction we must note an intensification and change in the nature of cognition. Indeed, AI enables the automation of learning, thereby accelerating the dissemination of knowledge. It’s as if machine learning displaced anthropological learning by internalizing it. It’s as if learning were now two-sided, with a machine side and a human side.

As a result, specialized skills such as computer programming in Python are becoming more readily accessible, without becoming completely automated. You need to give the software a few pointers, which presupposes a minimum understanding of the language and the objectives pursued in order to obtain results. While the approach remains instrumental at heart, we can’t avoid feeling, by using and experimenting with it, that our power to act increases because we have access to knowledge without being blocked by new learning whose slope would be too arduous. We make use of what we’ve learned by walking through it, rather than internalizing it.

The externalization of cognition gives everyone access to knowledge that used to be considered difficult, and which was valued in the 90s, such as computer programming, creative writing, visual creativity, sound, etc. This is the tertiary sector. LLMs displace the tertiary sector, i.e., the so-called knowledge economy. This dissemination, because of the multiplication of flows it implies, presupposes, in order to obtain a singular result, a solid knowledge of the historical context, which is the only way to navigate and find one’s way in latent spaces. Without this historicity, the media produced will be just another media that will be forgotten as quickly as they were produced.

I’d like to emphasize the profoundly ambivalent nature of cognitive displacement, which we’re all too quick to reduce to its capitalist version (and, in the belief of criticizing it, reinforcing it by naturalizing it and overplaying its staging). For if, for the moment, LLMs are in the hands of capitalism, which is doing what it does best: appropriating knowledge through theft and exploitation, transforming common knowledge into private property by making its use paid for and opaque, and concentrating surplus value in proportions even greater than GAFAM, the communalization of LLMs is another perspective already in gestation in the crossroads between open source and the documentation of dataset sources.

Insofar as LLMs (and future AIs, which will undoubtedly be more aligned and deterministic) profoundly affect knowledge by transforming ternary retentions (i.e., material memory supports such as books or hard disks) into quaternary distensions (i.e. i.e. vector-based statistical transformations of material supports to turn data into possibilities), they can mark a virtually definitive privatization of cognition or, thanks to the intensive nationalization of LLMs and computing centers, a pooling of the human cultural heritage and the means to a communism enabling a more egalitarian dissemination of knowledge and its uses.