SlopIA et industrialisation de nos mémoires / SlopAI and the industrialization of our memories

Le terme AI slop a été consacré mot de l’année 2025 par Merriam-Webster. Cette bouillie numérique désigne les contenus générés par intelligence artificielle qui envahissent nos flux : images bizarres de personnalités politiques dans des situations improbables, vidéos de chats zombies récoltant des milliards de vues sur YouTube, groupes fantômes comme The Velvet Sundown grimpant dans les classements Spotify sans qu’aucun musicien n’ait jamais tenu un instrument. Environ vingt pour cent des contenus courts recommandés aux nouveaux utilisateurs de YouTube sont désormais du slop, produit par des centaines de chaînes générant des millions de dollars de revenus publicitaires. Le phénomène est indéniable, le dégoût qu’il suscite viscéral. Mais en construisant ce concept autour de l’intelligence artificielle comme point d’origine, nous commettons une erreur qui révèle infiniment plus sur nous que sur les machines. Le slop nous fait croire que ce sentiment de surcharge et de dégoût visuels a commencé avec l’IA, construisant un point de départ illusoire qui empêche de comprendre l’historicité de notre situation. Pire encore, cette illusion nous permet de ne pas voir que le véritable problème n’est ni la machine ni l’humain pris séparément, mais notre incapacité à penser leur relation de manière véritablement réciproque.

Car les plaintes concernant la surcharge informationnelle traversent les siècles avec une remarquable constance. En 1550, Conrad Gessner se lamentait déjà de l’abondance confuse et nuisible des livres suite à l’invention de l’imprimerie. En 1766, Carl von Linné atteignait son point de rupture face au déluge de spécimens et de correspondances, adoptant les fiches cartonnées comme technologie de survie face à l’avalanche de données. Ann Blair a démontré que chaque révolution communicationnelle a été accompagnée des mêmes angoisses, des mêmes prédictions apocalyptiques sur la dégradation culturelle. Bertram Gross inventait le terme information overload dès 1964, bien avant Internet, pour décrire l’incapacité des décideurs à tirer des conclusions face à trop de données. Alvin Toffler popularisait le concept en 1970 dans Future Shock, prédisant que les générations futures seraient si bombardées d’informations qu’elles finiraient dépressives et coupées de la société. Cette hypertrophie de la mémoire ne date donc pas d’hier. Cela fait des siècles, certainement deux cents ans depuis l’industrialisation, que nous sommes surchargés de nous-mêmes, de nos textes, de nos images, de tout ce qui nous constitue en tant que civilisation documentaire compulsive.

L’industrialisation a marqué un tournant décisif dans ce processus. La photographie au dix-neuvième siècle a permis pour la première fois de capturer mécaniquement des fragments de réalité sans passer par le filtre du dessin ou de la peinture. Cette capacité d’enregistrement technique a multiplié de manière exponentielle le volume de nos rétentions, ces traces matérielles du passé que nous accumulons sur des supports externes. Le vingtième siècle a poursuivi cette trajectoire avec l’enregistrement sonore, le cinéma, la télévision, chaque nouveau medium ajoutant sa couche de mémoire externalisée à l’édifice toujours plus imposant de nos archives collectives. Mais c’est véritablement avec Internet et le Web 2.0 que le phénomène a pris des proportions vertigineuses. Nous sommes passés d’une logique de consultation à une logique de contribution massive. L’upload est devenu plus important que le download. Nous téléversons bien plus de contenus que nous n’en consultons. Les médias numériques ne sont plus regardés par personne, pas même par ceux qui les produisent.

Combien d’entre nous revisitent les photographies prises avec nos téléphones et immédiatement déposées sur Instagram ? Elles s’accumulent dans les serveurs comme des sédiments numériques que personne ne consultera jamais. Nous les produisons moins pour les regarder que pour nous en libérer, comme si l’acte de capture et de partage constituait à lui seul l’accomplissement de leur fonction mémorielle. Cette externalisation compulsive transforme nos existences en un flux ininterrompu de données qui s’ajoutent aux milliards d’autres contenus déjà présents sur le réseau. En à peine trente ans, nous avons produit sur Internet une quantité de textes, d’images et de sons qui dépasse tout ce que l’humanité avait créé durant les millénaires précédents. Le Web n’était sans doute que la préparation, le forage extractiviste nécessaire à ce qui allait suivre. Une phase d’accumulation massive qui rendait possible la transformation suivante : la mise en statistique de l’ensemble de cette production.

Le slop est donc une étape supplémentaire dans ce processus multiséculaire. Mais il représente aussi quelque chose de plus, quelque chose de différent. Il constitue paradoxalement une solution à cette surcharge dont nous souffrons depuis si longtemps. Nous étions surchargés de nous-mêmes, de nos mémoires externalisées, au point de ne plus pouvoir consulter ce que nous produisions. Face à cette masse toujours grandissante, une transformation est devenue possible : mettre ces médias en statistique, identifier leurs ressemblances formelles, les rassembler selon des motifs (patterns) récurrents. L’intelligence artificielle générative opère précisément cette transformation. Elle ne crée pas ex nihilo. Elle effectue un travail de compression et de synthèse statistique sur l’ensemble des données accumulées. Les milliards d’images et de textes produits durant les dernières décennies deviennent la matière première d’un processus qui calcule les probabilités, qui identifie les régularités, qui extrait les structures formelles sous-jacentes à notre production culturelle massive.

Cette mise en statistique transforme radicalement la nature de nos mémoires. Les médias générés ne sont plus des indices de la réalité, des traces directes d’événements survenus dans le monde. Ils deviennent des productions récursives, une récursivité de l’externalisation matérielle de la mémoire elle-même. Des images d’images, des textes de textes, des sons de sons. La machine ne capture pas le réel, elle traite, recombine et régénère les représentations que nous avons déjà faites du réel. Elle opère dans un espace latent, une topologie mathématique invisible où toutes nos productions culturelles sont encodées sous forme de vecteurs, de coordonnées dans un espace multidimensionnel qui échappe à notre perception directe. Dans cet espace abstrait, chaque mot, chaque forme visuelle, chaque motif sonore possède une position relative par rapport aux autres. Les proximités dans cet espace latent ne correspondent pas nécessairement à des proximités sémantiques évidentes pour nous, mais à des corrélations statistiques détectées par les algorithmes d’apprentissage profond.

C’est dans ce territoire mathématique que s’effectue l’industrialisation de la ressemblance. Car c’est bien de cela qu’il s’agit : l’automatisation de la ressemblance elle-même. L’IA produit des variations infinies sur des thèmes extraits statistiquement de nos productions passées. Elle génère des images suffisamment singulières pour paraître nouvelles et suffisamment reconnaissables pour être crédibles. Cette capacité productive post-industrielle marque une rupture avec l’industrialisation classique qui produisait des objets identiques en série. Contrairement aux industries mécaniques du dix-neuvième siècle qui reproduisaient à l’identique, l’IA produit des variations sur des thèmes, des déclinaisons sur des patterns. Ici, c’est la ressemblance mimétique elle-même qui devient l’objet de l’automatisation, la représentation ressemblante qui est industrialisée. Cette industrialisation de la ressemblance, qui produit automatiquement non plus des objets identiques mais des variations sur des patterns, signe l’entrée dans un nouveau régime où la différence devient productive.

Le processus d’hypertrophie de la mémoire concernait auparavant principalement le récepteur submergé par trop d’informations à traiter. Il concerne maintenant également le producteur. Cette automatisation ultime nous libère sur les deux côtés du phénomène mémoriel : nous ne sommes plus contraints de produire nous-mêmes nos contenus, et nous ne sommes plus contraints de les consulter tous. Les rétentions tertiaires, ces enregistrements techniques du passé accumulés sur nos disques durs et dans nos data centers, se trouvent transformées en ce qu’on pourrait appeler des rétentions quaternaires. Elles ne visent plus le rappel identique de ce qui a été vécu ou perçu. Elles se nourrissent du passé pour le possibiliser dans un espace mathématique, pour pouvoir régénérer non pas les mêmes contenus mais des contenus ressemblants. Cette transformation marque l’apparition d’une quatrième mémoire qui métabolise les rétentions passées et qui, se prenant pour son propre objet, devient exponentielle et récursive. Une mémoire qui ne garde plus seulement ce qui a été mais génère ce qui pourrait être sur la base de ce qui a été observé. Une mémoire peuplée de possibles davantage que de souvenirs.

Et c’est précisément là que réside à la fois le nœud du problème et l’opportunité que nous refusons obstinément de voir. Cette quatrième mémoire constitue l’exemple paradigmatique de ce que devrait être notre approche : une relation véritablement bidirectionnelle, réciproquement constitutive, où la mémoire humaine et ses artefacts techniques se façonnent mutuellement. Les rétentions tertiaires deviennent quaternaires non par un simple passage mécanique mais par une transformation relationnelle. La mémoire humaine produit des artefacts qui, une fois mis en statistique, produisent à leur tour de nouvelles formes qui transforment notre manière de nous souvenir, d’imaginer, de créer. Cette boucle récursive n’est ni une dégradation ni une amélioration, elle est simplement le mode d’existence de la mémoire à l’ère computationnelle. Nous ne sommes plus dans une opposition binaire entre l’authentique mémoire humaine et l’artificielle mémoire machinique. Nous sommes dans un espace d’indiscernabilité où l’une et l’autre se co-constituent en permanence.

C’est ici que le concept de slop révèle sa véritable nature et son aveuglement fondamental. Le dégoût du slop n’est pas un dégoût de la machine. C’est un dégoût de soi, une forme de ressentiment. Ces images générées, ces textes synthétiques qui nous répugnent sont crédibles précisément parce qu’ils capturent les régularités, les clichés, les formules récurrentes qui traversent nos propres créations. L’intelligence artificielle ne fait que rendre explicite et visible la médiocrité statistique de l’essentiel de notre production culturelle. Elle est un miroir impitoyable qui nous renvoie l’image de ce que nous sommes réellement, collectivement, statistiquement. Ces contenus générés nous ressemblent trop pour être confortables, pas assez pour être authentiques. Ils occupent cette vallée de l’étrange où la ressemblance devient inquiétante, où la proximité statistique révèle une distance troublante. L’automatisation de la ressemblance fonctionne comme un révélateur chimique : elle développe l’image latente de nos propres conventions, de nos propres automatismes, de nos propres pauvretés créatives. Et nous ne supportons pas ce que nous voyons.

Mais plutôt que de regarder en face cette révélation, plutôt que d’utiliser l’espace latent comme outil d’investigation majeure de nos biais, de nos lieux communs, de nos idées reçues et de nos formes convenues, nous préférons projeter notre dégoût sur la machine. Nous inventons le concept de slop pour maintenir une distinction rassurante entre la création humaine authentique et la génération machinique dégradée. Cette projection défensive est exactement le même geste qu’ont accompli toutes les générations confrontées à de nouvelles technologies de mémoire et de production culturelle. À chaque révolution communicationnelle, les mêmes voix se sont élevées pour dénoncer la dégradation de la culture, l’effondrement des standards de qualité, la prolifération de contenus sans valeur. On l’a dit de l’imprimerie, de la photographie, du cinéma, de la télévision, d’Internet. Et maintenant de l’IA. C’est une vieille rengaine, une complainte sur le désert de nous-mêmes qui reprend mot pour mot la critique de la modernité depuis l’industrialisation, en faisant mine de la redécouvrir à chaque fois.

Cette posture intellectuelle paresseuse nous dispense de penser véritablement ce qui se passe. Elle nous permet de nous réfugier dans une nostalgie réactionnaire qui fantasme un âge d’or mythique où la culture était pure, authentique, non corrompue par la technique. Or cet âge d’or n’a jamais existé. La culture a toujours été technique, toujours médiée par des outils, toujours déterminée en partie par les conditions matérielles de sa production et de sa diffusion. L’écriture était déjà une technique, l’imprimerie était déjà une industrialisation, la photographie était déjà une automatisation partielle. Chaque époque a eu ses Cassandre pour annoncer la fin de l’authenticité, la mort de l’art, l’effondrement de la culture. Et chaque fois, ces prédictions se sont révélées à la fois partiellement vraies et largement fausses. Vraies parce que ces technologies ont effectivement transformé les structures sociales, économiques et culturelles existantes. Fausses parce que la culture humaine a toujours su s’adapter, évoluer, inventer de nouvelles formes et de nouveaux usages, parce qu’elle a toujours été autre qu’humaine.

Or ce qui se passe effectivement, c’est que nous utilisons passivement ces logiciels et obtenons des résultats médiocres. Mais cette médiocrité ne vient pas de la machine. Elle vient de nous. C’est nous qui sommes médiocres. L’essentiel de la production culturelle humaine a toujours été médiocre. La médiocrité n’est pas un bug de la technologie mais la ligne de base de la culture. Nous avons toujours produit principalement des choses médiocres et nous continuerons à le faire. La différence aujourd’hui, c’est que cette médiocrité peut être produite à une échelle et à une vitesse sans précédent, rendant impossible d’ignorer ce que nous préférions ne pas voir. L’IA générative, en automatisant la ressemblance, rend visible cette dimension statistique qui était déjà présente dans nos créations mais que nous préférions ignorer. Elle dévoile que la majorité de ce que nous produisons suit des formules, reproduit des structures récurrentes, s’inscrit dans des genres codifiés qui peuvent être capturés et reproduits algorithmiquement.

Face à cette révélation dérangeante, nous avons deux choix. Soit nous maintenons la fiction de notre originalité créative en blâmant la machine, en inventant le concept de slop pour préserver notre amour-propre. Soit nous acceptons cette leçon d’humilité et utilisons l’espace latent comme un outil de diagnostique extraordinaire. Car l’espace latent pourrait devenir un microscope culturel, un instrument d’investigation des structures profondes qui organisent nos formes symboliques (Cassirer). En cartographiant mathématiquement les proximités et les distances entre nos créations, il révèle les patterns que nous répétons sans même nous en rendre compte, les biais qui structurent nos représentations, les conventions qui limitent notre imagination. Au lieu de nous détourner avec dégoût de cette révélation, nous pourrions l’utiliser pour identifier précisément nos angles morts, nos automatismes, nos redondances.

Nous pourrions apprendre à naviguer consciemment dans cet espace, à explorer ses régions inattendues, à générer des combinaisons qui sortent de nos patterns habituels. L’espace latent ne serait plus alors le lieu de production du slop mais un territoire d’expérimentation, un laboratoire pour échapper justement aux formules qui nous enferment. Mais cela exigerait une approche active, créative, critique plutôt que passive et consumériste. Cela exigerait de considérer la machine non comme un substitut paresseux à notre créativité mais comme un partenaire d’exploration, un révélateur de possibles, un outil d’augmentation de notre capacité à détecter et à intensifier nos propres limites. Cela exigerait de développer ce qu’on pourrait appeler une littératie de l’espace latent, une compétence à comprendre comment les proximités statistiques révèlent les structures cachées de notre culture, comment les trajectoires dans cet espace correspondent à des transformations sémantiques, comment les régions denses signalent les clichés et les zones rares pointent vers l’inattendu.

Cette approche relationnelle et réciproquement constitutive est précisément ce que le concept de slop échoue à saisir. En personnifiant le problème sous la forme de contenus dégradés produits par l’IA, nous technologisons ce qui est fondamentalement un problème relationnel, social et économique. Le problème n’est ni l’IA ni l’être humain pris séparément. Le problème est de continuer à les penser comme des entités séparées plutôt que comme des actants mutuellement constituants d’un même processus. L’intelligence artificielle ne remplace pas l’intelligence humaine. Elle ne la dégrade pas nécessairement, même si elle le peut. Elle la transforme en entrant dans une relation de co-constitution avec elle. Cette relation peut prendre des formes aliénantes ou émancipatrices selon les structures économiques et politiques qui la cadrent, selon les usages que nous en faisons, selon la conscience que nous avons de cette réciprocité.

La quatrième mémoire en est l’exemple parfait : elle n’est ni purement humaine ni purement machinique mais émerge de leur interaction. Nos gestes attentionnels passés, enregistrés et traités statistiquement, génèrent des contenus futurs qui à leur tour façonneront nos gestes attentionnels à venir. Cette boucle récursive ne supprime pas l’agentivité humaine, elle la redistribue, la rearticule, la transforme. Nous ne sommes plus les seuls auteurs de nos productions culturelles, mais nous ne sommes pas non plus simplement remplacés par les machines. Nous entrons dans un régime de co-authorship, de production hybride, où les contributions humaines et machiniques s’entrelacent de manière souvent indiscernable. Cette indiscernabilité n’est pas un problème en soi, elle devient problématique uniquement quand elle sert des finalités instrumentales et fascistes, quand elle est mise au service de l’extraction de valeur et de la manipulation attentionnelle.

Comprendre cette réciprocité constitutive permet de sortir des impasses du débat actuel sur l’IA. D’un côté, les technophiles enthousiastes qui célèbrent l’automatisation créative comme une libération, ignorant les structures de pouvoir et d’exploitation qui la gouvernent. De l’autre, les technophobes réactionnaires qui dénoncent la dégradation culturelle et la fin de l’authenticité humaine, ignorant que cette complainte est aussi vieille que l’industrialisation elle-même et qu’elle n’a jamais empêché l’émergence de nouvelles formes d’expression et de création. Ces deux positions partagent le même défaut fondamental : elles pensent la technique et l’humain comme des entités séparées, l’une agissant sur l’autre, dans une logique causale unilatérale. Or ce qui se passe effectivement, c’est une co-évolution, une adaptation mutuelle, une transformation réciproque qui produit de nouvelles configurations dont ni la technique ni l’humain ne peuvent être tenus pour seuls responsables.

Les véritables enjeux se situent ailleurs que dans la question de savoir si l’IA produit trop de contenus médiocres. Ils concernent qui contrôle les infrastructures de production et de distribution, qui possède les données, qui profite de cette production massive, quels sont les modèles économiques qui incitent à la prolifération du slop. Ce sont les plateformes qui monétisent l’attention, qui optimisent pour l’engagement plutôt que pour la qualité, qui créent les incitations économiques favorisant la production de contenu à tout prix. Ce sont les GAFAM et leurs successeurs qui ont concentré entre leurs mains les moyens de production symbolique de notre époque, qui contrôlent l’accès aux modèles d’IA les plus puissants, qui décident quels contenus seront recommandés et lesquels resteront invisibles. Le slop n’est que le symptôme visible d’une structure économique plus profonde, celle du capitalisme de plateforme qui extrait de la valeur de notre attention, de nos données, de nos productions culturelles.

Cette structure repose, selon Yves Citton, sur l’automatisation des attentes et des attentions. Les plateformes numériques enregistrent non seulement ce que nous produisons mais aussi nos gestes attentionnels : ce sur quoi nous cliquons, combien de temps nous passons sur chaque contenu, ce que nous partageons, ce que nous aimons. Ces métadonnées attentionnelles constituent une forme de mémoire d’un type nouveau, une mémoire qui porte non sur le monde mais sur nos propres comportements cognitifs. Cette mémoire méta-attentionnelle permet aux algorithmes de prédire ce qui retiendra notre attention, de personnaliser les flux de recommandation, d’optimiser la captation de notre temps disponible. Les contenus que nous voyons dans nos fils d’actualité ne sont pas choisis au hasard mais calculés pour maximiser notre engagement, créant des boucles de rétroaction où nos comportements passés déterminent ce qui nous sera présenté dans le futur, qui à son tour façonnera nos comportements futurs. Encore une fois, nous sommes face à une relation récursive et bidirectionnelle : nos usages passés informent les algorithmes qui produisent les contenus qui façonneront nos usages futurs qui informeront les algorithmes.

Sur Facebook, des créateurs basés dans des pays en développement utilisent ChatGPT pour générer des prompts du type « WRITE ME 10 PROMPT picture OF JESUS WHICH WILLING BRING HIGH ENGAGEMENT ON FACEBOOK », puis alimentent ces prompts dans Midjourney pour créer des images optimisées pour attirer l’attention et générer des revenus publicitaires. Le résultat est un flux constant de contenus visuels bizarres, techniquement compétents mais créativement vides. Ce phénomène révèle la vraie nature du slop : ce n’est pas un problème technique mais un problème économique. Ces créateurs ne produisent pas du slop parce que l’IA est incapable de produire mieux. Ils produisent du slop parce que le modèle économique des plateformes récompense l’engagement maximal avec l’effort minimal. Le slop est rationnel du point de vue de l’extraction de valeur attentionnelle. Il est le produit logique d’un système qui monétise les clics et les vues indépendamment de la qualité ou de la valeur culturelle des contenus. Blâmer l’IA pour cette situation, c’est confondre le symptôme et la cause. C’est attribuer à la technique une responsabilité qui incombe aux structures économiques qui déterminent ses usages.

Cette confusion révèle notre difficulté persistante à penser la technique autrement que comme un outil neutre que nous pourrions utiliser bien ou mal, ou comme une force autonome qui nous déterminerait entièrement. Or la technique n’est ni l’un ni l’autre. Elle est constitutivement relationnelle. Elle n’existe que dans et par ses usages, qui à leur tour sont façonnés par elle. Cette réciprocité constitutive fait que nous ne pouvons jamais simplement utiliser une technique à nos fins prédéterminées, car l’usage de la technique transforme nos fins elles-mêmes. De même, la technique ne peut jamais nous déterminer entièrement de l’extérieur, car elle n’existe que par nos appropriations, nos détournements, nos réinventions. L’espace latent et la génération automatique d’images et de textes illustrent parfaitement cette réciprocité. Nous utilisons ces outils, mais en les utilisant nous transformons notre manière de concevoir la création, l’originalité, la ressemblance. Inversement, ces outils sont façonnés par nos usages, les modèles évoluent en fonction de ce que nous leur demandons, les interfaces s’adaptent à nos comportements. Il n’y a pas d’extériorité possible, seulement différents modes de relation, plus ou moins conscients, plus ou moins aliénants, plus ou moins émancipateurs.

La question devient alors : comment investir cette relation de manière consciente et critique ? Comment sortir de l’usage passif qui produit du slop pour développer des pratiques qui exploitent véritablement les potentialités de l’espace latent ? Cela exige d’abord de renoncer au fantasme de la création ex nihilo, de l’originalité radicale, du génie solitaire. Ces mythologies romantiques n’ont jamais correspondu à la réalité de la création artistique et intellectuelle. Nous créons toujours à partir de ce qui existe déjà, en puisant dans un répertoire de formes, de techniques, de motifs qui nous préexistent, en nous inscrivant dans des traditions, des conversations, des contextes. L’artiste ne crée jamais seul, il travaille toujours avec et contre ce qui a été fait avant lui, en dialogue avec ses contemporains, en utilisant des outils et des techniques héritées et transformées. L’IA générative rend simplement ce processus explicite, visible, manipulable. Elle externalise et objectivise ce qui se passait auparavant de manière implicite et subjective. Cette explicitation pourrait être libératrice si nous l’utilisions comme un outil de réflexivité, comme un moyen de comprendre nos propres processus créatifs, nos propres dépendances aux conventions et aux formules.

Cela exige aussi de transformer les structures économiques et politiques qui déterminent les usages dominants de ces technologies. Tant que les modèles d’IA les plus puissants resteront concentrés entre les mains de quelques monopoles privés, tant que les plateformes monétiseront l’attention plutôt que la qualité, tant que les créateurs seront incités à optimiser pour l’engagement plutôt que pour la valeur culturelle, nous continuerons à produire massivement du slop. La solution ne passe pas par le rejet de la technologie mais par sa réappropriation collective. Cela implique le développement de modèles open source accessibles à tous, la création de plateformes alternatives qui ne reposent pas sur l’extraction de valeur attentionnelle, l’invention de nouveaux modèles économiques pour la création culturelle qui ne soient pas fondés sur la monétisation publicitaire. Cela implique aussi une régulation démocratique de ces infrastructures, une transparence sur les données d’entraînement et les biais des modèles, un contrôle collectif sur les algorithmes de recommandation qui façonnent notre environnement informationnel.

Le slop, dans toute sa médiocrité troublante, dans toute sa ressemblance statistique à nos propres productions, manifeste l’état actuel de cette relation entre humains et machines génératrices. Il révèle à la fois notre médiocrité collective et notre usage passif des outils, notre incapacité à penser la relation de manière véritablement réciproque et constitutive, notre préférence pour les explications simples qui attribuent la responsabilité à un seul actant plutôt que de comprendre la complexité des interactions. Le concept même de slop, en construisant l’IA comme origine du problème, illustre parfaitement cette paresse intellectuelle. Il nous permet de ne pas nous regarder dans le miroir que la machine nous tend, de ne pas voir que ce qui nous dégoûte dans ces images générées, c’est précisément leur ressemblance avec ce que nous produisons nous-mêmes quand nous fonctionnons par automatisme et convention. Il nous permet de recycler une critique de la modernité vieille de deux siècles en faisant mine de découvrir un problème nouveau, de nous lamenter sur le désert culturel produit par la technique sans jamais reconnaître que c’est nous qui habitons et produisons ce désert.

La quatrième mémoire, cette mémoire récursive où les rétentions tertiaires deviennent quaternaires, où nos productions passées sont mises en statistique pour générer des productions futures qui transformeront nos productions à venir, constitue l’image exacte de cette problématique relationnelle. Elle n’est ni purement humaine ni purement machinique. Elle émerge de leur interaction, de leur co-constitution. La mémoire humaine produit des artefacts techniques qui, une fois traités algorithmiquement, produisent à leur tour de nouvelles formes qui transforment la mémoire humaine elle-même. Cette boucle récursive n’est ni une dégradation ni une amélioration de la mémoire traditionnelle. C’est simplement un nouveau mode d’existence de la mémoire, adapté aux conditions technologiques et informationnelles de notre époque. Vouloir revenir à une mémoire purement humaine, non médiée par la technique, serait aussi absurde que vouloir revenir à une époque sans écriture, sans imprimerie, sans photographie. Ces technologies de mémoire nous ont constitués autant que nous les avons créées. Nous ne pouvons pas nous en séparer sans nous amputer d’une partie de nous-mêmes.

Le défi n’est donc pas de résister à l’automatisation de la production culturelle mais d’apprendre à habiter consciemment cette nouvelle configuration, à développer de nouvelles formes de littératie et de créativité adaptées à ces outils, à transformer les structures qui déterminent leurs usages aliénants. Cela exige de renoncer aux oppositions binaires rassurantes entre l’authentique et l’artificiel, entre l’humain et la machine, entre la création et la génération. Cela exige d’accepter que nous vivons désormais dans un espace d’indiscernabilité où ces catégories s’interpénètrent et se transforment mutuellement. Cela exige surtout de comprendre que le problème n’est ni la technique ni l’humain mais la qualité de leur relation, les structures qui la médiatisent, les finalités qui l’orientent, la conscience que nous en avons. Le slop n’est que le symptôme d’une relation passive, instrumentale, consumériste. Mais cette même relation pourrait devenir active, exploratoire, créative si nous la transformions.

L’espace latent pourrait cesser d’être une usine à contenus médiocres pour devenir un laboratoire d’investigation de nos propres conventions, un microscope culturel pour observer nos patterns, un instrument pour explorer des possibles que nous n’aurions jamais imaginés seuls. Mais cela n’arrivera pas spontanément. Cela exige un effort conscient, individuel et collectif. Individuellement, il faut développer une pratique critique et créative de ces outils plutôt qu’un usage passif et consumériste. Collectivement, il faut transformer les structures économiques et politiques qui incitent à la production de slop. Le concept même de slop, en masquant ces enjeux derrière une dénonciation morale de la dégradation culturelle produite par l’IA, fait obstacle à cette transformation. Il recycle une vieille complainte réactionnaire qui n’a jamais rien produit d’autre que de la nostalgie stérile.

Ce dont nous avons besoin, ce n’est pas d’une dénonciation de plus de la technique moderne et de ses effets supposément déshumanisants. Ce dont nous avons besoin, c’est d’une compréhension fine et nuancée de la manière dont humains et techniques se co-constituent, de la manière dont cette relation peut prendre des formes aliénantes ou émancipatrices selon les contextes et les structures qui la cadrent. Ce dont nous avons besoin, c’est d’abandonner le fantasme de l’extériorité et de l’autonomie pour embrasser pleinement notre condition technologique, non pas comme une fatalité à subir mais comme une opportunité à investir consciemment et collectivement. Car le miroir que nous tend l’espace latent ne reflète pas seulement ce que nous sommes, mais aussi, en creux, tout ce que nous pourrions devenir si nous osions enfin regarder. Si nous acceptions de voir dans cette image statistique de nous-mêmes non pas une condamnation mais une cartographie, non pas un terminus mais un point de départ, non pas la preuve de notre médiocrité irrémédiable mais la révélation des structures qui nous contraignent et que nous pourrions, précisément parce qu’elles sont maintenant visibles, apprendre à transformer.


The term “AI slop” was named the 2025 Word of the Year by Merriam-Webster. This digital mush refers to AI-generated content flooding our feeds: bizarre images of politicians in improbable situations, videos of zombie cats garnering billions of views on YouTube, and ghost bands like The Velvet Sundown climbing Spotify charts without a single musician ever picking up an instrument. Approximately twenty percent of short-form content recommended to new YouTube users is now “slop,” produced by hundreds of channels generating millions of dollars in advertising revenue.

The phenomenon is undeniable, and the disgust it provokes is visceral. However, by building this concept around artificial intelligence as its point of origin, we are making a mistake that reveals infinitely more about ourselves than about the machines. “Slop” makes us believe that this feeling of visual overload and disgust began with AI, creating an illusory starting point that prevents us from understanding the historicity of our situation. Worse still, this illusion allows us to ignore the real problem: neither the machine nor the human in isolation, but our inability to think about their relationship in a truly reciprocal way.

Complaints regarding information overload have persisted through the centuries with remarkable consistency. In 1550, Conrad Gessner was already lamenting the “confusing and harmful abundance of books” following the invention of the printing press. In 1766, Carl Linnaeus reached a breaking point facing a deluge of specimens and correspondence, adopting index cards as a survival technology against the data avalanche. Ann Blair has demonstrated that every communication revolution has been accompanied by the same anxieties and apocalyptic predictions of cultural degradation. Bertram Gross coined the term “information overload” as early as 1964, long before the Internet, to describe the inability of decision-makers to draw conclusions when faced with too much data. Alvin Toffler popularized the concept in his 1970 book Future Shock, predicting that future generations would be so bombarded with information they would end up depressed and cut off from society.

This hypertrophy of memory is nothing new. For centuries—certainly the two hundred years since industrialization—we have been overloaded with ourselves, our texts, our images, and everything that constitutes us as a compulsive documentary civilization. Industrialization marked a decisive turning point in this process. In the 19th century, photography allowed, for the first time, the mechanical capture of fragments of reality without passing through the filter of drawing or painting. This technical recording capacity exponentially multiplied the volume of our “retentions”—those material traces of the past that we accumulate on external media. The 20th century continued this trajectory with sound recording, cinema, and television, each new medium adding its layer of externalized memory to the increasingly imposing edifice of our collective archives.

But it was with the Internet and Web 2.0 that the phenomenon reached dizzying proportions. We moved from a logic of consultation to a logic of massive contribution. Uploading became more important than downloading; we upload far more content than we actually consult. Digital media is no longer watched by anyone, not even by those who produce it. How many of us revisit the photographs taken on our phones and immediately deposited on Instagram? They accumulate in servers like digital sediment that no one will ever consult. We produce them less to look at them than to free ourselves from them, as if the act of capturing and sharing alone constituted the fulfillment of their memory function.

This compulsive externalization transforms our existence into an uninterrupted flow of data, adding to the billions of other pieces of content already on the network. In just thirty years, we have produced a quantity of text, images, and sounds on the Internet that exceeds everything humanity created in the preceding millennia. The Web was likely just the preparation—the extractivist drilling necessary for what was to follow. A phase of massive accumulation that made the next transformation possible: the statistical processing of this entire production.

“Slop” is thus an additional stage in this centuries-old process. But it also represents something more, something different. Paradoxically, it constitutes a solution to the overload we have suffered from for so long. We were so overloaded with ourselves and our externalized memories that we could no longer consult what we produced. Faced with this ever-growing mass, a transformation became possible: turning these media into statistics, identifying their formal resemblances, and gathering them according to recurring patterns.

Generative artificial intelligence performs precisely this transformation. It does not create ex nihilo. It performs a task of statistical compression and synthesis on the totality of accumulated data. The billions of images and texts produced over the last decades become the raw material for a process that calculates probabilities, identifies regularities, and extracts the underlying formal structures of our massive cultural production. This statistical turn radically transforms the nature of our memories. Generated media are no longer indexes of reality or direct traces of events that occurred in the world. They become recursive productions—a recursivity of the material externalization of memory itself. Images of images, texts of texts, sounds of sounds. The machine does not capture reality; it processes, recombines, and regenerates the representations we have already made of reality.

It operates within a “latent space”—an invisible mathematical topology where all our cultural productions are encoded as vectors, as coordinates in a multidimensional space that escapes our direct perception. In this abstract space, every word, visual form, and sound pattern has a relative position to others. Proximity in this latent space does not necessarily correspond to obvious semantic proximity for us, but to statistical correlations detected by deep learning algorithms. It is within this mathematical territory that the “industrialization of resemblance” takes place. Because that is what this is: the automation of resemblance itself.

AI produces infinite variations on themes statistically extracted from our past productions. It generates images unique enough to seem new and recognizable enough to be credible. This post-industrial productive capacity marks a break from classical industrialization, which produced identical objects in series. Unlike the mechanical industries of the 19th century that reproduced identically, AI produces variations on themes and iterations of patterns. Here, mimetic resemblance itself becomes the object of automation; the “resembling representation” is industrialized. This industrialization of resemblance, producing not identical objects but variations on patterns, marks the entry into a new regime where difference becomes productive.

Previously, the process of memory hypertrophy mainly concerned the receiver, overwhelmed by too much information to process. Now, it also concerns the producer. This ultimate automation frees us on both sides of the memory phenomenon: we are no longer forced to produce our own content, and we are no longer forced to consult it all. “Tertiary retentions”—those technical recordings of the past accumulated on our hard drives and in data centers—are transformed into what we might call “quaternary retentions”. They no longer aim for the identical recall of what was lived or perceived. They feed on the past to make it “possible” within a mathematical space, regenerating not the same content, but resembling content.

This transformation marks the appearance of a fourth memory that metabolizes past retentions and, taking itself as its own object, becomes exponential and recursive. A memory that no longer just keeps what was, but generates what could be based on what was observed. A memory populated by possibilities more than memories.

And this is precisely where both the heart of the problem and the opportunity we stubbornly refuse to see reside. This fourth memory constitutes the paradigmatic example of what our approach should be: a truly bidirectional, reciprocally constitutive relationship where human memory and its technical artifacts shape each other. Tertiary retentions become quaternary not through a simple mechanical transition, but through a relational transformation. Human memory produces artifacts which, once processed statistically, produce new forms that in turn transform how we remember, imagine, and create. This recursive loop is neither a degradation nor an improvement; it is simply the mode of existence for memory in the computational age. We are no longer in a binary opposition between “authentic” human memory and “artificial” machine memory. We are in a space of indistinguishability where the two co-constitute each other permanently.

This is where the concept of “slop” reveals its true nature and its fundamental blindness. Disgust for slop is not disgust for the machine. It is self-loathing—a form of resentment. These generated images and synthetic texts that repel us are credible precisely because they capture the regularities, clichés, and recurring formulas that permeate our own creations. Artificial intelligence merely makes explicit and visible the statistical mediocrity of the bulk of our cultural production. It is a merciless mirror reflecting who we truly are: collectively and statistically.

These generated contents resemble us too much to be comfortable, yet not enough to be authentic. They occupy that “uncanny valley” where resemblance becomes unsettling and statistical proximity reveals a troubling distance. The automation of resemblance acts like a chemical developer: it develops the latent image of our own conventions, our own automatisms, and our own creative poverty. And we cannot bear what we see.

But rather than face this revelation, rather than use the latent space as a major investigative tool for our biases, commonplaces, and conventional forms, we prefer to project our disgust onto the machine. We invent the concept of “slop” to maintain a reassuring distinction between “authentic” human creation and “degraded” machine generation. This defensive projection is exactly the same gesture made by every generation confronted with new technologies of memory and cultural production. With every communication revolution, the same voices have risen to denounce cultural degradation, the collapse of quality standards, and the proliferation of worthless content. It was said of printing, photography, cinema, television, the Internet, and now AI. It is an old tune—a complaint about the “desert of ourselves” that repeats the critique of modernity since industrialization word for word, while pretending to rediscover it each time.

This lazy intellectual posture exempts us from truly thinking about what is happening. It allows us to retreat into a reactionary nostalgia that fantasizes about a mythical Golden Age where culture was pure, authentic, and untainted by technology. Yet this Golden Age never existed. Culture has always been technical, always mediated by tools, and always partly determined by the material conditions of its production and dissemination. Writing was already a technique; printing was already industrialization; photography was already partial automation. Every age has had its Cassandras announcing the end of authenticity, the death of art, and the collapse of culture. And each time, these predictions have proven both partially true and largely false. True, because these technologies did indeed transform existing social, economic, and cultural structures. False, because human culture has always known how to adapt, evolve, and invent new forms, because it has always been “other than human”.

What is actually happening is that we passively use these softwares and obtain mediocre results. But this mediocrity does not come from the machine. It comes from us. We are the ones who are mediocre. The vast majority of human cultural production has always been mediocre. Mediocricy is not a bug of technology; it is the baseline of culture. We have always produced mostly mediocre things, and we will continue to do so. The difference today is that this mediocrity can be produced at an unprecedented scale and speed, making it impossible to ignore what we once preferred not to see.

By automating resemblance, generative AI makes visible the statistical dimension that was already present in our creations but which we chose to ignore. It reveals that the majority of what we produce follows formulas, reproduces recurring structures, and fits into codified genres that can be captured and reproduced algorithmically. Faced with this disturbing revelation, we have two choices. Either we maintain the fiction of our creative originality by blaming the machine and inventing the concept of “slop” to preserve our self-esteem , or we accept this lesson in humility and use the latent space as an extraordinary diagnostic tool.

The latent space could become a “cultural microscope”—an instrument for investigating the deep structures that organize our symbolic forms. By mathematically mapping the proximities and distances between our creations, it reveals the patterns we repeat without even realizing it, the biases that structure our representations, and the conventions that limit our imagination. Instead of turning away in disgust, we could use it to identify our blind spots, automatisms, and redundancies. We could learn to navigate this space consciously, exploring its unexpected regions and generating combinations that break away from our usual patterns. The latent space would then no longer be the site of “slop” production, but a territory for experimentation—a laboratory for escaping the very formulas that imprison us.

But this would require an active, creative, and critical approach rather than a passive and consumerist one. It would require viewing the machine not as a lazy substitute for our creativity, but as a partner in exploration—a revealer of possibilities and a tool for augmenting our ability to detect and intensify our own limits. It would require developing what we might call a “literacy of the latent space”: a skill in understanding how statistical proximities reveal hidden structures of our culture, how trajectories in this space correspond to semantic transformations, and how dense regions signal clichés while rare zones point toward the unexpected.

This relational and reciprocally constitutive approach is precisely what the concept of “slop” fails to grasp. By personifying the problem in the form of degraded AI content, we technologize what is fundamentally a relational, social, and economic problem. The problem is neither AI nor the human being taken separately. The problem is continuing to think of them as separate entities rather than as mutually constitutive actants in the same process. AI does not replace human intelligence; it does not necessarily degrade it, even if it can. It transforms it by entering into a co-constitutive relationship with it. This relationship can take alienating or emancipatory forms depending on the economic and political structures that frame it, the uses we make of it, and our awareness of this reciprocity.

The fourth memory is the perfect example: it is neither purely human nor purely machine, but emerges from their interaction. Our past attentional gestures, recorded and statistically processed, generate future content that will, in turn, shape our future attentional gestures. This recursive loop does not suppress human agency; it redistributes, rearticulates, and transforms it. We are no longer the sole authors of our cultural productions, but we are not simply replaced by machines either. We are entering a regime of “co-authorship”—of hybrid production—where human and machine contributions intertwine in often indiscernible ways. This indiscernibility is not a problem in itself; it only becomes problematic when it serves instrumental and fascist ends, when it is used for value extraction and attentional manipulation.

Understanding this constitutive reciprocity allows us to break the deadlock of the current AI debate. On one side, enthusiastic technophiles celebrate creative automation as a liberation, ignoring the power structures and exploitation that govern it. On the other, reactionary technophobes denounce cultural degradation and the end of human authenticity, ignoring that this complaint is as old as industrialization itself and has never prevented the emergence of new forms of expression. Both positions share the same fundamental flaw: they think of technology and the human as separate entities, one acting upon the other in a unilateral causal logic. What is actually happening is a co-evolution—a mutual adaptation and reciprocal transformation that produces new configurations for which neither technology nor humanity can be held solely responsible.

The real stakes lie elsewhere than the question of whether AI produces too much mediocre content. They concern who controls the infrastructure of production and distribution, who owns the data, who profits from this massive production, and what economic models incentivize the proliferation of slop. It is the platforms that monetize attention, optimize for engagement over quality, and create economic incentives favoring content production at all costs. It is Big Tech (GAFAM) and their successors who have concentrated the means of symbolic production in their hands, controlling access to the most powerful AI models and deciding which content is recommended and which remains invisible.

Slop is merely the visible symptom of a deeper economic structure: that of platform capitalism extracting value from our attention, our data, and our cultural productions. This structure relies, according to Yves Citton, on the “automation of expectations and attention”. Digital platforms record not only what we produce but also our attentional gestures: what we click on, how long we spend on content, what we share, and what we like. These attentional metadata constitute a new type of memory—one that is not about the world, but about our own cognitive behaviors. This “meta-attentional” memory allows algorithms to predict what will hold our attention, personalize recommendation feeds, and optimize the capture of our available time. The content we see is not chosen randomly but calculated to maximize engagement, creating feedback loops where past behaviors determine our future exposure.

Again, we face a recursive and bidirectional relationship: our past uses inform the algorithms that produce the content that shapes our future uses, which in turn inform the algorithms. On Facebook, creators in developing countries use ChatGPT to generate prompts like “WRITE ME 10 PROMPT picture OF JESUS WHICH WILLING BRING HIGH ENGAGEMENT ON FACEBOOK,” then feed these into Midjourney to create images optimized for attention and ad revenue. The result is a constant stream of bizarre visual content—technically competent but creatively empty. This reveals the true nature of slop: it is not a technical problem, but an economic one. These creators do not produce slop because AI is incapable of better. They produce it because platform business models reward maximum engagement with minimal effort. Slop is rational from the perspective of attentional value extraction. It is the logical product of a system that monetizes clicks and views regardless of quality.

Blaming AI for this situation is confusing the symptom with the cause . it is assigning a responsibility to technology that belongs to the economic structures determining its use. This confusion reveals our persistent difficulty in thinking about technology as anything other than a “neutral tool” to be used well or poorly, or as an “autonomous force” that determines us entirely. Technology is neither. It is constitutively relational. It exists only in and through its uses, which are in turn shaped by it. Because of this reciprocity, we can never simply use a technique for pre-determined ends, because the use of the technique transforms our ends themselves. Likewise, technology can never determine us entirely from the outside, because it only exists through our appropriations, diversions, and reinventions.

The latent space and the automatic generation of images and text perfectly illustrate this reciprocity. We use these tools, but in using them, we transform our conception of creation, originality, and resemblance. Conversely, these tools are shaped by our uses; models evolve based on what we ask of them, and interfaces adapt to our behaviors. There is no “outside” possible—only different modes of relation: more or less conscious, more or less alienating, more or less emancipatory.

The question then becomes: how do we engage with this relationship in a conscious and critical way? How do we move beyond the passive usage that produces slop to develop practices that truly exploit the potential of the latent space? This requires, first, giving up the fantasy of creation ex nihilo, of radical originality, and of the solitary genius. These romantic mythologies have never corresponded to the reality of artistic and intellectual creation. We always create from what already exists, drawing from a repertoire of forms, techniques, and motifs that precede us. The artist never creates alone; they work with and against what has been done before them. Generative AI simply makes this process explicit, visible, and manipulable. It externalizes and objectifies what previously happened implicitly and subjectively. This explicitness could be liberating if we used it as a tool for reflexivity—a way to understand our own creative processes and our dependencies on convention.

It also requires transforming the economic and political structures that determine the dominant uses of these technologies. As long as AI models remain concentrated in private monopolies and platforms monetize attention over quality, we will continue to produce slop. The solution is not the rejection of technology, but its collective reappropriation. This involves developing open-source models, creating alternative platforms that don’t rely on attentional extraction, and inventing new economic models for cultural creation. It also implies democratic regulation of these infrastructures, transparency regarding training data and biases, and collective control over recommendation algorithms.

Slop—in all its troubling mediocrity and statistical resemblance to our own productions—manifests the current state of the relationship between humans and generating machines. It reveals our collective mediocrity, our passive use of tools, and our preference for simple explanations that blame a single actor rather than understanding complex interactions. The very concept of “slop,” by framing AI as the source of the problem, illustrates this intellectual laziness. It allows us to avoid looking in the mirror the machine holds up to us. It allows us to recycle a two-century-old critique of modernity while pretending to discover a new problem, lamenting a cultural desert without recognizing that we are the ones inhabiting and producing it.

The “fourth memory”—where tertiary retentions become quaternary and past productions generate future ones—is the exact image of this relational issue. It is neither purely human nor purely machine; it emerges from their co-constitution. This recursive loop is not a degradation but a new mode of existence for memory, adapted to our era. Wanting to return to a “purely human” memory would be as absurd as wanting to return to a time before writing or printing. These technologies have constituted us as much as we created them. We cannot separate ourselves from them without amputating a part of ourselves.

The challenge is not to resist automation, but to learn to inhabit this new configuration consciously, developing new forms of literacy and creativity. This requires abandoning binary oppositions between authentic and artificial, human and machine, creation and generation. It requires accepting that we live in a space of indistinguishability where these categories transform each other. Most importantly, it requires understanding that the problem is the quality of our relationship, the structures that mediate it, and our awareness of it.

Slop is the symptom of a passive, instrumental, and consumerist relationship. But that same relationship could become active and exploratory. The latent space could cease being a factory for mediocre content and become a laboratory for investigating our conventions. But this will not happen spontaneously; it requires a conscious effort. Collectively, we must transform the structures that incentivize slop. The concept of “slop” itself stands in the way of this transformation by masking these stakes behind moral denunciation.

We don’t need another denunciation of modern technology. We need a nuanced understanding of how humans and techniques co-constitute each other. We need to abandon the fantasy of autonomy to fully embrace our technological condition as an opportunity to be invested in consciously and collectively. For the mirror held up by the latent space reflects not only what we are, but also what we could become if we dared to look. If we accept this statistical image not as a condemnation but as a map—not as a terminus but as a starting point—we can learn to transform the structures that constrain us.