L’IA comme fabrique de l’opinon / AI as a Factory of Opinion

On observe, depuis le déploiement massif de ChatGPT en 2022, une cristallisation particulière du discours public autour de l’intelligence artificielle. Ce qui frappe d’abord, c’est moins la diversité des opinions que leur concentration autour d’un refus quasi rituel, d’une méfiance devenue structurelle : objection de conscience, manifeste, déclaration, etc. L’IA n’est plus pensée, elle est ressassée. Les mêmes inquiétudes reviennent en boucle, produisant un effet de certitude qui occulte les véritables enjeux. Cette fatalité du discours n’émane pas spontanément de la population mais résulte d’un processus complexe de construction médiatique, où les choix journalistiques, les intentions des puissances publiques et privées, et les mécanismes profonds des industries de l’attention façonnent ce que nous croyons savoir de l’IA.
La question n’est pas de savoir si les médias de masse rapportent fidèlement ce qui se passe. C’est qu’ils ne se contentent pas de rapporter : ils construisent une version du réel qui ensuite devient ce réel pour les publics qui en dépendent. Les études récentes sur la couverture médiatique de l’IA révèlent un processus largement top-down, où les narratifs dominants émanent d’un petit nombre d’acteurs puissants, tandis que les voix dissidentes ou simplement alternatives restent marginalisées. Mais il y a plus : ces narratifs dominants ont tendance à figer la complexité en essences, transformant des questions ouvertes en certitudes fermées. L’IA devient d’emblée dangereuse, ou d’emblée salvatrice, rarement incertaine.
Les mécanismes attentionnels de l’essentialisation
Dennis Nguyen, dans son étude sur la façon dont les médias anglophones cadrent les risques liés aux données et à l’IA, met en évidence un phénomène structural : la couverture médiatique ne reflète pas simplement la distribution empirique des risques, elle les amplifie de manière sélective selon une logique économique précise (Internet Policy Review, “How news media frame data risks in their coverage of big data and AI”, https://policyreview.info/articles/analysis/how-news-media-frame-data-risks-big-data-and-ai). Entre 2010 et 2021, les articles consacrés à l’IA et aux données massives ont augmenté exponentiellement, mais ce qui a frappé Nguyen, c’est que cette augmentation n’était nullement proportionnelle aux incidents réels. Plutôt, elle répondait à la découverte progressive de nouveaux domaines d’application de la technologie, qui engendraient de nouvelles catégories de risques perçus.
Or, pourquoi cette amplification ? Parce que le négatif attire. Non pas comme simple biais humain, mais comme économie. Les plateformes numériques, dont dépendent largement les revenus des médias traditionnels, récompensent le contenu émotionnellement chargé. La peur génère l’engagement. Elle génère les clics, les partages, la viralité. Cette logique transforme insensiblement le journalisme en spectacle de l’angoisse. Les vrais risques de l’IA existent, certes, mais ils se mélangent progressivement avec des inquiétudes plus spéculatives, des futurologies anxieuses qui prennent l’apparence de l’information urgente.
Sanguinetti et Palomo, dans leur étude quantitative couvrant 2023 et analysant les couvertures européennes et américaines post-ChatGPT, ont documenté précisément ce phénomène (Journal of Science Technology and Society, “AI Anxiety in European and American Newspapers”, https://a-mcc.eu/wp-content/uploads/2024/11/socsci-13-00608-with-cover.pdf). Après le lancement de ChatGPT, les articles consacrés à l’IA ont explosé : une augmentation de 5,16 fois en volume. Mais le plus intéressant n’est pas tant le volume que la tonalité. Les sentiments positifs ont chuté de 26,46 %, tandis que les sentiments négatifs ont grimpé de 58,84 %. L’indice d’anxiété globale a crû de 10,59 %. Cela ne signifie pas que les journalistes ont soudainement découvert des problèmes réels, cela signifie que le cadre narratif s’est déplacé. D’un enthousiasme technophile à une inquiétude par défaut.
Luke Williams, dans son analyse thématique des articles de 2024 publiés dans les trois plus grands journaux américains, a identifié huit cadres dominants structurant la couverture de l’IA (Virginia Tech, « Artificial Intelligence in 2024: A Thematic Analysis of Media Coverage », https://vtechworks.lib.vt.edu/bitstreams/ca6c755c-8f13-4e5f-b7ca-ce37a8518cf7/download). Ce qui frappe, c’est comment ces cadres essentialisent l’IA, la transformant en chose-à-redouter ou chose-à-célébrer, rarement en phénomène à interroger rigoureusement. Le cadre du « AI Boom vs. Bubble » enferme les lecteurs dans un dilemme binaire : ou l’IA est une révolution économique justifiée, ou c’est une bulle spéculative condamnée. Il n’y a pas de place pour penser que c’est peut-être les deux simultanément, que l’innovation réelle coexiste avec l’excès de capital investi, que cette tension elle-même structure le champ. De même, le cadre du « Misuse and Misinformation » tends à centrer toute la question morale autour de l’IA-comme-outil-de-mensonge, alors que les études montrent des résultats plus nuancés. Les deepfakes font peur, certains cas d’utilisation électorale existent, mais ce cadre occulte le fait que les vieilles méthodes de désinformation restent plus efficaces. En centrant la panique sur l’IA, les médias redirigent l’attention loin des problèmes systémiques de confiance qui existaient bien avant ChatGPT.
Roe et Perkins, analysant 671 titres britanniques, ont quantifié cette tendance à l’essentialisation : 37% des titres cadrent l’IA comme un danger imminent, 26% comme du contenu explicatif, seulement 11% comme des capacités positives (Nature, « What they’re not telling you about ChatGPT », https://www.nature.com/articles/s41599-023-02282-w). Cette distribution n’est pas l’expression neutre de la réalité, c’est un choix structurel qui prédispose le public à une certaine vision apeurée.
La crise identitaire des médias
James Hutson, dans son étude publiée par Lindenwood University, pose une question vertigineuse : l’amplification médiatique des erreurs et hallucinations de l’IA n’est-elle pas elle-même un symptôme de la crise existentielle du journalisme ? (Lindenwood University, “The Fear of Replacement: How AI Panic in Journalism Mirrors Existential Crisis in Industry”, https://digitalcommons.lindenwood.edu/cgi/viewcontent.cgi?article=1738&context=faculty-research-papers). En d’autres termes, la panique médiatique face à l’IA pourrait être moins une réaction proportionnée à des risques réels qu’une manifestation de l’anxiété professionnelle des journalistes face à leur propre obsolescence. Hutson documente un phénomène étrange : alors que les hallucinations d’IA sont statistiquement plus rares que les erreurs humaines, les médias focalisent de manière disproportionnée sur les défaillances des machines. Alors même que, selon certaines évaluations limitées à des tâches spécifiques, les systèmes d’IA atteignent des niveaux de performance comparables ou parfois supérieurs à ceux observés dans des pratiques journalistiques humaines, lesquelles restent elles-mêmes traversées par des taux significatifs d’erreurs et de biais. Entre 59 % des articles politiques contiennent des biais ou inexactitudes, mais on ne crie pas à la crise systémique de la cognition humaine avec le même ampleur. C’est qu’il y a quelque chose d’une peur transférée à l’œuvre : la peur que la machine ne remplace le travailleur se projette en peur que la machine ne soit imparfaite. L’imperfection devient preuve de danger, plutôt que reconnaissance de normalité. Plus profondément, Hutson explique que cette crise identitaire du journalisme est elle-même symptomatique d’une crise plus large : celle de toutes les institutions humaines face à l’automation. Si le journalisme panique, c’est parce que ses fonctions élémentaires (collecter l’information, la vérifier, la présenter) deviennent progressivement automatisable. Ce que redoute vraiment le journaliste, c’est non pas que l’IA soit mauvaise, mais que sa propre expertise devienne inutile. Et cette peur, une fois intériorisée, s’exprime comme récit d’effroi technologique.
Parallèlement, Williams note que la couverture de 2024 présente une simultanéité paradoxale : elle montre à la fois l’investissement et l’adoption de l’IA d’une part, tandis que de l’autre elle exacerbe la régulation et les exigences de sauvegarde. Cette simultanéité n’est pas simplement incohérente ; elle révèle la véritable fonction du discours médiatique : non pas informer mais maintenir les contradictions d’une économie de la technologie en place. Les entreprises veulent continuer à innover et à investir ; les gouvernements veulent préserver un semblant de contrôle démocratique ; la population veut qu’on lui rassure. Le discours médiatique navigue entre ces impératifs en produisant un récit qui permet à chacun de trouver une confirmation de ses présupposés.
Comment les GAFAM financent leur critique
Ce qui est crucial de comprendre, c’est que la critique de l’IA ne fonctionne pas en dehors du système qu’elle prétend critiquer. Elle fonctionne largement à l’intérieur d’une économie du financement contrôlée par les mêmes entreprises qui sont censées être critiquées. Google, par exemple, administre le programme « Google Academic Research Awards » qui distribue jusqu’à 60 000 dollars à des chercheurs en début de carrière pour financer des recherches sur des sujets d’IA (Google Research, « Google Academic Research Awards », https://research.google/programs-and-events/google-academic-research-awards/). Or, l’examen des conditions de ce programme révèle un mécanisme de capture sophistiqué : tout projet doit « fortement s’aligner avec les principes d’IA de Google » pour être admissible au financement. Ces principes, formulés par Google lui-même après une révolte interne d’employés contre le contrat Project Maven du Pentagone, deviennent ainsi le cadre normatif dans lequel la recherche critique peut prétendre exister. Une étude publiée dans AI and Ethics par des chercheurs en sciences humaines et sociales, approuvée par des pairs académiques, l’explique crûment : « Requirements attached to the funding of both the in-house and external research, as well as the control of dissemination research, has the potential to impact not only the independence of research but also the direction of research and innovation. Corporate-funded research usually comes with the requirement that projects be aligned with a company’s business interests and can be protected by non-disclosure agreements » (Springer, « Towards intellectual freedom in an AI Ethics Global Community », https://link.springer.com/article/10.1007/s43681-021-00052-5 et https://pmc.ncbi.nlm.nih.gov/articles/PMC8043756/).
Luke Stark, professeur assistant à Western University en Ontario, incarne parfaitement cette contradiction. En mars 2021, Stark avait reçu une bourse de 60 000 dollars du programme Google Academic Research Awards pour financer sa recherche sur les impacts sociaux et éthiques de l’IA. Or, quelques mois plus tôt, Google avait viré Timnit Gebru et Margaret Mitchell, les co-dirigeantes de son équipe d’éthique en IA, précisément parce qu’elles avaient produit des critiques rigoureuses des modèles de langage de grande taille (CNN Business, « Google offered a professor $60 000, but he turned it down. Here’s why”, https://www.cnn.com/2021/03/24/tech/google-ai-ethics-reputation/index.html). Stark, confronté à cette contradiction flagrante, a décidé de refuser la bourse. « Je ne peux pas en toute conscience accepter des fonds d’une entreprise qui traite ses employés de cette manière », a-t-il écrit à Google. Mais Stark était une exception. La plupart des chercheurs qui se voient offrir ces bourses les acceptent, créant ainsi un tissu de recherche critique qui demeure intégrée dans l’écosystème de financement des GAFAM. L’exemple de Kate Crawford, l’une des critiques académiques les plus rigoureuses et influentes de l’IA contemporaine. Crawford n’a pas refusé une bourse ; elle occupe un poste formel de Senior Principal Researcher à Microsoft Research à New York (Microsoft Research, « Kate Crawford », https://www.microsoft.com/en-us/research/people/kate/). Son livre Atlas of AI, largement salué pour sa déconstruction des coûts matériels et politiques de l’IA, a été traduit en douze langues et a remporté trois prix internationaux (Yale University Press, 2021). Elle dirige le Knowing Machines Project, une collaboration transatlantique enquêtant sur la façon dont les systèmes d’IA sont entraînés, et a co-fondé le groupe FATE (Fairness, Accountability, Transparency and Ethics in AI) directement chez Microsoft Research (Microsoft Blog, « Q&A with Microsoft Research’s Kate Crawford on Her New Book, Atlas of AI », https://blogs.microsoft.com/newengland/2021/10/25/qa-with-microsoft-researchs-kate-crawford-on-her-new-book-atlas-of-ai/). Crawford peut ainsi produire une critique radicale de l’IA et de ses impacts matériels tout en restant directement employée par l’une des entreprises les plus puissantes du secteur. Ce que cet arrangement rend possible, c’est une critique que Microsoft peut absorber, célébrer, et même institutionnaliser, sans que jamais elle ne remette en question l’expansion fondamentale de l’infrastructure que Microsoft construit. Ce qui pourrait sembler réfuter cette affirmation c’est que Crawford défend le déconnexionnisme. Mais la critique devient une fonction légitimante : elle prouve que l’entreprise prend au sérieux les enjeux éthiques, tout en le faisant précisément de manière à préserver l’intégrité de l’opération.
Pour comprendre l’ampleur de cette capture, il faut saisir que Google n’emploie pas seulement quelques centaines de chercheurs en IA. Le GAFAM (Google, Apple, Facebook, Amazon, Microsoft) a engagé des employés provenant des meilleures universités du monde (Springer, même article). Plusieurs dizaines de milliers de chercheurs, ingénieurs et experts issus des meilleures universités mondiales sont aujourd’hui employés directement ou indirectement par un nombre très restreint d’entreprises technologiques. Le monopole quasi-total sur l’expertise crée une situation où presque tous les penseurs critiques importants du domaine sont soit directement employés, soit financés par les bourses corporatives, soit occupent des postes rendus possibles par des subventions corporatives aux universités.
Cet arrangement fonctionne par une logique de co-optation. Google a annoncé en 2018 avec grande pompe la création d’un Advanced Technology External Advisory Council (ATEAC), censé fournir une supervision éthique indépendante. Le conseil comprenait des noms prestigieux : Joanna Bryson (experte en éthique de l’IA à l’Université de Bath), Dyan Gibbons (expert en systèmes non pilotés), Kay Coles James (expert en politique publique) (Google Blog, « An external advisory council to help advance the responsible development of AI », https://blog.google/technology/ai/external-advisory-council-help-advance-responsible-development-ai/). Quelques mois plus tard, le conseil a dû être dissous. L’explication officielle : « It’s become clear that in the current environment, ATEAC can’t function as we wanted. So we’re ending the council and going back to the drawing board. »
La raison non dite, mais évidente : un véritable conseil éthique indépendant entrerait fatalement en conflit avec les impératifs commerciaux et contractuels de l’entreprise. Comme l’explique un document d’analyse éthique : « A fundamental conflict of interest exists in corporate in-house and corporate-funded AI Ethics research… if an ethical AI analysis uncovers potential issues with the sponsoring company’s own product, the company has little incentive to acknowledge the issue and therefore provides little oversight on its resolution » (Springer, même source).
La situation devient encore plus transparente quand on examine la promesse brisée. Google avait formulé ses « AI Principles » en 2018 en réaction à la révolte interne contre Project Maven, un contrat du Pentagone pour le développement de technologies de reconnaissance vidéo destinées à des applications militaires. Or, comme l’analyse crûment l’étude publiée par SSIR : « Google’s own principles, developed in response to massive employee resistance to a Pentagon contract known as Project Maven, are currently being ignored by their desire to bid on a new multi-million dollar cloud contract with the US Department of Defense » (SSIR, “AI Ethics Are in Danger. Funding Independent Research Could Help”, https://ssir.org/articles/entry/ai_ethics_are_in_danger_funding_independent_research_could_help). Quand le profit l’exige, la critique interne d’éthique est simplement écrasée.
Ce qui est crucial à noter, c’est que ce type de discours n’est pas accidentel. C’est une stratégie politique consciente. Les chercheurs critiques acceptent le financement corporatif. Les universités acceptent les chaires financées par Google. Les conférences acceptent les sponsorisations de millions de dollars. Le résultat est un écosystème de critique qui ressemble à de l’autodérision corporative : les GAFAM font semblant de prendre au sérieux les préoccupations éthiques tout en les étouffant dès qu’elles menacent le profit. Le silence sur les enjeux véritablement structurels devient possible précisément parce que tout le discours critique est capturé et monétisé.
Panos Tsimpoukis, dans son analyse des discours sur l’IA dans la presse française et les médias sociaux de 2012 à 2022, documente une géographie claire du pouvoir discursif (Journal of Science Communication, « Contesting dominant AI narratives on an industry-shaped ground : public discourse and actors around AI in the french press and social media (2012-2022) », https://jcom.sissa.it/article/pubid/JCOM_2402_2025_A10). Entre 2016 et 2019, quatre grappes d’acteurs dominent le discours journalistique : les géants de la tech (Apple, Microsoft, Google, Amazon), les acteurs gouvernementaux français et européens, les constructeurs automobiles, et les industries de défense. Ces acteurs ne font pas simplement participer à la conversation ; ils la structurent. Le moment clé intervient en 2018, quand Emmanuel Macron annonce la stratégie française d’IA et que Cédric Villani publie son rapport. À partir de ce moment, le cadrage change. L’IA devient une question d’État, de souveraineté numérique, de compétition géopolitique.
La concentration du discours n’est pas une simple causalité : ce ne sont pas les gouvernements et les entreprises qui « captent » un débat public préexistant. Plutôt, ils créent les conditions mêmes où un débat public devient possible et pensable. Avant 2018, le discours sur les réseaux sociaux était plus éclaté, pluriel, moins centré. Après 2018, il se cristallise autour des narrations gouvernementales et industrielles. Mais l’analyse de Tsimpoukis révèle aussi quelque chose de plus encourageant : à partir de 2020, des narratifs alternatifs émergent et se consolident. La reconnaissance faciale devient un point de cristallisation. Des groupes d’activistes, des partis politiques, des intellectuels critiques commencent à construire une vision différente de l’IA, une qui se focalise sur la surveillance, sur la liberté, sur des enjeux concrets plutôt que sur l’innovation abstraite. Sur les réseaux sociaux, deux communautés antagonistes se forment : une composée de critiques technologiques et d’acteurs de gauche qui s’organisent autour d’enjeux éthiques, une autre composée d’acteurs d’extrême-droite et de diffuseurs de théories conspirationnistes.
Même les narratifs alternatifs dissidents adoptent une forme de discours polarisé. Les uns déconstruisent l’IA comme instrument de contrôle totalitaire ; les autres la sacralisent comme promesse transhumaniste. Il n’y a pas d’espace pour une simple curiosité empirique, pour une interrogation libérée des impératifs idéologiques, pour l’expérimentation. La polarisation elle-même devient la structure du débat, et cette polarisation est médiatiquement produite et continuellement renforcée. Même la critique ne s’échappe pas de la capture systémique ; elle la reproduit simplement sous une forme antagoniste.
La logistique silencieuse
Pendant que les débats médiatiques se cristallisent sur l’IA en tant que phénomène linguistique et éthique (ChatGPT parle trop bien, il produit du mensonge, il remplace le travailleur, ses algorithmes sont biaisés), une transformation matérielle bien plus vaste s’accélère, non pas cachée, mais largement visible, documentée, et néanmoins difficielement réversible. Les data centers ne sont qu’une composante visible d’une infrastructure globale dont dépendent intégralement nos existences contemporaines : électricité, connectivité, stockage, calcul, transport, logistique. L’IA en est un symptôme particulièrement révélateur, non parce qu’elle seule pose problème, mais parce qu’elle expose une limite que nous ne pouvons pas contourner sans renoncer à ce qui structure nos mondes.
L’IA est une technologie nouvelle, et précisément pour cela elle apparaît comme adoptable ou rejetable. On peut théoriquement dire non à ChatGPT. On ne peut plus difficilement dire non à l’électricité, à internet, aux routes, aux hôpitaux, aux supply chains mondiales. L’infrastructure générale est invisible non parce qu’elle est cachée, mais parce qu’elle est constitutive. Nous ne la voyons pas car elle constitue le sol même sur lequel nos existences se déploient. L’IA, en revanche, apparaît comme une couche additionnelle, optionnelle, une chose qu’on pourrait réguler, ralentir, transformer. C’est une illusion, mais une illusion productrice : elle nous donne l’impression que des choix restent possibles.
Commençons par ce qui est documenté et largement reconnu : la consommation matérielle des data centers liés à l’IA.
Des estimations reconstruites à partir des infrastructures connues de calcul et de refroidissement suggèrent que l’entraînement de modèles de la taille de GPT-3 pourrait correspondre à une consommation de l’ordre de plusieurs centaines de milliers de litres d’eau. Certaines estimations, basées sur des moyennes de consommation énergétique et hydrique des data centers, suggèrent qu’un usage standardisé de modèles de langage peut correspondre à l’ordre de plusieurs centaines de millilitres d’eau pour une requête textuelle de taille moyenne. Multiplié par les milliards de prompts adressés quotidiennement par les utilisateurs globaux, cela représente une consommation d’eau massive, prélevée sur des aquifères et des systèmes hydriques qui ne peuvent pas la compenser.
Un data center typique consomme 300 000 gallons d’eau par jour, équivalent à la consommation d’eau d’environ 1 000 ménages. Les plus grandes installations peuvent consommer 5 à 6 millions de gallons par jour, équivalent aux besoins d’une ville de 50 000 habitants. Meta a construit un data center en Géorgie qui consomme 500 000 gallons d’eau quotidiennement, représentant 10 pour cent de la consommation d’eau de l’intégralité du comté de Newton.
Les chiffres absolus sont vertigineux. Les data centers américains ont directement consommé 21,2 milliards de litres d’eau en 2014 et 66 milliards de litres en 2023. Cette croissance explosive en neuf années reflète la trajectoire de la mise en service de nouvelles capacités informatiques. Par contraste, quand on regarde les projections de Cornell University pour 2030, on voit que d’ici cette date, les data centers américains pourraient consommer annuellement autant d’eau qu’en consomment 10 millions d’Américains.
Or, où sont situés ces data centers ? Non pas dans les régions avec une abondance d’eau et d’électricité renouvelable. Ils sont situés de manière stratégique selon les avantages fiscaux, l’infrastructure fibre optique existante, et la proximité des centres politiques de pouvoir. Loudoun County en Virginie du Nord héberge environ 300 data centers, regroupant la plus grande densité de centres de traitement de données du monde. Cette région connaît un stress hydrique extrême. La consommation d’eau y a augmenté de 250 pour cent depuis 2019. Des communautés locales qui dépendaient de ressources hydriques stables pendant des décennies se trouvent soudainement en situation de pénurie.
Plus de 160 nouveaux data centers consacrés à l’IA ont été construits aux États-Unis en trois ans, situés de manière prépondérante dans des régions ayant déjà connaître des problèmes de stress hydrique. La Virginie du Nord, le Colorado, le Nevada, l’Utah, des régions déjà affectées par la sécheresse, deviennent des zones d’extraction d’eau pour alimenter l’infrastructure computationnelle concentrée à Silicon Valley.
L’impact énergétique est tout aussi vertigineux. Entre 2022 et 2023, la consommation électrique des data centers nord-américains a doublé, passant de 2 688 mégawatts à 5 341 mégawatts. Globalement, la consommation électrique des data centers a atteint 460 terawatts-heures en 2022, ce qui aurait fait des data centers le 11e plus grand consommateur d’électricité du monde. Les projections estiment qu’en 2026, cette consommation approchera 1 050 terawatts-heures, classant les data centers au 5e rang mondial.
Les estimations de Cornell indiquent que si l’IA continue sa croissance, les data centers américains produiront entre 24 et 44 millions de tonnes de dioxyde de carbone par an d’ici 2030. Cela équivaut à ajouter 5 à 10 millions de voitures supplémentaires aux routes américaines. Ces émissions rendraient impossible le respect des objectifs climatiques affichés par l’industrie elle-même. Car à cause de la croissance des data centers liés à l’IA, tous les autres secteurs consommateurs d’électricité devraient augmenter leurs réductions d’émissions de 60 pour cent pour encore pouvoir atteindre les objectifs climatiques américains.
Mais voici le point crucial : tout cela est connu, documenté, et largement discuté. Les chercheurs en environnement publient des analyses détaillées. Les médias couvrent les projets de data centers. Les gouvernements passent des contrats et débattent de régulations. Les citoyens protestent. Ce n’est pas un phénomène occulté comme celui que je décrivais précédemment pour les narratifs médiatiques. C’est une réalité visible, et précisément parce qu’elle est visible, le problème devient plus complexe.
Car la question qui se pose n’est pas : pourquoi ne parle-t-on pas de l’infrastructure des data centers ? C’est : sachant cela, que faire ?
Et la réponse revient à la limite incontournable : nous dépendons entièrement de cette infrastructure. Non pas de l’IA spécifiquement, mais de l’infrastructure électrique, hydrique, computationnelle globale. Chaque transaction bancaire, chaque appel téléphonique, chaque requête internet, chaque stockage de données médicales, éducatives, gouvernementales : tout cela repose sur des data centers. L’IA n’en est qu’une part croissante, certains disent qu’elle ne représente qu’entre 10 et 15 pour cent de la consommation totale des data centers, le reste étant streaming vidéo, réseaux sociaux, services cloud génériques. Mais cette part croît à un rythme vertigineux.
Le problème n’est donc pas qu’on occulte cette infrastructure. C’est qu’on ne peut l’arrêter sans transformer radicalement le fonctionnement entier de la civilisation contemporaine. On parle donc de l’IA, on la critique, on la réglemente, on débat de sa gouvernance, précisément parce qu’elle semble pouvoir être freinée, tandis que l’infrastructure globale dont elle dépend semble devoir continuer à croître coûte que coûte.
C’est ce qui rend la critique de l’IA à la fois justifiée et symptomatique d’une cécité plus grande. Oui, il y a des questions éthiques légitimes autour des modèles de langage, des biais algorithmiques, de la transparence. Mais ces questions se posent sur un fond d’une infrastructure matérielle dont nous avons massivement augmenté la demande en prétendant résoudre ses problèmes. Les promesses des entreprises technologiques de devenir « water positive by 2030 » ou « carbon neutral by 2030 » ont été formulées avant l’explosion de l’IA, avant que les projections de consommation ne décuplent. Ces engagements ne tiennent pas compte de l’expansion qu’elles ont elles-mêmes engendrée.
Et voici le paradoxe qui mérite d’être souligné : la critique de l’IA, même la plus rigoureuse, reste captive d’une illusion de gouvernabilité. En débattant de la régulation, de l’éthique, de la transparence de l’IA, on accepte implicitement que ces technologies peuvent être maîtrisées, orientées, contrôlées. Or, ce qui se joue n’est pas la gouvernance d’une technologie particulière. C’est l’impossibilité même d’arrêter la croissance d’une infrastructure globale dont nous sommes tous les dépendants et dont aucun d’entre nous ne peut s’extraire sans coût social massif.
Les aquifères s’épuisent. Les écosystèmes se modifient. Les émissions de carbone explosent. Et nous continuons, car nous ne pouvons pas arrêter sans renoncer à l’électricité, aux hôpitaux, à la communication, au transport, à l’alimentation elle-même. L’IA est un symptôme visible et nouvelle de ce dilemme, ce qui la rend paradoxalement plus facile à critiquer que l’infrastructure entière dont elle ne représente qu’une fraction croissante.
Vers une déconstruction du sens commun
Ce qui ressort de l’ensemble de ces analyses, c’est qu’on ne peut pas parler de « la » couverture médiatique de l’IA comme si c’était une entité unifiée rapportant des faits. Il y a plutôt une lutte continue pour imposer des cadres, une bataille d’acteurs puissants (gouvernements, entreprises) pour structurer le champ de ce qui peut être pensé. Les médias ne reflètent pas simplement cette lutte, ils en sont les acteurs et les principaux médiums. Et nous, en tant que consommateurs de ces médias, sommes pris dans une position ambiguë : on croit former son opinion indépendamment, or cette opinion s’est largement formée par la circulation de catégories imposées, par la répétition de thèmes que les médias dominants définissent comme centraux.
Mais cette capture n’est jamais totale. Les analyses de Tsimpoukis montrent qu’après 2020, des narratifs alternatifs émergent et se consolident. Des voix critiques, des activistes, des penseurs indépendants parviennent à articuler des visions différentes. La polarisation elle-même crée des espaces : si le discours mainstream défend l’innovation sans limites, les critiques qui s’opposent créent un contre-discours. Celui-ci peut être idéologiquement fermé à sa manière, mais il existe. La question n’est donc pas de chercher une couverture parfaitement objective—il n’y en a pas. C’est de reconnaître que pluraliser les cadres, créer de multiples points d’entrée dans la complexité, reste possible, même difficile.
Ce qu’on peut faire en tant qu’individus, c’est devenir conscient de ces mécanismes : apprendre à déconstruire les essentialisations, à repérer où la peur du journaliste projette sa propre crise existentielle, où le gouvernement cherche à imposer sa vision de la souveraineté, où l’industrie tente de se légitimer. Mais cette conscience a elle-même ses limites. Même les critiques les plus virulentes du système restent enchâssées dans l’infrastructure qu’elles critiquent. Même ce texte, qui dénonce les mécanismes de capture, bénéficie d’une infrastructure d’édition, de diffusion, de stockage qui pose les mêmes problèmes qu’il pose.
Le vrai problème que soulève ce panorama n’est donc pas simplement que les médias nous trompent ou que la critique est cooptée. C’est que nous ne savons pas vraiment ce que nous faisons, collectivement, en mettant en place et en dépendant d’une infrastructure dont nous ne pouvons pas évaluer les conséquences ultimes. Cela concerne l’IA, mais cela concerne aussi l’énergie, l’agriculture industrielle, les transports, la finance numérique. Ce qui est peut-être plus honnête qu’une certitude terrifiée ou optimiste, c’est de dire : il y a des opportunités réelles et des risques réels, imbriqués de manière complexe. Nous ignorons ce que nous découvrirons à long terme. Nous savons seulement que nous avons construit quelque chose dont nous dépendons maintenant entièrement, et dont on ne peut pas examiner les conséquences sans examiner la société entière qui l’a rendu possible.
Un tel discours serait honnête, mais il n’offre pas les satisfactions que nous cherchons dans les récits publics : ni la certitude rassurante que tout ira bien si on innove assez, ni la certitude terrifiante qu’il est temps de tout arrêter. Il offre seulement l’incertitude partagée et la responsabilité partagée. C’est pour cela que les structures médiatiques, architecturées pour produire des émotions fortes et des certitudes mobilisatrices, peinent à le véhiculer.
Mais le manque de couverture médiatique de cette incertitude n’est pas une conspiration. C’est une conséquence structurelle de la manière dont les médias de masse—orientés vers l’engagement, l’urgence, la dramatisation—fonctionnent. Ce qui serait nécessaire pour transformer cela n’est pas simplement une meilleure éthique journalistique. C’est une transformation des structures médiatiques elles-mêmes, et plus largement, une transformation de ce qui nous pousse à chercher constamment de la certitude dans un monde intrinsèquement incertain. Tant que nous resteron pris dans cette quête, on restera prisonnier de ces boucles où la peur fabrique la pensée, où la pensée se referme en slogans, où les slogans deviennent réalité, où les infrastructures matérielles s’effondrent en silence pendant que nous débattons des enjeux que les cadres médiatiques nous ont présenté comme centraux.
Since the massive deployment of ChatGPT in 2022, we have witnessed a particular crystallization of public discourse around artificial intelligence. What strikes first is not the diversity of opinions but their concentration around a quasi-ritualistic refusal, a mistrust that has become structural: conscientious objection, manifesto, declaration, and so on. AI is no longer thought about; it is endlessly repeated. The same concerns loop back again and again, producing an effect of certainty that obscures the real issues. This fatalism in discourse does not emanate spontaneously from the population but results from a complex process of media construction, where journalistic choices, the intentions of public and private powers, and the deep mechanisms of attention industries shape what we believe we know about AI.
The question is not whether mass media faithfully report what is happening. It is that they do not merely report: they construct a version of reality that then becomes that reality for the publics who depend on it. Recent studies on media coverage of AI reveal a largely top-down process, where dominant narratives emanate from a small number of powerful actors, while dissenting or simply alternative voices remain marginalized. But there is more: these dominant narratives tend to freeze complexity into essences, transforming open questions into closed certainties. AI becomes immediately dangerous, or immediately salvific, rarely uncertain.
The Attentional Mechanisms of Essentialization
Dennis Nguyen, in his study of how English-language media frame data and AI risks, highlights a structural phenomenon: media coverage does not simply reflect the empirical distribution of risks; it amplifies them selectively according to a precise economic logic (Internet Policy Review, “How news media frame data risks in their coverage of big data and AI”). Between 2010 and 2021, articles devoted to AI and big data increased exponentially, but what struck Nguyen was that this increase was in no way proportional to actual incidents. Rather, it responded to the progressive discovery of new domains of technological application, which generated new categories of perceived risks.
But why this amplification? Because negativity attracts. Not as a simple human bias, but as an economy. Digital platforms, on which traditional media revenues largely depend, reward emotionally charged content. Fear generates engagement. It generates clicks, shares, virality. This logic imperceptibly transforms journalism into a spectacle of anxiety. Real risks from AI certainly exist, but they gradually mix with more speculative concerns, anxious futurologies that take on the appearance of urgent information.
Sanguinetti and Palomo, in their quantitative study covering 2023 and analyzing European and American coverage post-ChatGPT, documented this phenomenon precisely (Journal of Science Technology and Society, “AI Anxiety in European and American Newspapers”). After the ChatGPT launch, articles devoted to AI exploded: a 5.16-fold increase in volume. But the most interesting aspect is not so much the volume as the tone. Positive sentiment dropped 26.46%, while negative sentiment climbed 58.84%. The overall anxiety index grew by 10.59%. This does not mean that journalists suddenly discovered real problems; it means that the narrative frame shifted. From technophile enthusiasm to default anxiety.
Luke Williams, in his thematic analysis of articles from 2024 published in the three largest American newspapers, identified eight dominant frames structuring AI coverage (Virginia Tech, “Artificial Intelligence in 2024: A Thematic Analysis of Media Coverage”). What strikes is how these frames essentialize AI, transforming it into something-to-fear or something-to-celebrate, rarely into a phenomenon to interrogate rigorously. The “AI Boom vs. Bubble” frame traps readers in a binary dilemma: either AI is a justified economic revolution, or it is a doomed speculative bubble. There is no room to think that maybe it is both simultaneously, that real innovation coexists with excess invested capital, that this tension itself structures the field. Similarly, the “Misuse and Misinformation” frame tends to center the entire moral question around AI-as-a-tool-of-lies, when studies show more nuanced results. Deepfakes frighten, certain electoral use cases exist, but this frame obscures the fact that old misinformation methods remain more effective. By centering panic on AI, media redirect attention away from systemic trust problems that existed long before ChatGPT.
Roe and Perkins, analyzing 671 British headlines, quantified this tendency toward essentialization: 37% of headlines frame AI as an imminent danger, 26% as explanatory content, only 11% as positive capabilities (Nature, “What they’re not telling you about ChatGPT”). This distribution is not a neutral expression of reality; it is a structural choice that predisposes the public to a fearful vision.
The Identity Crisis of Media
James Hutson, in his study published by Lindenwood University, poses a vertiginous question: is not the media amplification of AI errors and hallucinations itself a symptom of journalism’s existential crisis? (Lindenwood University, “The Fear of Replacement: How AI Panic in Journalism Mirrors Existential Crisis in Industry”). In other words, media panic about AI might be less a proportionate reaction to real risks than a manifestation of journalists’ professional anxiety about their own obsolescence. Hutson documents a strange phenomenon: while AI hallucinations are statistically rarer than human errors, media disproportionately focus on machine failures. Even though, according to certain evaluations limited to specific tasks, AI systems achieve performance levels comparable to or sometimes superior to those observed in human journalistic practices, which themselves remain traversed by significant rates of errors and biases. Between 59% of political articles contain bias or inaccuracy, yet we do not cry out about a systemic crisis of human cognition with the same force. There is something of a transferred fear at work: the fear that the machine will replace the worker projects itself as fear that the machine is imperfect. Imperfection becomes proof of danger rather than recognition of normalcy. More deeply, Hutson explains that this identity crisis in journalism is itself symptomatic of a broader crisis: that of all human institutions facing automation. If journalism panics, it is because its elementary functions (collecting information, verifying it, presenting it) become progressively automatable. What the journalist truly dreads is not that AI is bad, but that their own expertise becomes useless. And this fear, once internalized, expresses itself as a narrative of technological dread.
Simultaneously, Williams notes that 2024 coverage presents a paradoxical simultaneity: it shows both the investment and adoption of AI on one hand, while on the other it exacerbates regulation and safeguarding requirements. This simultaneity is not simply incoherent; it reveals the true function of media discourse: not to inform but to maintain the contradictions of an in-place technology economy. Companies want to continue to innovate and invest; governments want to preserve a semblance of democratic control; the population wants reassurance. Media discourse navigates between these imperatives by producing a narrative that allows each to find confirmation of their presuppositions.
How GAFAM Finance Their Critique
What is crucial to understand is that critique of AI does not function outside the system it claims to critique. It functions largely within an economy of financing controlled by the same companies that are supposedly being criticized. Google, for example, administers the “Google Academic Research Awards” program which distributes up to $60,000 to early-career researchers to fund AI research (Google Research, “Google Academic Research Awards”). Yet examination of this program’s conditions reveals a sophisticated capture mechanism: any project must “strongly align with Google’s AI Principles” to be eligible for funding. These principles, formulated by Google itself after internal employee revolt against the Pentagon’s Project Maven contract, thus become the normative framework within which critical research can claim to exist. A study published in AI and Ethics by researchers in humanities and social sciences, approved by academic peers, explains it bluntly: “Requirements attached to the funding of both the in-house and external research, as well as the control of dissemination research, has the potential to impact not only the independence of research but also the direction of research and innovation. Corporate-funded research usually comes with the requirement that projects be aligned with a company’s business interests and can be protected by non-disclosure agreements” (Springer, “Towards intellectual freedom in an AI Ethics Global Community”).
Luke Stark, Assistant Professor at Western University in Ontario, perfectly embodies this contradiction. In March 2021, Stark received a $60,000 grant from the Google Academic Research Awards program to fund his research on the social and ethical impacts of AI. Yet, a few months earlier, Google had fired Timnit Gebru and Margaret Mitchell, co-directors of its AI ethics team, precisely because they had produced rigorous critiques of large language models (CNN Business, “Google offered a professor $60,000, but he turned it down. Here’s why”). Stark, confronted with this glaring contradiction, decided to refuse the grant. “I cannot in good conscience accept funds from a company that treats its employees this way,” he wrote to Google. But Stark was an exception. Most researchers offered these grants accept them, thus creating a tissue of critical research that remains integrated into the GAFAM funding ecosystem. Consider the example of Kate Crawford, one of the most rigorous and influential academic critics of contemporary AI. Crawford did not refuse a grant; she holds a formal position as Senior Principal Researcher at Microsoft Research in New York (Microsoft Research, “Kate Crawford”). Her book Atlas of AI, widely praised for its deconstruction of the material and political costs of AI, has been translated into twelve languages and won three international prizes (Yale University Press, 2021). She directs the Knowing Machines Project, a transatlantic collaboration investigating how AI systems are trained, and co-founded the FATE group (Fairness, Accountability, Transparency and Ethics in AI) directly at Microsoft Research (Microsoft Blog, “Q&A with Microsoft Research’s Kate Crawford on Her New Book, Atlas of AI”). Crawford can thus produce a radical critique of AI and its material impacts while remaining directly employed by one of the most powerful companies in the sector. What this arrangement makes possible is a critique that Microsoft can absorb, celebrate, and even institutionalize, without ever it questioning the fundamental expansion of the infrastructure Microsoft builds. What might seem to refute this claim is that Crawford defends disconnectionism. Critique thus becomes a legitimating function: it proves that the company takes ethical issues seriously, while doing so precisely in a way that preserves the integrity of the operation.
To grasp the extent of this capture, one must understand that Google does not employ only a few hundred AI researchers. GAFAM (Google, Apple, Facebook, Amazon, Microsoft) has engaged employees from the world’s best universities (Springer, same article). Several tens of thousands of researchers, engineers, and experts from the world’s leading universities are today employed directly or indirectly by a very restricted number of technology companies. The near-total monopoly on expertise creates a situation where almost all important critical thinkers in the field are either directly employed, funded by corporate grants, or occupy positions made possible by corporate subsidies to universities.
This arrangement functions through a logic of co-optation. Google announced in 2018 with great pomp the creation of an Advanced Technology External Advisory Council (ATEAC), supposedly to provide independent ethical oversight. The council included prestigious names: Joanna Bryson (AI ethics expert at the University of Bath), Dyan Gibbons (expert in uncrewed systems), Kay Coles James (public policy expert) (Google Blog, “An external advisory council to help advance the responsible development of AI”). A few months later, the council had to be dissolved. The official explanation: “It’s become clear that in the current environment, ATEAC can’t function as we wanted. So we’re ending the council and going back to the drawing board.”
The unstated but obvious reason: a genuine independent ethics council would inevitably conflict with the company’s commercial and contractual imperatives. As an ethical analysis document explains: “A fundamental conflict of interest exists in corporate in-house and corporate-funded AI Ethics research… if an ethical AI analysis uncovers potential issues with the sponsoring company’s own product, the company has little incentive to acknowledge the issue and therefore provides little oversight on its resolution” (Springer, same source).
The situation becomes even more transparent when examining the broken promise. Google had formulated its “AI Principles” in 2018 in reaction to internal revolt against Project Maven, a Pentagon contract for developing video recognition technologies for military applications. Yet, as the study published by SSIR bluntly analyzes: “Google’s own principles, developed in response to massive employee resistance to a Pentagon contract known as Project Maven, are currently being ignored by their desire to bid on a new multi-million dollar cloud contract with the US Department of Defense” (SSIR, “AI Ethics Are in Danger. Funding Independent Research Could Help”). When profit demands it, internal ethical critique is simply crushed.
What is crucial to note is that this type of discourse is not accidental. It is a conscious political strategy. Critical researchers accept corporate funding. Universities accept Google-funded chairs. Conferences accept multi-million dollar sponsorships. The result is an ecosystem of critique that resembles corporate self-mockery: GAFAM pretends to take ethical concerns seriously while stifling them as soon as they threaten profit. Silence on truly structural issues becomes possible precisely because all critical discourse is captured and monetized.
Panos Tsimpoukis, in his analysis of AI discourse in French press and social media from 2012 to 2022, documents a clear geography of discursive power (Journal of Science Communication, “Contesting dominant AI narratives on an industry-shaped ground: public discourse and actors around AI in the french press and social media (2012-2022)”). Between 2016 and 2019, four clusters of actors dominate journalistic discourse: tech giants (Apple, Microsoft, Google, Amazon), French and European government actors, automakers, and defense industries. These actors do not simply participate in the conversation; they structure it. The key moment comes in 2018, when Emmanuel Macron announces the French AI strategy and Cédric Villani publishes his report. From that moment, the framing changes. AI becomes a question of state, digital sovereignty, geopolitical competition.
Concentration of discourse is not a simple causality: it is not governments and companies that “capture” a pre-existing public debate. Rather, they create the very conditions where a public debate becomes possible and thinkable. Before 2018, discourse on social media was more scattered, plural, less centered. After 2018, it crystallizes around government and industrial narratives. But Tsimpoukis’s analysis also reveals something more encouraging: from 2020 onward, alternative narratives emerge and consolidate. Facial recognition becomes a crystallization point. Activist groups, political parties, critical intellectuals begin to construct a different vision of AI, one that focuses on surveillance, on freedom, on concrete issues rather than abstract innovation. On social media, two antagonistic communities form: one composed of technological critics and left-wing actors organizing around ethical issues, another composed of far-right actors and conspiracy theory disseminators.
Even dissenting alternative narratives adopt a form of polarized discourse. Some deconstruct AI as an instrument of totalitarian control; others sacralize it as a transhumanist promise. There is no space for simple empirical curiosity, for interrogation freed from ideological imperatives, for experimentation. Polarization itself becomes the structure of debate, and this polarization is media-produced and continuously reinforced. Even critique does not escape systematic capture; it simply reproduces it in an antagonistic form.
The Silent Logistics
While media debates crystallize around AI as a linguistic and ethical phenomenon (ChatGPT speaks too well, it produces lies, it replaces the worker, its algorithms are biased), a far vaster material transformation accelerates, not hidden, but largely visible, documented, and nevertheless difficult to reverse. Data centers are only one visible component of a global infrastructure on which our contemporary existences entirely depend: electricity, connectivity, storage, computation, transport, logistics. AI is a particularly revealing symptom, not because it alone poses problems, but because it exposes a limit we cannot circumvent without renouncing what structures our worlds.
AI is a new technology, and precisely for that reason it appears adoptable or rejectable. One could theoretically say no to ChatGPT. One can scarcely say no to electricity, to the internet, to roads, to hospitals, to global supply chains. General infrastructure is invisible not because it is hidden, but because it is constitutive. We do not see it because it constitutes the very ground on which our existences unfold. AI, by contrast, appears as an additional layer, optional, a thing one could regulate, slow down, transform. It is an illusion, but a productive one: it gives us the impression that choices remain possible.
Let us begin with what is documented and widely recognized: the material consumption of AI-related data centers.
Estimates reconstructed from known computing and cooling infrastructure suggest that training models the size of GPT-3 could correspond to consumption on the order of hundreds of thousands of liters of water. Some estimates, based on average data center energy and water consumption, suggest that standardized use of language models can correspond on the order of hundreds of milliliters of water for an average-sized text query. Multiplied by the billions of prompts addressed daily by global users, this represents massive water consumption, drawn from aquifers and water systems that cannot compensate for it.
A typical data center consumes 300,000 gallons of water per day, equivalent to the water consumption of approximately 1,000 households. The largest facilities can consume 5 to 6 million gallons per day, equivalent to the needs of a city of 50,000 inhabitants. Meta built a data center in Georgia that consumes 500,000 gallons of water daily, representing 10 percent of the entire water consumption of Newton County.
The absolute figures are vertiginous. U.S. data centers directly consumed 21.2 billion liters of water in 2014 and 66 billion liters in 2023. This explosive growth in nine years reflects the trajectory of new computing capacity deployment. In contrast, when looking at Cornell University projections for 2030, we see that by that date, American data centers could consume annually as much water as is consumed by 10 million Americans.
Yet where are these data centers located? Not in regions with abundant water and renewable electricity. They are strategically positioned according to tax advantages, existing fiber optic infrastructure, and proximity to centers of political power. Loudoun County in Northern Virginia hosts approximately 300 data centers, grouping the world’s greatest density of data processing centers. This region experiences extreme water stress. Water consumption there has increased 250 percent since 2019. Local communities that relied on stable water resources for decades suddenly find themselves in shortage situations.
More than 160 new AI-dedicated data centers were built in the United States in three years, situated predominantly in regions already experiencing water stress problems. Northern Virginia, Colorado, Nevada, Utah—regions already affected by drought—become water extraction zones to fuel the computational infrastructure concentrated in Silicon Valley.
The energy impact is equally vertiginous. Between 2022 and 2023, electrical consumption of North American data centers doubled, from 2,688 megawatts to 5,341 megawatts. Globally, electrical consumption of data centers reached 460 terawatt-hours in 2022, which would have made data centers the world’s 11th largest electricity consumer. Projections estimate that by 2026, this consumption will approach 1,050 terawatt-hours, ranking data centers 5th globally.
Cornell estimates indicate that if AI continues its growth, American data centers will produce between 24 and 44 million tons of carbon dioxide per year by 2030. This equals adding 5 to 10 million additional cars to American roads. These emissions would make it impossible to meet the climate objectives publicly stated by the industry itself. Because of data center growth related to AI, all other electricity-consuming sectors should increase their emission reductions by 60 percent to still manage to meet American climate objectives.
But here is the crucial point: all of this is known, documented, and widely discussed. Environmental researchers publish detailed analyses. Media cover data center projects. Governments sign contracts and debate regulations. Citizens protest. This is not an occluded phenomenon like the one I described earlier for media narratives. This is a visible reality, and precisely because it is visible, the problem becomes more complex.
Because the question that arises is not: why does no one speak of data center infrastructure? It is: knowing this, what do we do?
And the answer returns to the inescapable limit: we are entirely dependent on this infrastructure. Not on AI specifically, but on global electrical, water, and computational infrastructure. Every bank transaction, every phone call, every internet query, every storage of medical, educational, government data: all of this rests on data centers. AI is only a growing part of it; some say it represents only between 10 and 15 percent of total data center consumption, the rest being video streaming, social networks, generic cloud services. But this share is growing at a vertiginous pace.
The problem is therefore not that we occlude this infrastructure. It is that we cannot stop it without radically transforming the functioning of entire contemporary civilization. So we speak of AI, criticize it, regulate it, debate its governance, precisely because it seems it can be slowed, while the global infrastructure on which it depends seems destined to continue growing at any cost.
This is what makes AI critique both justified and symptomatic of greater blindness. Yes, there are legitimate ethical questions around language models, algorithmic bias, transparency. But these questions pose themselves on the foundation of material infrastructure whose demand we have massively increased while pretending to solve its problems. The promises of technology companies to become “water positive by 2030” or “carbon neutral by 2030” were formulated before the AI explosion, before consumption projections decupled. These commitments do not account for the expansion they themselves have generated.
And here is the paradox that deserves to be underscored: even the most rigorous AI critique remains captive to an illusion of governability. By debating AI regulation, ethics, and transparency, we implicitly accept that these technologies can be mastered, oriented, controlled. Yet what is at stake is not the governance of a particular technology. It is the very impossibility of stopping the growth of a global infrastructure on which we are all dependent and from which none of us can extract ourselves without massive social cost.
Aquifers deplete. Ecosystems transform. Carbon emissions explode. And we continue, because we cannot stop without renouncing electricity, hospitals, communication, transport, food itself. AI is a visible and new symptom of this dilemma, which paradoxically makes it easier to critique than the entire infrastructure of which it represents only a growing fraction.
Toward a Deconstruction of Common Sense
What emerges from all these analyses is that one cannot speak of “the” media coverage of AI as if it were a unified entity reporting facts. There is rather continuous struggle to impose frames, a battle of powerful actors (governments, companies) to structure the field of what can be thought. Media do not simply reflect this struggle; they are its actors and primary mediums. And we, as consumers of these media, find ourselves in an ambiguous position: we believe we form our opinion independently, yet this opinion has largely formed through the circulation of imposed categories, through the repetition of themes that dominant media define as central.
But this capture is never total. Tsimpoukis’s analyses show that from 2020 onward, alternative narratives emerge and consolidate. Critical voices, activists, independent thinkers manage to articulate different visions. Polarization itself creates spaces: if mainstream discourse defends unlimited innovation, opposing critiques create counter-discourse. This can be ideologically closed in its own way, but it exists. The question is therefore not to seek perfectly objective coverage—there is none. It is to recognize that pluralizing frames, creating multiple entry points into complexity, remains possible, even difficult.
What we can do as individuals is become conscious of these mechanisms: learn to deconstruct essentializations, identify where a journalist’s fear projects their own existential crisis, where government seeks to impose its vision of sovereignty, where industry attempts to legitimize itself. But this consciousness itself has its limits. Even the most virulent critics of the system remain embedded in the infrastructure they critique. Even this text, which denounces capture mechanisms, benefits from an infrastructure of editing, dissemination, storage that poses the same problems it poses.
The real problem this panorama raises is therefore not simply that media deceive us or that critique is co-opted. It is that we do not truly know what we are doing collectively in establishing and depending on an infrastructure whose ultimate consequences we cannot evaluate. This concerns AI, but it also concerns energy, industrial agriculture, transport, digital finance. What might be more honest than a terrified or optimistic certainty is to say: there are real opportunities and real risks, imbricated in complex ways. We ignore what we will discover in the long term. We only know that we have built something we now entirely depend on, and one cannot examine the consequences without examining the entire society that made it possible.
Such discourse would be honest, but it does not offer the satisfactions we seek in public narratives: neither the reassuring certainty that all will be well if we innovate enough, nor the terrifying certainty that it is time to stop everything. It offers only shared uncertainty and shared responsibility. This is why media structures, architected to produce strong emotions and mobilizing certainties, struggle to convey it.
But the lack of media coverage of this uncertainty is not a conspiracy. It is a structural consequence of how mass media—oriented toward engagement, urgency, dramatization—function. What would be necessary to transform this is not simply better journalistic ethics. It is a transformation of media structures themselves, and more broadly, a transformation of what drives us to constantly seek certainty in an intrinsically uncertain world. As long as we remain caught in this quest, we remain prisoner of these loops where fear manufactures thought, where thought closes into slogans, where slogans become reality, where material infrastructures collapse silently while we debate the issues that media frames have presented as central.