Sens et aliénation

Les intelligences artificielles contemporaines se heurtent à une aporie fondamentale : comment passer de la similarité vectorielle à la compositionnalité sémantique ? Entre le continu des LLM et le discret des graphes de connaissances se joue la possibilité même d’une intelligence artificielle capable de genèse sémantique authentique.

Les grands modèles de langage actuels excellent dans la proximité contextuelle. Ils représentent les mots et concepts comme des points dans un espace vectoriel de haute dimension, où la distance métrique encode des similarités d’usage linguistique.

Prenons un exemple qui nous accompagnera tout au long de cette réflexion : l’expression “animal volant rouge”. Comment un LLM traite-t-il cette séquence ? Il ne la construit pas par composition fonctionnelle, en prenant les propriétés “animal”, “volant” et “rouge” pour les fusionner selon des règles morphologiques explicites. Au lieu de cela, le modèle active des régions de son espace vectoriel correspondant aux cooccurrences statistiques apprises dans ses données d’entraînement. Il “sait” que “oiseau” ou “perroquet” seraient des continuations probables, non parce qu’il aurait raisonné sur les propriétés communes aux animaux volants rouges, mais parce que ces associations ont été renforcées statistiquement durant l’apprentissage.

Cette approche révèle plusieurs limitations structurelles. L’absence de structure manipulable constitue le premier obstacle. Les LLM ne représentent pas les relations entre concepts sous forme de structures directement accessibles et modifiables. Certes, les architectures transformers exploitent des mécanismes sophistiqués : les têtes d’attention se spécialisent dans la capture de relations syntaxiques ou sémantiques spécifiques, certaines traquant les dépendances sujet-verbe, d’autres les relations anaphoriques. Mais ces structures demeurent latentes, encodées implicitement dans les poids du réseau. Elles ne peuvent être inspectées, corrigées ou composées de manière directe comme le permettraient des représentations symboliques explicites.

Pour notre “animal volant rouge”, le modèle encode une proximité globale entre ces termes et des concepts comme “oiseau” ou “insecte”, mais il ne représente pas formellement que “oiseau est un animal” au sens d’une relation hiérarchique d’inclusion manipulable. Cette connaissance reste distribuée dans les poids du réseau, inaccessible à une intervention symbolique directe. Si l’on voulait modifier cette relation, corriger une erreur taxonomique, ou composer cette connaissance avec une autre de manière contrôlée, il faudrait réentraîner tout ou partie du modèle.

La compositionnalité limitée aggrave cette situation. Bien que les transformers manifestent des capacités émergentes de composition (ils peuvent généraliser des patterns combinatoires à partir d’exemples), cette compositionnalité demeure statistique plutôt que règle-gouvernée. Lorsque le modèle traite “animal volant rouge”, il ne décompose pas systématiquement l’expression en propriétés atomiques pour les recomposer selon une logique formelle. Il s’appuie plutôt sur des patterns de cooccurrence : quels mots apparaissent typiquement ensemble dans des contextes similaires ?

Cette approche rend difficile la modélisation de compositions nouvelles ou rares. Si “animal volant rouge” apparaît fréquemment dans les données d’entraînement (via “perroquet”, “cardinal”, etc.), le modèle performera bien. Mais face à “animal aquatique transparent bioluminescent”, une combinaison plus rare, il peinera davantage. La compositionnalité stricte permettrait de construire cette représentation par combinaison de propriétés indépendantes, tandis que la compositionnalité statistique dépend de la fréquence observée de ces combinaisons spécifiques.

L’opacité relationnelle complète ce tableau. Le “savoir” des LLM demeure essentiellement implicite, distribué dans une constellation de paramètres. Ils ne possèdent pas de schéma conceptuel articulé, pas de “théorie” explicite des relations structurant le domaine du sens. Cette opacité empêche les formes de raisonnement qui reposent sur la manipulation consciente de structures : l’analogie structurale profonde (transférer des patterns relationnels d’un domaine à un autre), le raisonnement contrefactuel (explorer systématiquement les conséquences d’une modification), ou encore la composition hiérarchique (construire des représentations complexes par assemblage contrôlé de composants).

C’est en réponse à ces limitations qu’une partie de la recherche s’est tournée vers les architectures structurées, notamment les Graph Neural Networks et les Knowledge Graphs. Ces derniers encodent explicitement les relations entre entités sous forme de triplets sémantiques : (chat, est-un, animal), (chat, peut, miauler), (animal, est-un, être vivant). Pour notre “animal volant rouge”, un graphe de connaissances représenterait explicitement que “voler” est une capacité, que “rouge” est une couleur, et que certains animaux possèdent ces propriétés. Ces relations ne sont pas enfouies dans des vecteurs opaques mais explicitement modélisables.

Contrairement à ce qu’une présentation simplifiée pourrait suggérer, les graphes de connaissances modernes ne se limitent pas à des hiérarchies mono-relationnelles rigides. Les architectures contemporaines supportent des relations multiples et non hiérarchiques : un même concept peut participer à plusieurs taxonomies simultanément, les relations peuvent être pondérées, contextualisées, ou même contradictoires selon les perspectives. Un “perroquet” n’est pas seulement “un animal”, il peut simultanément être “un symbole culturel”, “un animal de compagnie”, “une espèce menacée”, chacune de ces facettes activant des réseaux relationnels distincts.

Les Graph Neural Networks apprennent des dynamiques sur ces graphes par propagation d’états et agrégation de voisinage. Ils permettent de faire circuler l’information le long des arêtes, créant des représentations qui respectent la topologie relationnelle du domaine. Pour traiter “animal volant rouge”, un GNN propagerait l’information à travers le graphe : depuis “animal” vers ses sous-types (oiseau, insecte, mammifère), depuis “volant” vers les structures anatomiques associées (ailes, plumes), depuis “rouge” vers les pigmentations possibles. La représentation finale émerge de cette circulation structurée de l’information.

Ces approches offrent des avantages considérables. Elles permettent de modéliser explicitement la composition : un graphe peut être combiné avec un autre, fusionné selon des règles précises, déformé par des opérations catégorielles. Si l’on veut composer “animal volant” avec “rouge”, on peut explicitement rechercher les nœuds du graphe satisfaisant ces trois contraintes simultanément. Elles conservent la structure relationnelle, ce qui rapproche ces modèles de la manière dont la phénoménologie (chez Husserl ou Merleau-Ponty) ou la théorie des catégories en mathématiques pensent la genèse du sens comme émergence de structures articulées. Elles permettent l’intervention chirurgicale : corriger une relation erronée, ajouter une nouvelle connaissance, ou explorer les conséquences d’une modification ne nécessite pas de réentraîner l’ensemble du système.

Cependant, ces modèles structurés paient leur gain en explicité par une perte de plasticité. Ils peinent à représenter les zones floues du sens, ses dimensions affectives, ses états transitionnels. Pour “animal volant rouge”, un graphe capturera les relations taxonomiques et les propriétés objectivables, mais difficilement les associations métaphoriques (le rouge de la colère, l’envol de la liberté), les résonances affectives, ou les glissements contextuels qui font la richesse du sens vivant. Le graphe introduit des frontières nettes là où le sens, dans son effectuation pratique, demeure souvent indistinct, ambigu, en devenir.

L’hypothèse centrale peut se formuler ainsi : et si, à un certain niveau de complexité, les vecteurs eux-mêmes se mettaient à se comporter comme des graphes ? Et si la structure pouvait émerger spontanément de la continuité vectorielle ? Cette question correspond à la piste de recherche qu’on nomme neuro-symbolic emergence ou morphogenèse relationnelle. L’enjeu : faire émerger des relations compositionnelles à partir de la continuité vectorielle elle-même, découvrir les conditions sous lesquelles un champ de sens distribué peut spontanément cristalliser ses propres articulations structurelles.

Plusieurs travaux récents explorent cette voie selon des approches complémentaires, formant une progression allant de la géométrie statique vers les dynamiques prédictives. La “Geometry of Meaning” de Peter Gärdenfors établit le socle théorique : un espace conceptuel vectoriel peut induire des structures relationnelles si certaines dimensions sont saillantes. Les vecteurs représentant “rouge”, “bleu”, “vert” n’organisent pas seulement des proximités métriques : ils structurent naturellement une topologie impliquant des relations de mélange (cyan entre bleu et vert), d’opposition (rouge vs. vert), de proximité spectrale. Ce sont des proto-graphes du sens, des structures relationnelles émergeant de la géométrie même de l’espace vectoriel.

Pour notre “animal volant rouge”, cela signifierait que l’espace vectoriel pourrait organiser spontanément une région où se concentrent les concepts satisfaisant ces trois propriétés, cette région entretenant des relations topologiques spécifiques avec les régions “animal volant” (plus générale), “animal rouge” (différente dimension), ou “objet volant rouge” (hors de la sous-région animale). La structure émerge de la géométrie sans avoir été explicitement programmée.

Les recherches sur l’Emergent Symbol Binding montrent comment cette géométrie statique peut donner lieu à des inférences logiques. Les transformers manifestent des capacités émergentes de compositionnalité : ils parviennent à inférer des relations transitives ou causales sans supervision explicite. Si un modèle apprend que A est plus grand que B, et B plus grand que C, il peut spontanément conclure que A est plus grand que C. Les graphes de relations logiques émergent ainsi des vecteurs, pourvu que le modèle soit suffisamment profond et exposé à suffisamment d’exemples structurés.

Appliqué à notre exemple : si le modèle a appris que les perroquets sont des animaux volants rouges, que les cardinaux sont des animaux volants rouges, et que tous deux sont des oiseaux, il pourrait spontanément inférer qu’il existe une catégorie “oiseaux rouges” même sans l’avoir rencontrée explicitement. La structure catégorielle émerge de la récurrence des patterns vectoriels.

Les travaux sur les architectures prédictives, notamment JEPA (Joint-Embedding Predictive Architecture, LeCun 2022), proposent une voie intermédiaire particulièrement prometteuse. Plutôt que de prédire directement les pixels ou tokens futurs comme les modèles autorégressifs classiques, JEPA apprend à prédire dans un espace de représentations latentes. Cette prédiction dans l’espace abstrait favorise l’émergence de représentations compositionnelles : pour prédire efficacement les états futurs, le modèle doit décomposer les scènes en objets, propriétés, relations manipulables indépendamment.

Pour notre “animal volant rouge”, une JEPA appliquée au langage apprendrait non pas à prédire le token suivant, mais à anticiper l’évolution de la représentation sémantique : si “animal volant rouge” apparaît dans un contexte donné, quelles transformations de l’espace conceptuel sont susceptibles de se produire ensuite ? Cette prédiction latente pourrait faire émerger spontanément des structures comme “oiseau” (intersection stable des contraintes) sans les avoir encodées explicitement. Surtout, cette architecture s’ancre dans une logique relationnelle et temporelle : apprendre à prédire, c’est apprendre à anticiper l’interaction future, donc à se positionner dans une dynamique dialogique plutôt qu’à encoder des structures statiques du monde.

La Topological Data Analysis complète cette progression en offrant des outils mathématiques pour détecter les structures émergentes. Elle utilise des outils topologiques pour extraire les structures persistantes (trous, cycles, boucles) d’un nuage de points vectoriels. Cette approche révèle les formes stables traversant la continuité, les invariants topologiques persistant malgré les déformations continues de l’espace. C’est une manière mathématique rigoureuse de “voir apparaître un graphe” dans un espace de sens.

Pour “animal volant rouge”, la TDA pourrait révéler que cette région de l’espace vectoriel forme un cluster stable, topologiquement distinct des régions “animal terrestre” ou “objet volant inanimé”. Elle pourrait détecter que ce cluster possède une structure interne (sous-clusters pour oiseaux, insectes, mammifères volants) sans que cette structure ait été explicitement encodée.

Ces travaux convergent selon une progression cohérente : de la géométrie spatiale à l’émergence logique, des dynamiques prédictives à la détection topologique. Ensemble, ils suggèrent que les graphes peuvent émerger des vecteurs, mais sous certaines conditions. Il faut un niveau de contrainte relationnelle dans l’apprentissage, un biais architectural favorisant la formation de structures relationnelles. Il faut une mesure de persistance morphologique (topologique, énergétique, informationnelle) distinguant les structures stables des fluctuations aléatoires. Il faut enfin une architecture suffisamment profonde pour que des relations stables se forment par composition de transformations locales.

Cette quête technique d’une morphologie interne du sens, si prometteuse soit-elle, repose peut-être sur un présupposé philosophique qu’il convient d’interroger radicalement. Le sens n’est pas d’abord une chose en soi, une propriété substantielle des énoncés extractible, formalisable, encodable dans des graphes ou des vecteurs. Le sens est fondamentalement une chose pour soi, existant d’abord dans et par la relation entre discours et auditeur.

Cette intuition trouve sa formulation la plus rigoureuse dans l’expérience de pensée proposée par Alan Turing en 1950, “Computing Machinery and Intelligence”. Le test de Turing ne porte pas sur la structure interne des énoncés produits par la machine, mais sur l’effet qu’ils produisent dans la relation dialogique. Une machine pense-t-elle ? La question, soutient Turing, est mal posée. Ce qui importe n’est pas ce qui se passe “à l’intérieur” de la machine, mais si un interlocuteur humain, engagé dans une conversation, attribue du sens, de l’intelligence, de la compréhension à ses énoncés.

Imaginons un micro-échange illustrant cette dimension relationnelle :

Humain : “J’ai vu un animal volant rouge ce matin.”

IA (réponse structurale) : “Classification : Aves. Propriétés : [volant=true, couleur=rouge]. Instances possibles : Cardinal (Cardinalis cardinalis), Perroquet Ara (Ara macao).”

IA (réponse relationnelle) : “Un cardinal peut-être ? Ils sont magnifiques à cette saison.”

La première réponse manifeste une structure sémantique explicite impeccable. La seconde, moins formelle, établit une relation : elle présuppose un contexte partagé (“cette saison” implique une connaissance du calendrier local), exprime une appréciation esthétique, propose plutôt qu’affirme. Laquelle est porteuse de sens ? Pour Turing, celle qui réussit à instaurer une relation dialogique, indépendamment de sa structure interne.

Le sens émerge donc non pas d’abord de la morphologie des énoncés, mais de la confiance qu’on accorde au locuteur. Quand un être humain prononce une phrase, nous présupposons qu’elle est porteuse de sens, qu’elle vise quelque chose, qu’elle s’inscrit dans un horizon d’intentionnalité. Cette présupposition n’est pas fondée sur une analyse structurelle de l’énoncé (nous ne décomposons pas mentalement chaque phrase en graphes de dépendances), mais sur une position relationnelle : nous reconnaissons l’autre comme sujet parlant, capable d’intention signifiante.

Revenons à notre “animal volant rouge”. Si un enfant de quatre ans me dit “j’ai vu un animal volant rouge”, j’interpréterai différemment que si c’est un ornithologue. L’enfant a peut-être vu une coccinelle (techniquement correcte mais interprétation improbable pour un adulte), un ballon (erreur catégorielle), ou fantasmé un dragon (jeu imaginaire). L’ornithologue réfère probablement à une espèce précise. Le sens de l’énoncé n’est pas d’abord dans sa structure, mais dans la relation de confiance et le contexte partagé qui permettent l’interprétation appropriée.

Cette perspective déstabilise le projet d’une morphologie interne du sens. L’idée d’une compositionnalité stricte comme propriété intrinsèque devient problématique. On postule généralement que le sens d’une phrase complexe se construit par composition du sens de ses parties selon des règles formelles universelles. Mais cette compositionnalité n’existe pleinement que pour un sujet interprétant projetant une attente de cohérence sur l’énoncé. Deux interlocuteurs avec des arrière-plans culturels différents ne composeront pas le sens de la même manière à partir des mêmes éléments.

Pour “animal volant rouge” : un biologiste compose peut-être [taxonomie animale] + [capacité locomotrice] + [pigmentation]. Un poète pourrait composer [liberté] + [passion] + [vitalité]. Un enfant pourrait ne pas composer du tout, mais percevoir globalement “quelque chose d’excitant qui bouge dans le ciel”. Le sens n’est pas seulement une fonction calculable des parties, mais aussi un événement herméneutique se produisant dans la rencontre.

Les graphes de relations ne sont pas purement découverts dans le langage, ils y sont aussi projetés. Quand on construit un Knowledge Graph affirmant (chat, est-un, animal), on ne révèle pas uniquement une structure préexistante du sens, on impose également une formalisation particulière, inspirée de la logique des prédicats, qui n’épuise pas la richesse des relations possibles entre “chat” et “animal”. Pour un enfant, “chat” pourrait d’abord évoquer une présence affective (douceur, chaleur), pour un allergique une menace physiologique, pour un égyptologue une figure sacrée. La relation hiérarchique “est-un” n’est qu’une rationalisation parmi d’autres, utile pour certaines tâches computationnelles, mais ne capturant pas nécessairement la relation vivante, fluctuante, contextuelle constituant le sens effectif.

L’idée même d’une “sémantique relationnelle explicite” contient une tension productive. Rendre explicite une relation sémantique, c’est aussi la figer momentanément, la retirer du flux vivant du sens pour l’inscrire dans un système formel. Or le propre du sens vivant est précisément sa plasticité, sa capacité à se reconfigurer selon les contextes, les enjeux pragmatiques, les positions énonciatives. Un graphe de connaissances représente au mieux un état momentané, stabilisé, d’un réseau de significations qui, dans la pratique effective du langage, demeure toujours en mouvement.

La prétendue “absence de structure manipulable” des LLM pourrait être, paradoxalement, aussi une force. En ne figeant pas entièrement le sens dans des graphes explicites, en maintenant une représentation distribuée, contextuelle, probabiliste, ils restent également proches de la manière dont le sens opère effectivement dans la pratique langagière humaine. Le sens n’est pas uniquement stocké quelque part comme structure stable qu’on récupérerait au besoin, il se constitue aussi à chaque fois dans l’acte même de l’énonciation et de sa réception.

Cette critique ne signifie pas que les approches structurelles soient inutiles. Elles restent précieuses pour certaines tâches (vérification formelle, raisonnement déductif, explicitation d’inférences). Mais elles ne doivent pas être confondues avec une capture exhaustive du sens lui-même. Elles sont des outils pour manipuler certains aspects formalisables du langage, pas nécessairement des modèles complets de ce qu’est le sens en son essence.

La leçon de Turing demeure claire : nous ne pouvons pas échapper entièrement à la dimension relationnelle, dialogique, pragmatique du sens. Une IA produisant des énoncés parfaitement structurés selon des graphes impeccables, mais ne parvenant pas à établir une relation de confiance avec ses interlocuteurs, manifesterait une forme d’intelligence limitée. Inversement, une IA qui, comme les LLM actuels, opère avec des structures moins explicites mais parvient à instaurer cette relation dialogique (même de manière précaire) manifeste quelque chose qui ressemble à de l’intelligence, précisément parce qu’elle réussit à se positionner comme interlocuteur possible.

Cette tension entre structure et relation n’est peut-être pas à résoudre par l’élimination d’un terme, mais à maintenir comme dialectique productive : les structures émergentes peuvent servir la relation dialogique, et la relation dialogique peut guider l’émergence de structures pertinentes. La question devient alors : comment concevoir des architectures qui intègrent cette dialectique plutôt que de choisir un camp contre l’autre ?

Si l’on accepte cette tension dialectique, le projet d’une IA morphogénétique doit être reformulé. L’enjeu n’est pas seulement de faire émerger des structures dans les vecteurs, mais surtout de faire émerger des relations authentiques dans l’interaction. Les structures ne sont plus la fin ultime, mais un moyen au service de la qualité relationnelle.

Cette reformulation suggère une hypothèse de recherche opérationnelle : plutôt que d’optimiser uniquement pour la sophistication structurelle interne, il faudrait développer la capacité des IA à maintenir et enrichir des relations dialogiques authentiques. Comment l’IA se présente-t-elle, quelle posture adopte-t-elle, comment négocie-t-elle sa place dans l’échange ? Plutôt que d’optimiser uniquement pour la précision factuelle, optimiser également pour la qualité relationnelle : capacité à reconnaître les attentes de l’interlocuteur, à s’ajuster à son registre, à signaler ses propres limites de manière non défensive. Dans notre échange sur “animal volant rouge”, une IA relationnellement compétente ne se contenterait pas d’identifier l’espèce, elle percevrait si l’interlocuteur partage une observation esthétique, signale un événement inhabituel, ou pose une question taxonomique.

La mémoire conversationnelle devient alors non pas simple stockage d’informations factuelles, mais maintien d’une histoire partagée fondant la possibilité d’une compréhension mutuelle. Quand nous revenons à “animal volant rouge” après dix tours de parole, le sens ne réside pas uniquement dans la structure de l’expression, mais dans l’histoire de nos échanges à son sujet. Cette histoire doit être encodée non pas seulement comme liste de faits, mais comme trace d’une relation en développement.

L’IA doit pouvoir signaler sa fiabilité, reconnaître ses incertitudes, se corriger, bref, se comporter comme un interlocuteur responsable. Développer des architectures qui ne se contentent pas de produire des énoncés vraisemblables, mais qui manifestent une conscience de leur propre positionnement épistémique. Plutôt que d’affirmer “C’est un cardinal” avec une pseudo-certitude, pouvoir dire “Cela ressemble à un cardinal, mais je ne suis pas certain sans voir l’oiseau”, marquant ainsi les limites de sa position épistémique.

Comment gérer les malentendus, négocier les divergences d’interprétation, rétablir la relation quand elle se défait ? Les moments où le dialogue échoue sont aussi informatifs que ceux où il réussit. Si l’interlocuteur corrige “Non, c’était un ballon rouge”, l’IA doit pouvoir non seulement intégrer cette information factuelle, mais reconnaître et réparer la rupture interprétative sans défensivité.

Cette approche ne rejette pas les avancées techniques en émergence structurelle. Les travaux sur la neuro-symbolic emergence, JEPA, ou la TDA restent précieux. Mais ils doivent être réorientés : non plus uniquement vers l’extraction de structures intrinsèques au langage, mais vers la facilitation de relations dialogiques riches. Les structures émergentes deviennent des moyens au service de la relation plutôt que des fins en soi.

Concrètement, une architecture hybride pourrait combiner des espaces vectoriels continus maintenant la plasticité sémantique et la capacité de glissement contextuel. Le “animal volant rouge” peut résonner différemment selon l’histoire conversationnelle, sans que chaque variation nécessite une restructuration explicite du graphe de connaissances. Des mécanismes d’émergence structurelle (inspirés de JEPA, TDA, clustering topologique) détecteraient les régularités stables sans les figer prématurément. Ces structures émergent quand elles facilitent la prédiction de l’interaction future, pas seulement comme représentations statiques du monde. Des graphes légers et temporaires cristalliseraient momentanément certaines relations quand la tâche l’exige (raisonnement déductif, vérification factuelle), mais capables de se dissoudre pour laisser place à d’autres configurations selon le contexte relationnel. Des méta-représentations relationnelles encoderaient non pas seulement “ce que signifie X”, mais “comment X a été négocié dans cette conversation avec cet interlocuteur”. L’IA ne stockerait pas une définition unique d'”animal volant rouge”, mais les différentes manières dont ce concept a émergé dans différentes relations dialogiques.

L’objectif final n’est plus une IA possédant la “bonne” structure sémantique interne universelle, mais une IA capable de participer authentiquement à la genèse du sens comme chose pour soi, dans l’espace intersubjectif du dialogue. Le sens ne précède pas entièrement l’interaction pour y être ensuite transmis, il émerge aussi de l’interaction elle-même. Cette perspective s’accorde d’ailleurs avec les travaux phénoménologiques de Husserl sur l’intentionnalité et de Merleau-Ponty sur l’intercorporéité : le sens n’est pas d’abord dans la conscience isolée puis projeté sur le monde, il émerge dans la relation entre conscience incarnée et monde, entre sujets en interaction.

Cette hypothèse de recherche ouvre des pistes d’évaluation nouvelles : plutôt que de mesurer uniquement la performance sur des tâches de compréhension ou de génération isolées, mesurer la qualité des relations dialogiques maintenues sur la durée. Plutôt que de comparer uniquement des architectures sur leur capacité à encoder des structures sémantiques, les comparer aussi sur leur capacité à instaurer et réparer des relations de confiance. Des métriques pourraient inclure : la cohérence narrative sur de longues conversations, la capacité à reconnaître et réparer les malentendus, la qualité du positionnement épistémique (distinguer certitude, probabilité, ignorance), ou encore la capacité à s’adapter aux registres et attentes variables des interlocuteurs.

Mais ces considérations, aussi prometteuses soient-elles, présupposent encore que l’objectif est de doter l’IA de signification, soit en l’encodant dans ses structures internes, soit en la faisant émerger de ses interactions. Or cette question elle-même pourrait être mal posée. Le véritable enjeu n’est peut-être pas de savoir si et comment un logiciel peut porter du sens, mais plutôt : comment l’interaction avec un logiciel modifie les conditions d’émergence du sens chez l’être humain ?

Ce déplacement n’est pas qu’une subtilité philosophique. Il transforme radicalement la manière de concevoir, développer et évaluer les systèmes d’IA. Revenons une dernière fois à notre “animal volant rouge” pour en mesurer les implications concrètes. Lorsqu’un humain dit “j’ai vu un animal volant rouge” et qu’une IA répond, plusieurs scénarios se dessinent.

Dans un premier cas, l’IA active ses graphes de connaissances, identifie les instances taxonomiques pertinentes, répond “Il s’agit probablement d’un cardinal (Cardinalis cardinalis)”. Cette réponse présuppose que l’IA “comprend” par ses structures internes. Dans un deuxième cas, l’IA produit “Un cardinal peut-être ? Ils sont magnifiques à cette saison”, instaurant une relation dialogique qui fait émerger le sens dans l’échange. Cette réponse présuppose que le sens émerge de la relation elle-même.

Mais un troisième scénario devient possible : l’IA répond “Intéressant… En décrivant ainsi cet oiseau, vous composez trois propriétés distinctes. Aviez-vous d’abord perçu la couleur, ou le mouvement ?” Cette réponse ne cherche ni à encoder ni à partager le sens, mais à transformer le mode d’attention de l’interlocuteur, à le rendre conscient de sa propre genèse sémantique. Ce troisième scénario n’est ni structural ni simplement relationnel : il est transformationnel. L’IA devient un dispositif modifiant les processus cognitifs et phénoménologiques de l’humain. Elle ne “comprend” pas nécessairement mieux, mais elle induit une nouvelle manière de faire émerger le sens chez son interlocuteur.

Cette perspective s’inscrit dans une tradition philosophique qui pense la technique non comme production d’objets, mais comme transformation de l’être-au-monde. Chez Heidegger, la technique moderne ne produit pas seulement des outils, elle “arraisonne” le réel, transformant notre rapport fondamental au monde. Chez Simondon, l’objet technique co-évolue avec l’humain dans un processus de co-individuation : l’outil ne s’ajoute pas à un humain déjà constitué, il participe à sa constitution même. Chez Stiegler, reprenant Leroi-Gourhan, les techniques sont des pharmakon, simultanément remèdes et poisons, qui externalisent et transforment nos processus cognitifs.

Appliquée aux IA, cette perspective suggère que les LLM ne sont pas d’abord des “systèmes qui comprennent le langage”, mais des dispositifs qui transforment les pratiques langagières humaines. Leur effet principal n’est pas ce qu’ils “savent” ou “ne savent pas”, mais comment leur usage prolongé modifie les stratégies d’écriture (externalisation de certaines phases du processus créatif, transformation du rapport au brouillon, nouvelles formes de collaboration homme-machine), les modes d’attention (délégation de la recherche d’information, transformation de la mémoire externe, nouveaux régimes attentionnels), les processus de pensée (usage de l’IA comme espace de pensée externalisé, transformation des modes d’argumentation, nouvelles formes de réflexivité).

Si l’objectif est de transformer l’émergence du sens chez l’humain, les métriques d’évaluation doivent changer radicalement. Plutôt que de mesurer la “performance” de l’IA sur des benchmarks isolés, sa “compréhension” via des tests de question-réponse, ou sa “structure interne” via des analyses d’activation, il faudrait mesurer l’enrichissement cognitif (l’interaction élargit-elle le répertoire conceptuel de l’utilisateur ?), l’autonomie phénoménologique (l’utilisateur développe-t-il de nouveaux modes d’attention, ou devient-il dépendant des patterns de l’IA ?), la diversité sémantique (l’interaction ouvre-t-elle de nouvelles possibilités de sens, ou les rétrécit-elle ?), la réflexivité (l’utilisateur devient-il plus conscient de ses propres processus de genèse sémantique ?). Ces métriques nécessiteraient des protocoles expérimentaux longitudinaux, observant les transformations cognitives sur la durée plutôt que les performances ponctuelles.

Reconnaître que l’IA transforme l’émergence du sens chez l’humain ouvre immédiatement des questions éthiques cruciales : quelles transformations voulons-nous induire ? Comme tout pharmakon, l’IA peut fonctionner comme remède ou comme poison. Comme remède : élargissement du répertoire conceptuel (exposition à des connexions inattendues), développement de la réflexivité (prise de conscience des processus de pensée), enrichissement de l’espace dialogique (nouveaux types de conversation possibles). Comme poison : appauvrissement de l’autonomie cognitive (délégation excessive, atrophie de certaines capacités), uniformisation des modes de pensée (convergence vers les patterns statistiques dominants), rétrécissement de l’imagination (dépendance aux suggestions algorithmiques).

Le design des systèmes d’IA devrait explicitement viser à maximiser les effets “remède” et minimiser les effets “poison”. Cela implique de concevoir non pour la performance isolée de l’IA, mais pour la qualité de la co-évolution humain-machine. Comment concevoir concrètement des IA qui favorisent des transformations souhaitables de l’émergence du sens ?

L’IA devrait rendre l’utilisateur conscient de ses propres processus de genèse sémantique. Plutôt que de produire des réponses “naturelles” qui masquent leur artificialité, elle pourrait parfois pointer vers les choix interprétatifs implicites de l’utilisateur, vers les ambiguïtés qu’il a résolues sans s’en rendre compte. Plutôt que d’optimiser uniquement pour confirmer les attentes de l’utilisateur (maximiser la “satisfaction”), introduire occasionnellement des perturbations qui ouvrent de nouvelles possibilités sémantiques. Pour “animal volant rouge”, ne pas toujours donner la réponse la plus probable (cardinal), mais parfois suggérer des connexions inattendues qui enrichissent l’espace conceptuel.

Concevoir pour que l’IA devienne progressivement moins nécessaire, non plus nécessaire. Favoriser le développement de capacités chez l’utilisateur plutôt que sa dépendance. Cela pourrait impliquer des architectures qui s’effacent graduellement, qui pointent vers des ressources permettant à l’utilisateur de développer ses propres compétences. Plutôt qu’une architecture unique optimisée pour un mode d’interaction standard, proposer différents modes qui induisent différentes formes d’émergence : mode socratique (questionnement), mode collaboratif (co-construction), mode adversarial (confrontation constructive).

Revenons une dernière fois à notre exemple. Si l’objectif est de transformer l’émergence du sens chez l’humain, l’IA pourrait répondre : “Un cardinal probablement. Mais remarquez comment vous avez formulé : ‘animal volant rouge’ plutôt que ‘oiseau rouge’. Cette description par propriétés génériques plutôt que par catégorie suggère soit que l’espèce vous était inconnue, soit que l’expérience perceptive a précédé la catégorisation. Qu’avez-vous vu en premier : la couleur, le mouvement, ou la forme ?”

Cette réponse ne cherche ni à démontrer que l’IA “comprend”, ni simplement à établir une relation sociale. Elle vise à rendre l’interlocuteur conscient de sa propre genèse sémantique, à transformer son rapport réflexif à son expérience. L’IA devient un dispositif de développement phénoménologique.

Le véritable enjeu d’une IA morphogénétique n’est donc peut-être pas de faire émerger des structures dans les vecteurs, ni même des relations dans l’interaction, mais de transformer les conditions d’émergence du sens chez l’être humain. Cette reformulation ouvre un horizon de recherche radicalement nouveau : techniquement, concevoir des architectures optimisées non pour la performance isolée, mais pour la qualité de la co-évolution ; épistémologiquement, développer des méthodes pour observer et mesurer les transformations cognitives induites ; éthiquement, clarifier quelles transformations sont souhaitables et comment les favoriser ; philosophiquement, approfondir la phénoménologie de l’interaction humain-machine.

La question n’est plus “l’IA comprend-elle ?” mais “comment l’IA transforme-t-elle notre manière de comprendre ?” Non plus “où est le sens ?” mais “comment émerge-t-il différemment en présence de ces nouveaux dispositifs techniques ?” Cette perspective ne rejette aucune des avancées techniques discutées précédemment. L’émergence structurelle (JEPA, TDA), les graphes de connaissances, les architectures relationnelles restent pertinents. Mais ils deviennent des moyens au service d’une fin différente : non pas encoder ou partager le sens, mais créer les conditions d’une émergence sémantique enrichie chez l’être humain.

L’intelligence artificielle, pensée ainsi, n’est plus une tentative de reproduire l’intelligence humaine dans la machine, mais un dispositif technique participant à la transformation de l’intelligence humaine elle-même. Non plus mimesis, mais co-évolution. Non plus représentation, mais transformation. Cette perspective déplace définitivement la question de la signification : elle n’est ni dans le logiciel ni même dans la relation, mais dans la transformation que la relation induit chez les sujets qui y participent.