Un visage impossible

La notion de variabilité, concept fondamental de l’informatique, dépasse aujourd’hui largement son cadre d’origine pour s’étendre au domaine du corps humain. Cette extension n’est pas fortuite : elle trouve sa cohérence dans la coïncidence historique entre la découverte du code génétique et l’invention du code informatique. Ces deux événements, survenus approximativement à la même période du XXe siècle, ont établi un paradigme commun où machine et corps se trouvent désormais parlant un même langage fondamental – celui du code.

Cette convergence a permis l’émergence d’une variabilité organique qui se manifeste sous trois formes distinctes et complémentaires : la stimulation, la simulation et la génération. Chacune représente un mode d’intervention et de compréhension spécifique du corps à travers différentes époques et technologies.

La stimulation s’inscrit dans une continuité historique avec les expériences physiologiques du XIXe siècle. Cette approche, héritière des travaux de chercheurs comme Galvani, Marey ou Bernard, conçoit le corps comme un système réactif dont on peut modifier les états par application de stimuli externes – qu’ils soient électriques, chimiques ou mécaniques. Le corps stimulé révèle sa plasticité fonctionnelle, sa capacité à répondre, s’adapter et se reconfigurer face aux sollicitations.

La simulation représente une seconde modalité, plus récente, où le corps n’est plus directement manipulé mais modélisé. Grâce aux technologies numériques, cette approche permet de créer des représentations virtuelles du corps qui peuvent ensuite explorer des configurations physiquement impossibles ou improbables. Le corps simulé n’est plus contraint par les limites biologiques; il devient un champ d’expérimentation où peuvent s’exprimer des potentialités corporelles inédites, des morphologies alternatives, des fonctionnalités imaginaires.

La génération constitue la troisième forme de cette variabilité organique. Elle concerne directement l’intervention sur le code génétique et la capacité à produire ou modifier des corps biologiques. Qu’il s’agisse d’hybridation entre espèces, de transformations génétiques ciblées ou de synthèse biologique, cette approche touche à la programmation même du vivant. Le corps généré n’est plus simplement stimulé ou représenté, mais fondamentalement réécrit dans sa structure informative primordiale.

Ces trois modalités de la variabilité organique, bien que distinctes dans leurs méthodologies et leurs implications, partagent une conception fondamentale du corps comme système informationnel modifiable. Elles traduisent le passage progressif d’une vision mécaniste du corps-machine à une conception informationnelle du corps-code, où l’organisation biologique devient manipulable à différents niveaux d’abstraction.

Cette triangulation entre stimulation, simulation et génération définit un espace complexe où s’élaborent nos relations contemporaines au corps. Elle révèle comment, à l’ère des codes, le corps humain se trouve simultanément déchiffré comme texte biologique et réinscrit comme programme modifiable, oscillant constamment entre détermination génétique et plasticité potentielle.

[youtube]http://www.youtube.com/watch?v=YxdlYFCp5Ic[/youtube]

[vimeo]http://vimeo.com/8695352[/vimeo]

Il faudrait se demander que devient la visagéité, si importante dans le décodage de l’intentionnalité qui est constitutive de notre relation au monde (cf austime), dans ce contexte de variabilité organique. On pourrait approfondir la question des relations entre neurones “naturels” et “artificiels”.

La seconde moitié du XXe siècle a été marquée par une coïncidence fascinante : tandis que les neurosciences révolutionnaient notre compréhension du cerveau à travers une approche cellulaire et connectiviste, l’informatique théorique concevait parallèlement les bases des réseaux de neurones artificiels. Cette simultanéité historique n’est pas fortuite mais révèle une convergence épistémologique profonde qui a transformé notre conception de l’intelligence, qu’elle soit biologique ou artificielle.

Dans les années 1940-1950, les neurosciences connaissent une transformation majeure avec l’émergence d’une vision du cerveau centrée sur les neurones et leurs connexions. Cette période marque le passage d’une conception holistique du cerveau à une approche cellulaire et fonctionnelle.

En 1943, Warren McCulloch et Walter Pitts publient leur article fondateur “A Logical Calculus of the Ideas Immanent in Nervous Activity”, qui propose un modèle mathématique du neurone biologique. Cette publication constitue un pont conceptuel crucial entre biologie et mathématiques, suggérant que les cellules nerveuses fonctionnent selon des principes logiques formalisables.

La décennie suivante voit des avancées majeures avec les travaux d’Alan Hodgkin et Andrew Huxley (1952) qui élucident les mécanismes ioniques sous-tendant les potentiels d’action neuronaux, leur valant le prix Nobel en 1963. Simultanément, les techniques histologiques se perfectionnent, permettant une visualisation plus précise des structures neuronales et de leurs connexions.

L’idée que la mémoire et l’apprentissage reposent sur la modification des connexions synaptiques trouve sa formulation théorique avec Donald Hebb en 1949, qui énonce dans “The Organization of Behavior” son célèbre principe : “Les neurones qui s’activent ensemble se connectent ensemble”. Cette théorie hebbienne établit un mécanisme plausible pour expliquer comment l’expérience peut modifier physiquement la structure du cerveau.

Parallèlement à ces développements en neurobiologie, les fondements théoriques de l’intelligence artificielle neuronale prennent forme. Frank Rosenblatt, psychologue américain, conçoit en 1958 le “Perceptron”, premier algorithme d’apprentissage pour un réseau de neurones artificiels capable de reconnaissance de formes. Sa machine “Mark I Perceptron” représente la première implémentation matérielle d’un réseau neuronal.

Cette invention ne survient pas dans un vide conceptuel, mais s’inspire explicitement des connaissances contemporaines sur le cerveau. Rosenblatt lui-même décrit son perceptron comme “un système nerveux artificiel”, révélant la continuité épistémologique entre les recherches neurobiologiques et computationnelles de l’époque.

À la même période, Bernard Widrow et Marcian Hoff développent les neurones ADALINE (ADAptive LINear Element), introduisant l’algorithme du gradient descendant pour l’apprentissage supervisé, technique qui reste fondamentale en apprentissage profond aujourd’hui.

Cette co-émergence de la compréhension neuronale du cerveau et des réseaux de neurones artificiels reflète une fertilisation croisée remarquable entre disciplines. Les chercheurs en intelligence artificielle s’inspirent des architectures cérébrales pour concevoir leurs modèles, tandis que les neuroscientifiques empruntent des concepts computationnels pour théoriser le fonctionnement neuronal.

Le concept d’information devient central dans les deux domaines, créant un terrain commun pour la modélisation. La théorie de l’information de Claude Shannon (1948) fournit un cadre conceptuel permettant de décrire aussi bien la transmission des signaux nerveux que le traitement des données dans les réseaux artificiels.

Les deux approches partagent également une vision distribuée et parallèle du traitement de l’information, rompant avec les modèles séquentiels dominants. L’intelligence, qu’elle soit biologique ou artificielle, est progressivement reconceptualisée comme émergeant de l’interaction massive d’unités simples plutôt que d’un algorithme centralisé.

Malgré ces débuts prometteurs, les deux champs connaissent des obstacles similaires dans les décennies suivantes. Les neurosciences se heurtent à la complexité formidable du cerveau humain, dont les cent milliards de neurones et leurs connexions défient les technologies d’observation disponibles.

De même, l’enthousiasme initial pour les réseaux neuronaux artificiels s’essouffle après la publication en 1969 du livre “Perceptrons” de Marvin Minsky et Seymour Papert, qui démontre les limitations mathématiques des perceptrons simple couche. Cet ouvrage contribue à l’avènement du premier “hiver de l’IA”, période de désintérêt relatif pour les approches neuronales.

Une renaissance simultanée des deux domaines survient dans les années 1980. En neurosciences, les techniques d’imagerie cérébrale comme l’IRM fonctionnelle permettent d’observer le cerveau en action, révélant des réseaux fonctionnels distribués. La découverte de la potentialisation à long terme (LTP) par Tim Bliss et Terje Lømo offre un mécanisme cellulaire concret pour la plasticité synaptique théorisée par Hebb.

Parallèlement, l’IA neuronale connaît une revitalisation avec l’algorithme de rétropropagation du gradient, popularisé par David Rumelhart, Geoffrey Hinton et Ronald Williams en 1986. Cette technique permet l’entraînement efficace de réseaux multicouches, surmontant les limitations identifiées par Minsky et Papert.

Cette synchronicité historique révèle une spirale d’inspiration mutuelle : les avancées en neurosciences informent les architectures de réseaux artificiels, qui à leur tour suggèrent des hypothèses testables sur le fonctionnement cérébral.

La découverte des neurones miroirs par Giacomo Rizzolatti dans les années 1990 trouve un écho dans le développement des réseaux antagonistes génératifs (GANs) où deux réseaux s’entraînent mutuellement. Les recherches sur l’attention visuelle en neurosciences cognitives inspirent les mécanismes d’attention dans les architectures Transformer qui révolutionnent aujourd’hui le traitement du langage naturel.

Cette convergence s’est intensifiée récemment avec l’émergence du champ hybride des neurosciences computationnelles, qui applique explicitement des méthodes mathématiques et algorithmiques à l’étude du système nerveux, brouillant davantage les frontières entre compréhension biologique et artificielle de l’intelligence.