L’enfance de la machine
Le projet DEEP (http://chatonsky.net/projects/deep-drawing) est un logiciel de deep learning (réseau de neurones) qui a appris à dessiner en se fondant sur une série de dessins préexistants. Cette série mélange des dessins personnels réalisés entre 1992 et 2016 et des livres d’apprentissage du dessin. Un nouveau dessin est produit toutes les 30 secondes.
Sur un écran on voit le dessin et sur l’autre écran on voit les données brutes des calculs effectués par l’ordinateur. En troublant la frontière entre l’être humain et la machine, Deep imagine que les machines pourraient s’inspirer de nos œuvres pour produire de nouvelles œuvres. Il ne s’agit pas pour la machine de reproduire des œuvres préexistantes, mais à partir d’elles, d’automatisater la création des dessins spécifiques que seule une machine est capable d’imaginer. La machine créée en continue de nouvelles images que personne ne peut voir en totalité. Les dessins sont telle une nourriture pour la machine. Chaque nouveau dessin est introduit dans le système d’apprentissage du logiciel de sorte que l’artiste-machine précise son propre style et se sépare progressivement de son origine humaine.
L’image d’une machine vide apprenant progressivement quelque chose d’humain hante la cybermétique. Ainsi Turing imagine la possibilité de simplifier la construction d’une machine en simulant non pas un esprit déjà arrivé à maturité, mais un enfant :
« Au lieu d’essayer de produire un programme qui simule l’esprit adulte, pourquoi ne pas plutôt essayer d’en produire un qui simule celui de l’enfant ? S’il était soumis à une éducation appropriée, on aboutirait à un cerveau adulte. Il est probable que le cerveau de l’enfant est une sorte de calepin comme on peut en trouver dans les papeteries : très peu de mécanismes et beaucoup de feuilles blanches. […] Notre espoir est que le mécanisme dans le cerveau de l’enfant soit si petit qu’il soit aisément programmable. » (Turing, A. (1950), 456)
Il est remarquable que ce désir d’apprentissage, le « calepin » vide qui reprend l’empreinte sur la cire dans la Seconde Méditation cartésienne, et qui hante encore tant de recherches informatiques, ait été si rapidement mis de l’avant. La machine ne se résume pas à ce que nous avons mis dedans, elle peut s’autocomplexifier parce qu’elle a un système d’entrée, un traitement et une sortie, elle est donc en contact avec un monde sur lequel elle peut agir et qui peut la transformer par feed-back.
L’ordinateur n’est pas simplement un calculateur, c’est un constructeur universel selon Von Neumann qui imagine dès 1948 dans sa Théorie générale et logique des automates, un robot baignant dans un bain de composants qui serait capable de produire n’importe quel autre automate dont la description lui serait fournie. Puisque tout est code, tout est productible et l’opérateur majeur de ce possible-réel est l’ordinateur. L’autoreproduction n’est plus une propriété spécifique des êtres vivants, les machines en sont aussi capables parce que c’est le principe de l’être lui-même en tant que contingence des possibles.
Avec Deep, on oppose la machine génératrice (G) à un machine discriminative (D) et on les fait combattre. La machine G tente de produire de fausses données visuelles qui semblent si vraisemblables que la machine D ne peut pas dire celles qui sont fausses. La machine D apprend à ne pas se laisser berner par la machine G. Après les avoir laissé jouer, on obtient un générateur de qualité qui peut générer autant d’échantillons qu’on le souhaite.
La remise en cause de la définition du vivant telle qu’elle fut conçue par Aristote, n’est donc pas une thèse sur la tekhnè, mais sur l’ontos. Selon Alan Turing, cette création de formes, qui met aussi en défaut le second principe de la thermodynamique, est tel un jeu. Le jeu est à la fois formel quant aux règles et auto-organisé quant au déroulement de la partie. Il faut dans un jeu des règles fixes, mais lorsqu’il est un peu compliqué comme dans le cas des échecs, les possibilités combinatoires explosent et rendent impossibles la prévision statistique du déroulement de la partie. La seule stratégie qui reste est celle consistant à s’adapter progressivement à la stratégie adverse. L’incertitude n’est plus contradictoire avec une machine parce que celle-ci peut entrer dans un flux. De sorte que, selon Von Neummann :
« La logique des automates diffèrera du présent système de logique formelle à deux égards. 1. La longueur effective des “chaînes de raisonnement”, c’est-à-dire des chaînes d’opérations, devra être prise en compte. 2. Les opérations de logique […] devront toutes être traitées par des procédures qui permettent les exceptions (dysfonctionnements) avec une probabilité faible, mais non nulle. Tout cela conduira à des théories qui sont bien moins strictement de type tout-ou-rien que la logique formelle passée et présente. Elles seront de nature bien moins combinatoire et bien plus analytique. » ( Neumann, J. V. (1998). Théorie générale et logique des automates. Paris : Champ Vallon, 84. )