Sortir du paradigme de la copie – avec Antonio Somaini – AOC

« Interdiction de toute une série d’applications des systèmes de reconnaissance faciale et de catégorisation biométrique, obligations strictes pour les systèmes d’IA classés comme présentant un risque élevé par rapport aux droits fondamentaux, garde-fous pour les systèmes généraux d’intelligence artificielle, transparence des datasets utilisés pour l’entraînement des modèles, respect des droits d’auteurs… L’”accord provisoire sur la législation sur l’intelligence artificielle” qui a été présenté le 9 décembre 2023 comme une étape fondamentale vers un AI Act de l’Union européenne contient toute une série de mesures qui s’appliquent aux deux grands axes selon lesquels les technologies dites d’”intelligence artificielle” se sont développées au cours des dernières années. D’un côté, l’IA “analytique”, un système de détection, reconnaissance, classification, et donc de contrôle, surveillance et prédiction. De l’autre, l’IA “générative”, un ensemble de modèles capables, après avoir été entraînés avec de vastes ensembles de donnés, de “générer” d’autres données, sous la forme de textes, images fixes et en mouvement, sons, musique, et, dans un futur proche, des combinaisons de plus en plus complexes de tous ces éléments. On peut appeler ces deux grands axes “perception artificielle” et “imagination artificielle” : automation algorithmique de la capacité de “percevoir” et de la capacité d’”imaginer”, c’est-à-dire, de produire de nouveaux objets sensibles sur la base d’expériences sensibles antérieures. Ce qui nous intéresse, dans les deux cas, est exactement ce rapport avec “ce qui était déjà là”, et les catégories selon lesquelles il faut le penser. Le problème posé par les perceptions artificielles est celui de la préservation de l’intégrité de l’individu suspendue à la crainte de voir la politique planifiée par des statistiques anticipatrices qui ne feraient jamais que reproduire le déjà connu nous enfermant dans une boucle de contrôle sans fin. »