Une IA à 10 puissance 22 paramètres, pour simuler l’humanité entière


« Fusion consciente des consciences » ©Philippe Quéau (Art Κέω) 2024

Une IA à 1022 paramètres, pour simuler l’imbrication des consciences singulières de l’humanité tout entière? Rêve fou ou métaphore excitante?

Au cours des derniers siècles, les physiciens ont su décrire une grande partie du monde (physique) avec des principes relativement simples et peu nombreux ; c’est la nature même de l’univers qui a rendu possible une telle réduction. Mais les opérations de l’esprit (humain) ne dépendent pas de lois simples et peu nombreuses. Notre cerveau a accumulé de nombreux mécanismes différents au cours des centaines de millénaires de son évolution. La psychologie ne pourra jamais être aussi « simple » que la physique. Des théories « simples » de l’esprit passeraient forcément à côté de l’essentiel, qui réside dans sa complexité intrinsèque, d’une part, et peut-être aussi sur d’autres aspects, plus mystérieux encore, qui ont trait à la nature même de la conscience, ou même à l’existence de l’« âme » (hypothèse certes putative dans un contexte scientifique, mais que l’on ne peut cependant exclure a priori). Il importe de développer sur ce sujet une vue d’ensemble, englobant de très vastes perspectives, et permettant de prendre en compte un grand nombre de théories plus spécialisées (allant de la mécanique quantique à la philosophie transcendantale et à la théologie, en passant par la psychologie, l’anthropologie, les neurosciences et l’intelligence artificielle…). Une des premières conséquences de cette prise de recul, et de cette volonté d’acquisition d’une vision globale, serait de mettre de côté les grandes disjonctions, parfaitement contre-productives et impertinentes, du type empirisme/idéalisme, déterminisme/liberté, matière/esprit, physique/métaphysique, science/philosophie, réalisme/poésie, ou fait/métaphore… Ces débats dualistes n’apparaîtraient plus, dès lors, que comme des querelles de clochers, d’importance relative. Il nous faut désormais une vision systémique globale, dans laquelle toutes les sciences particulières pourraient s’insérer, avec plus ou moins de bonheur, certes, mais sans aucune capacité d’imposer leurs cadres de références aux autres. Le principal serait alors acquis, à savoir la reconnaissance du fait même de la complexité de la complexité, de la complexité intrinsèque, spécifique de l’esprit humain, et de l’extraordinaire difficulté à en pénétrer l’essence. Reconnaître ce fait, et la nature même de cette difficulté, nous éviterait les dérisoires impasses de tous les dualismes et de tous les réductionnismes.

Il y a à peine un peu plus d’un siècle que l’on a commencé à réfléchir, avec quelque résultat, à la nature des processus psychiques. Auparavant, ceux qui essayaient de spéculer à ce sujet étaient handicapés par leur manque de concepts pour décrire des objets ou des systèmes extrêmement compliqués. Aujourd’hui, l’humanité a commencé d’accumuler quelques outils conceptuels qui permettent de comprendre des machines ou des systèmes comportant des millions de composantes. Cependant, les derniers modèles d’IA font désormais intervenir des centaines de milliards de paramètresi. La question de savoir si l’homme est capable de comprendre comment fonctionnent ces modèles d’IA, et pourquoi ils donnent tels ou tels résultats (les uns médiocres, d’autres bons ou excellents suivant les cas) reste ouverte. Avec un tel nombre de paramètres, comment suivre en effet en détail le fonctionnement des algorithmes, et comment s’assurer de leur fiabilité ? Des questions de nature similaire ou analogue se posent quant à notre capacité de comprendre le fonctionnement du cerveau humain. La difficulté persiste même si on se contente du point de vue réductionniste l’assimilant à un système composé de centaines de milliards de neurones et de synapses. Il faut comprendre que nous ne disposons pas encore des concepts dont nous aurions besoin pour appréhender des systèmes d’un tel niveau de complexité.

Demain, les systèmes d’IA possèderont des ordres de complexité bien plus élevés encore. Si le modèle de Llama 3.1 comporte aujourd’hui 405 milliards de paramètres (soit environ 0.4 x1012), qu’en sera-t-il des systèmes d’IA en 2050, ou en 2100 ? Pourrait-on imaginer par exemple qu’un facteur de dix milliards, soit 1010 , s’appliquera alors à la complexité de ces futurs systèmes par rapport à ceux de 2024? Cela équivaudrait à affecter à chaque individu de l’humanité entière la puissance de calcul symbolique aujourd’hui disponible dans le modèle Llama 3.1. Ce n’est là qu’une analogie, mais on pourrait ainsi spéculer sur la possibilité de simuler les interactions langagières et symboliques de sociétés entières, ou même de l’humanité dans son ensemble. Cela arrivera sans doute, et plus vite qu’on ne pourrait le penser, mais je suppose que nous n’aurions pas encore réellement les moyens de comprendre comment de tels modèles d’IA produiraient tels résultats plutôt que tels autres. Ce type de question est déjà au cœur des avancées actuelles. Même si la question reste ouverte, et précisément parce qu’elle reste ouverte, je voudrais proposer de transposer cette métaphore d’un système d’IA à dix mille milliards de milliards de paramètres (1022) à l’étude de l’essence même de l’esprit humain et de la conscience.

______________________

i Llama 3.1 405B , développé par Meta AI, représente le dernier bond en avant significatif dans les modèles de langage en open source. Il utilise 405 milliards de paramètres, et constitue à ce jour (août 2024) le plus grand modèle de langage librement accessible au public .

2 réflexions sur “Une IA à 10 puissance 22 paramètres, pour simuler l’humanité entière

  1. Pingback: Could an AI Simulate the Entire Humankind? | Metaxu. Le blog de Philippe Quéau

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.