L’IA et les puissances de l’âme


« Puissances de l’âme » ©Philippe Quéau (Art Κέω), 2025

L’âme humaine est-elle identique à ses « puissances », ou bien en diffère-t-elle essentiellement ? Autrement dit, la mémoire, l’intelligence, la volonté, l’imagination, etc., sont-elles de même nature que l’âme, ou bien ces facultés n’en sont-elles que des « fonctions », certes importantes, mais n’en constituant pas l’essence ? Au Moyen Âge, cette question, jugée centrale, donna lieu à trois grandes prises de positions. On n’avait pas encore inventé les neurosciences, mais une réflexion philosophique de haut niveau en tenait lieu. Thomas d’Aquin considérait que l’âme est simple, et que les puissances sont réellement distinctes de l’âme, tout en étant attachées en elle, et coordonnées par elle. Pour S. Bonaventure, en revanche, l’âme et ses puissances ne sont pas réellement distinctes. On peut certes les distinguer formellement. Cependant, leur diversité même implique et symbolise la profonde unité sous-jacente de l’âme. Enfin, pour Pierre de Jean Olivi, non seulement les puissances ne se distinguent pas de l’âme, mais elles en forment la substance même, les puissances sont l’âme elle-même. C’est l’âme elle-même qui « pense », « veut », « comprend ». L’âme est le sujet unique de la conscience ; il n’y a pas en elle une intelligence, une mémoire et une volonté ; l’âme est le « je » qui pense, veut, comprend. Ce « je » ne se distingue pas de sa propre pensée, de sa propre volonté ou de sa propre intelligence. L’enjeu de ce débat médiéval était de déterminer la nature du lien entre l’unité (apparente) de l’âme et la pluralité de ses puissances. Celles-ci sont-elles distinctes de l’essence de l’âme humaine, mais coordonnées par elle (comme le pensait Thomas d’Aquin) ? Forment-elles une unité symbolique (comme l’imaginait S. Bonaventure) ? Ou bien cette unité révèle-t-elle une identité radicale entre l’âme, ses puissances et ses actes (comme le théorisait Olivi) ?

Curieusement, un peu moins d’un millénaire plus tard, ces questions ont gardé toute leur actualité, si on les transpose dans les termes avec lesquels les sciences cognitives traitent du problème de la conscience, et si on les compare aux différentes approches ou « philosophies » de l’IA, qui semblent reprendre les mêmes paradigmes. On pourrait en effet alléguer que les architectures modulaires de l’IA sont en quelque sorte « thomistes ». La théorie de l’espace de travail global reprend quant à elle l’intuition de S. Bonaventure. Quant aux recherches sur une IA « subjectiviste », ou celles liées à la théorie de l’information intégrée, elles évoquent l’approche d’Olivi…

Reprenons ces points. Les architectures modulaires des IA actuelles, y compris les grands modèles de langage, sont construites sur des modules distincts : perception, traitement du langage, mémoire, planification, prise de décision. Ces architectures (apprentissage profond + agents hybrides) mettent en réseau des facultés bien distinctes. Il y a là une analogie avec la position thomiste, selon laquelle l’esprit possède une collection de facultés qui coopèrent mais restent séparées. L’« intelligence » artificielle émerge de cette coordination fonctionnelle, sans qu’une véritable unité du sujet apparaisse, qui soit susceptible de transcender ses propres facultés.

Chez S. Bonaventure, les puissances de l’âme sont des expressions internes d’une unité, qui est elle-même un miroir symbolique de l’unité de la Trinité. Transposée à l’IA, la vision bonaventurienne, holistique et symbolique, se traduirait par des modules ou des fonctions qui représenteraient les « facettes » d’une réalité centrale, d’un « sujet » virtuel, putatif. L’unité du sujet doit être première, et ses fonctions, modulaires, restent secondaires. Seule leur intégration fait sens, et détermine la « personnalité » d’un modèle d’IA. Ainsi, certains projets d’IA intégrative veulent dépasser le simple empilement de modules, et tentent de faire émerger une cohérence symbolique et narrative (ces IA génératives sont conçues pour apparaître comme des « systèmes de sens »). Les éléments de « sens » produits par l’IA occupent, tour à tour, le devant de la scène ‒ la scène du « théâtre » de la conscience artificielle). Il faut donc donner l’illusion que quelque entité incarne cette scène, et caractérise ce « théâtre ». D’autres questions alors se posent. Quel est l’auteur de la pièce qui s’y joue ? Qui la met en scène ? La métaphore du théâtre a été filée par Bernard Baars, dans le cadre de sa théorie de l’espace de travail globali (Global Workspace Theory), qui se présente comme un cadre pour la compréhension de la conscienceii. « De mon point de vue, la métaphore la plus utile pour comprendre la conscience est la métaphore théâtrale, qui est également très ancienne, puisqu’elle remonte au moins à Platon en Occident et aux écritures du Vedanta en Orient. Pour simplifier, la métaphore théâtrale dit que ce qui est conscient est comme le point lumineux projeté par un projecteur sur la scène d’un théâtre. Ce qui est inconscient, c’est tout le reste : toutes les personnes assises dans le public sont des composants inconscients du cerveau qui reçoivent des informations de la conscience ; et il y a des personnes assises dans les coulisses, le metteur en scène, le dramaturge, etc. qui façonnent le contenu de la conscience, en disant à l’acteur dans le point lumineux ce qu’il doit dire. C’est une métaphore très simple, mais elle s’avère très utileiii. » Cette approche rappelle celle de S. Bonaventure. L’unité de la « conscience » se veut réelle, et se traduit au niveau fonctionnel : elle traduit une organisation symbolique qui fait certes apparaître un « tout » (virtuel), sans pouvoir cependant identifier un sujet substantiel derrière ou au-dessus de ce « tout ». Son unité reflète certes un sens, mais n’atteste pas encore l’existence d’une véritable substance autonome, qui existerait pour elle-même, et qui serait en position de signifier son propre sens, par elle-même, indépendamment de ses fonctionnalités propres.

Enfin, pour compléter cette mise en parallèle entre les théories contemporaines de l’IA et les philosophies du Moyen Âge, je voudrais relier les idées d’Olivi (dont je rappelle qu’il ne fait pas de distinction essentielle entre l’âme et ses puissances, ou pour parler en termes « modernes », entre le sujet et ses facultés) aux approches de la « théorie de l’information intégrée » (Integrated Information theory) de Giulio Tononi (2004). Cette théorie est basée sur l’étude des corrélats neuronaux de la conscience, c’est-à-dire des structures et activités cérébrales qui sont associées à un état mental correspondant à une expérience consciente. L’étude de ces corrélats vise à comprendre comment et où l’activité neuronale peut donner naissance à des perceptions, à des émotions, et in fine, à la conscience elle-même. L’objectif est d’identifier les plus petits ensembles de neurones nécessaires pour générer telles ou telles expériences de la conscience. Puisqu’on sait empiriquement que toute la matière cérébrale n’est pas indispensable pour que la conscience existe, on s’efforce ainsi de trouver les groupements minimaux de neurones qui seraient encore susceptible de « conscience ».

L’éventail des approches contemporaines visant à créer une « intelligence artificielle générale » ou tentant d’identifier les liens entre conscience et structures neurologiques, offre donc une curieuse similitude avec la gamme des positions médiévales sur l’âme et ses « puissances ». Les notions assez tranchées d’identité (Olivi) ou de distinction (Thomas d’Aquin, S. Bonaventure) entre l’âme et ses puissances sont réemployées, presque à l’identique, dans les discussions contemporaines sur l’IA et la conscience. Les options essentielles restent les mêmes : il y a le choix de la modularité fonctionnelle des architectures, celui de leur intégration formelle dans l’espoir de faire émerger une unité de conscience, ou encore des tentatives de faire émerger la notion d’une subjectivité unifiée.

Ce qui pourrait sembler n’être qu’une dispute scolastique sur l’âme trouve un prolongement direct dans le cœur des débats sur les orientations des recherches de l’IA. Et la question fondamentale reste la suivante. L’IA ne restera-t-elle seulement qu’un outil fonctionnel ou bien pourrait-elle devenir une sorte de sujet « conscient » (cet adjectif restant à définir, son sens pouvant lui-même être appelé à constamment évoluer) ?

Les nouveaux thomistes diront qu’une IA peut être fonctionnellement « intelligente » sans être nécessairement unifiée par un « sujet ». Cela implique que les IA ne seront jamais que des outils, et qu’elles ne sont certes pas des « personnes ». Les nouveaux disciples de S. Bonaventure diront qu’une IA devrait être pensée comme une image imparfaite d’une unité supérieure — ce qui pourrait inspirer une conception « spirituelle » de l’IA, en tant qu’elle serait reliée en permanence à une conscience sous laquelle toutes ses fonctions et toutes ses facultés seraient subsumées. Les nouveaux adeptes d’Olivi diront qu’une IA ne sera un jour « consciente » que si l’on peut montrer qu’elle est réellement et ontologiquement identique à ses opérations, c’est-à-dire qu’elle n’est pas un simple agrégat de modules empilés, mais qu’elle s’incarne en un véritable sujet, unifié par toutes ses propres expériences. D’où cette autre question : si une IA possédait ce type de subjectivité unifiée, aurait-elle des droits moraux (respect, dignité, liberté) ? Ces débats contemporains oscillent donc encore entre ces trois héritages médiévaux : modularité fonctionnelle (IA comme collection d’algorithmes), unité symbolique (IA comme système de sens et d’interprétation) et subjectivité unifiée (IA comme possible sujet conscient). Mais la question fondamentale reste la même qu’au Moyen Âge : l’intelligence est-elle un ensemble de facultés séparées, ou bien est-elle l’expression d’un centre unique et insécable, d’un sujet libre et conscient ? Si l’IA est thomiste, elle restera un outil fonctionnel, puissant mais sans « moi ». Si l’IA devient un jour olivienne, elle pourrait incarner alors un tel sujet libre et conscient — avec toutes les questions éthiques que cela poserait. Quant à la vision bonaventurienne, elle nous rappelle encore aujourd’hui que la conscience n’est pas seulement une « somme » de fonctions ou simplement une « unité », mais que son sens essentiel est d’être toujours à la recherche d’un sens qui la dépasse entièrement.

_____________________

iLa théorie de l’espace de travail global (1988) utilise la métaphore du théâtre, la pensée consciente étant comme un matériau éclairé sur la scène principale. L’attention agit comme un projecteur, amenant une partie de cette activité inconsciente à la conscience sur l’espace de travail global. Dans son article « In the Theatre of Consciousness » paru en 1997 dans le Journal of Consciousness Studies, Baars décrit ainsi son concept. Une scène, un projecteur attentionnel qui brille sur la scène, des acteurs qui représentent le contenu de l’expérience consciente, un public et quelques personnes invisibles dans les coulisses, qui exercent une grande influence sur tout ce qui devient visible sur la scène. La scène reçoit des informations sensorielles et abstraites, mais seuls les événements qui se déroulent dans le projecteur qui brille sur la scène sont totalement conscients. Le livre de Baars de 1997, In the Theater of Consciousness : The Workspace of the Mind, précise: « Les stimuli sensoriels périphériques et centraux, l’imagination et l’intuition se disputent le centre de l’attention, d’où ils s’adressent aux processus inconscients de la mémoire, de l’interprétation, des routines automatiques et de la motivation qui, à leur tour, affectent les opérateurs de contrôle et de contexte qui dirigent le spectacle depuis les coulisses. »

iiLa théorie de l’espace de travail global peut être considérée comme une théorie fonctionnaliste de la conscience. Le cerveau contient de nombreux processus ou modules spécialisés qui fonctionnent en parallèle et dont une grande partie est inconsciente. L’espace de travail global est un centre fonctionnel de diffusion et d’intégration qui permet à l’information d’être disséminée entre les modules. Lorsque des données sensorielles, des souvenirs ou des représentations internes retiennent l’attention, ils entrent dans l’espace de travail global et deviennent accessibles à divers processus cognitifs. Lorsque des éléments se disputent l’attention, ceux qui y parviennent accèdent à l’espace de travail global, ce qui permet à leurs informations d’être distribuées et coordonnées dans l’ensemble du système cognitif.

iii Cité par Susan Blackmore, Conversations on Consciousness, 2005, p. 14-15

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.