L’art anomique (des modèles)


« L’Art anomique des modèles » ©Philippe Quéau (Art Κέω) 2025

L’art des modèlesi

Qu’il agisse, qu’il produise ou qu’il théorise, l’homme doit représenter le monde comme il doit se représenter lui-même. Il se représente ses buts, ses outils et ses modèles. Cette activité inépuisable se nourrit d’elle-même : la représentation des buts fait émerger des morales, celle des outils permet de concevoir des outils de fabrication d’outils, et celle des modèles conduit à l’épistémologie. Tout est prétexte à représentation et à modélisation. Toutes les lois sont énonçables. Tous les systèmes sont concevables. La malléabilité et la souplesse des représentations permet de tout oser, de tout penser. On n’ose d’ailleurs jamais assez penser. Les filières conceptuelles imposent leurs contraintes propres : l’espace euclidien implique la géométrie du même nom, et celle-ci favorise une logique des états et des solides. Les lois que la raison invente viennent non pas tant des objets « en soi », que des réseaux de relations qu’ils entretiennent. Ces relations permettent des comparaisons et conduisent à formuler des lois et des modèles, ou, du moins, les induisent. Les relations entre objets préfigurent les modèles, bien avant que les concepts ne puissent eux-mêmes modéliser les choses. Des objets qui restent immobiles, stables, séparés, permettent l’établissement de rapports observables du fait de leur « pérennité » et de leur « masse ». On peut « manipuler » les objets réels. L’esprit rêve d’en faire autant avec leurs fantômes idéaux.
Matière et intelligence se modèlent l’une l’autre, elles se renvoient respectivement une image adaptée, symétrique. Peser, c’est déjà penser, et penser, c’est soupeser. A force de connaître le poids des choses, l’esprit cherche à s’en délivrer. II veut se détacher de la matière, de son inertie, qui ralentit son impulsion et son intuition. Malgré le danger de la désincarnation et de la dépossession, la tendance de l’esprit à quitter l’immédiateté sensible est permanente et irrésistible. C’est la condition d’une pensée universelle, détachée de la singularité. Alors peut commencer une autre quête.
En quittant la matière, l’esprit révèle sa vraie nature : non pas penser la nature, mais se penser lui-même. Les modèles sont avant tout un prétexte à s’abstraire des choses, une occasion de penser et de généraliser. Les outils du modeleur héritent de cette déréalisation. Les physiciens, par exemple, aiment s’appuyer sur les mathématiques. Ce sont de plus en plus les modèles mathématiques qui prouvent ou même déterminent l’existence des phénomènes physiques. En physique des particules élémentaires, un phénomène n’advient en fait que s’il est préparé et annoncé mathématiquement. Des physiciens disent que le principal objet des sciences physiques, c’est « la formulation de lois gouvernant les phénomènesii ». Ce sont les lois qui bâtissent la physique, plutôt que le contraire. Bien sûr, la nature peut invalider ou réfuter les théories fausses, mais l’absence de toute réfutation n’est jamais une preuve de la justesse « ontologique » de la théorie. Elle n’est qu’une démonstration provisoire de la cohérence locale d’un modèle sans doute appelé à des réformes futures. Tout modèle valide n’est qu’une borne-frontière signalant les limites actuelles de nos capacités de réfutation.
Indéniable néanmoins la prééminence accordée aux mathématiques comme outil de modélisation. Cette universalité des mathématiques peut conduire à une sorte d’impérialisme. Pour René Thom, qui défend vaillamment sa propre chapelle, « le problème fondamental de la Biologie est un problème de Topologieiii ». La morgue des mathématiciens est excusable. Leur langage est tellement universel ! Les mathématiques paraissent des outils idéaux, jouant efficacement le rôle d’intermédiaire entre la pensée et le réel. D’une part, il faut reconnaître qu’elles rendent très bien compte de la réalité physique, d’autre part, elles « satisfont » notre raison : que demander de plus ?
Aussi peut-on comprendre le cri joyeux de Nietzsche : « Dans les mathématiques […] la connaissance absolue fête ses Saturnalesiv ». Cependant, cet absolu n’est pas absolument nourrissant. Il est plutôt vampirisant. Il faut d’ailleurs se prémunir contre l’idéal de la « computation universelle » qui voit en toutes choses un objet calculable, au risque de le vider de toute substance. C’est pourquoi Hegel assure que la philosophie doit « dédaigner » la connaissance qu’offrent les mathématiques, dont il faut bien constater « la pauvreté du but et la défectuosité de la matièrev ». Les mathématiques n’offrent que des propositions rigides et mortes ne parvenant pas à s’animer elles-mêmes du souffle des choses qu’elles sont censées saisir.
Faut-il donner raison à l’enthousiasme nietzschéen ou rendre I hommage à l’humanisme hégélien ? Il y a deux grandes catégories de penseurs : les penseurs de faits et les penseurs de lois. Les uns érigent les faits en réalité absolue. Pour les autres, c’est la loi qui est la réalité fondamentale ou ultime. C’était déjà le débat de Platon et d’Aristote. Aujourd’hui, il serait bien vain de prétendre trancher. Que les lois soient « symboliques » ou « réelles », elles peuvent toujours subir des validations, des rapprochements et des recoupements. Ces vérifications empiriques ou théoriques permettent de créer des êtres nouveaux (les modèles sont des « êtres de raison ») que l’on peut toujours considérer, suivant les goûts, soit comme la réalité ultime des choses, soit comme leur copie affaiblie. Dans les deux cas, le modèle acquiert une existence presque tangible.
Historiquement, la notion de modèle était essentiellement concrète. Le mot modèle vient de modulus, terme latin d’architecture qui désigne le module ou la mesure établissant les rapports de proportion entre les différents éléments d’un bâtiment, et donc sa cohérence. Le mot modulus a donné en français le modèle et le moule. Le moule n’est pas d’abord ce qui rend identique, mais bien ce qui rend cohérent, ce qui agrège. La tarte ou la statue doivent au moule leur forme, certes, mais plus encore leur intégrité et leur consistance. Cette cohérence, interne et externe, il faut la vérifier en validant les modèles. La validation des lois et leur organisation en modèles permettent de tenter l’aventure de la généralisation. Les modèles, par leur généralisation même, sont l’occasion d’acquérir des connaissances supplémentaires sur les lois qui les structurent.
Par exemple, la loi de l’attraction universelle de Newton a permis plus tard, au 19e siècle, une floraison de clones, une multiplication de modèles mécaniques d’inspiration similaire. L’induction et la généralisation sont des méthodes fécondes. Elles permettent en particulier de multiplier les modèles alternatifs et donc de les relativiser les uns par rapport aux autres. Après Euclide, Riemann et Lobatchevsky proposent moins des géométries incompatibles que complémentaires. Bien loin d’imposer définitivement un point de vue absolu sur l’espace, ils contribuent notoirement à en diversifier les potentialités et aussi à réduire les géométries et les algèbres au rang de jeux formels. Ils affirment ainsi la liberté des modèles mais aussi leur vanité. La prolifération des modèles implique le développement d’autres formes d’expérimentation et de validation. L’expérience concrète n’est souvent ni possible ni souhaitable. Alors on ne peut évaluer les modèles qu’en les simulant virtuellement. La simulation met en évidence les défauts de cohérence du modèle, son domaine effectif de validité, l’importance relative des différentes variables. Elle permet éventuellement de révéler les biais et les artefacts structuraux que l’on a pu introduire subrepticement pendant la modélisation.
Le modèle n’est jamais une simple représentation, une copie triviale. Il a une vie autonome, il obéit à des lois propres qui ne sont pas seulement celles que l’on croit lui donner lors de son élaboration. Il peut donc surprendre son créateur. Cette imprévisibilité n’est pas magique. Elle s’explique par l’acte même du rassemblement des lois particulières en un tout « cohérent ». Cette cohérence décrétée induit en retour une modification des rapports structuraux qu’entretiennent les éléments du modèle, et ces rapports ne peuvent pas être entièrement déterminés au moment de l’élaboration. La modélisation est bien une réduction symbolique, mais cette réduction n’est jamais neutre. Elle renforce certaines liaisons structurelles et en efface d’autres. Toute modélisation est une recomposition originale du monde. De fait, les propriétés émergeant alors peuvent être complètement déréalisées (au pire elles invalident le modèle) ou elles peuvent révéler des rapports impensés. Un autre aspect du problème est la part d’arbitraire que recèle toute modélisation. Un même phénomène peut être modélisé mathématiquement de façons très différentes. La même réalité peut être traduite en des modèles qui sont intraduisibles ou incompatibles entre eux. Des niveaux différents de description conduisent en effet à des formalismes indépendants. De plus, on peut très bien modéliser en se passant de toutes références au réel : des hypothèses fausses, un raisonnement approximatif et des conclusions ambiguës peuvent malgré tout être utiles. En effet, la simulation propose moins des réponses qu’elle ne permet de formuler ou de reformuler des questions. Entre le modèle comme réponse à une question préalable et le modèle comme question pure, il y a évidemment toute la gamme des acceptions intermédiaires. On retiendra quatre types principaux de modèles, suivant quatre fonctions : la réduction, la partition, l’analogie et la simulation.

LA RÉDUCTION

Le modèle « réduit » permet de se libérer de l’accessoire pour garder l’essentiel. C’est une figuration de l’idéal. Le chat est un modèle du tigre, non parce qu’il est un petit tigre, mais parce qu’Il concentre dans un espace réduit les caractéristiques du félin idéal. Sa petitesse le rend ultimement félin. De même, la « cathédrale idéale » de Viollet-le-Duc, jamais construite et pour cause, est une cathédrale idéalement réduite à ses éléments théoriques (en l’occurrence fort discutables, mais ce n’est pas le propos). Cette cathédrale est idéale parce qu’elle est « réduite », « théorisée », ce qui ne l’empêche pas d’être fort laide et, à sa façon, très loin de toute cathédrale réelle.
La réduction « idéale » peut s’appliquer aux fonctions les plus diverses. Le chant du grillon ou la nage de la sangsue peuvent être « réduits » à un arrangement particulier de neurones et aux impulsions qui y circulent. Le chant idéal est considéré comme résultant d’une détermination câblée parmi l’ensemble de tous les chants possibles. De même, chez l’homme, on peut « réduire » toutes les sensations physiques à une zone particulière du cerveau : l’homuncule sensoriel. Cet homuncule est une image anamorphosée du corps, caractéristique de l’importance relative des sensations éprouvées : les lèvres sont énormes, les mains occupent une place considérable, le sexe est bien plus petit que ce qu’on pourrait croire, les pieds sont minuscules. L’homuncule est une image « réduite » des contacts sensoriels de l’individu. Il idéalise le corps sensible. On trouve plusieurs homuncules juxtaposés, jouant des rôles distincts au fur et à mesure que les capacités du cortex augmentent. La réduction est un moyen efficace de générer de la complexité, par recombinaison des éléments réduits.

LA PARTITION

Modéliser peut servir à induire un classement ou une partition d’un ensemble concret ou abstrait. Il s’agit de se doter d’un outil de hiérarchisation arbitraire permettant d’organiser totalement un corpus. Il ne doit y avoir aucune « perte ». L’information est simplement arrangée pour qu’elle soit plus maniable, mais il n’est pas question de la filtrer ou de la simplifier. Pour obtenir ce résultat, il est nécessaire, sous peine d’incohérence, de se doter d’un critère unique, d’une seule clé de partition. Cette unicité ne va pas de soi dans le cas de créatures non aristotéliciennes (voir le chapitre « Affinités »). On prendra notre premier exemple dans la botanique avec le classement de l’ensemble des arbres existants d’après leur mode de croissancevi. Il faut savoir que la croissance d’un arbre peut être analysée selon différents critères. Elle peut être « monopodiale » quand les méristèmes ont une croissance indéfinie, ou « sympodiale » quand leur croissance est finie (floraison, puis mort). La croissance peut être « rythmique » s’il y a une alternance régulière de phases d’élongation et de repos, ou « continue » si l’on observe un synchronisme parfait entre élongation et organogénèse. Enfin, la croissance peut être « orthotrope » si elle est verticale avec une symétrie radiale, ou « plagiotrope » si elle est horizontale avec une symétrie dorso-ventrale. Ces différents caractères se combinent les uns avec les autres. Des caractères opposés également coexister sur le même arbre. Par exemple, on peut observer une continuité parfaite entre plagiotropie (les feuilles) et orthotropie (le tronc).
Les arbres réels sont des combinaisons originales des modes de croissance ainsi définis. On peut introduire le concept de « modèle architectural » des arbres. Le modèle architectural d’un arbre est sa « stratégie de croissance », tenant compte de la manière dont la plante pousse et de l’architecture finale qui en résulte. Cette définition conduit à une répartition de tous les arbres existants en vingt-trois modèles. On considère que ces vingt-trois modèles sont des types bien marqués, mais que toutes les architectures et toutes les formes intermédiaires sont théoriquement possibles. Cette modélisation n’a qu’une vertu pragmatique de classement dans le monde essentiellement continu de toutes les espèces d’arbres. Un modèle d’arbre n’est qu’une forme plus ou moins stable parmi toutes les formes concevables. Réciproquement, une plante particulière peut appartenir à deux ou trois modèles différents.
Ce que nous voulons montrer ici, c’est que c’est l’idée même de « modélisation de la croissance » qui permet et justifie le classement des espèces d’arbres. La notion de « stratégie de croissance » induit des regroupements particuliers, fait ressortir notamment l’extraordinaire variété structurelle des arbres tropicaux et le très faible nombre (trois ou quatre sur vingt-trois) des modèles de croissance des arbres des pays tempérés. En se donnant d’une part un critère universel, ici la « façon » de croître, et d’autre part une grille d’analyse (rythme, direction, durée), on peut en déduire une répartition totale des éléments de l’ensemble.
Un autre exemple de partition nous vient de la physique mathématique. On admet, en effet, que tous les modèles de la physique peuvent se ramener à trois grands types : le type elliptique, symbolisé par l’opérateur laplacien, le type hyperbolique, dominé par l’opérateur d’alembertien, et le type parabolique. Les modèles du premier type décrivent des phénomènes stationnaires, ceux du second type des phénomènes ondulatoires et ceux du troisième type les phénomènes de diffusion. Cette classification repose essentiellement sur un critère : l’évolution dans le temps de champs de données spatiales. Cet unique critère permet de réduire l’ensemble des phénomènes physiques à un très petit nombre de types. Ceci s’explique par l’existence de contraintes universelles imposées par l’espace et le temps. Il existe en effet des groupes de transformations qui laissent invariants les phénomènes physiques auxquels on les applique, comme les transformations du groupe galiléen ou du groupe de Lorentz. Les modèles qu’on tire des phénomènes doivent eux aussi rester invariants dans de telles transformations. Cette seule contrainte limite à trois l’éventail des types de modèles possibles.

L’ANALOGIE

La dimension analogique de toute modélisation est liée au thème métaphysique de l’harmonie du monde. L’analogie est une préoccupation, une volonté active. Les rapprochements analogiques ne sont pas des ressemblances empiriques. Ils permettent au contraire d’induire des dissemblances nouvelles mais aussi de dévoiler des ressemblances cachées. Le raisonnement analogique se fonde sur le culte de l’écart. Plus les termes mis en relation analogique sont éloignés, plus cette audace semble être payée de retour : on invente ce qu’on trouve, on pose ce qu’on cherche. Cette démarche arbitraire s’appuie sur une véritable façon de penser l’être des choses. Elle établit des rapports de proportion et de ressemblance entre des réalités dissemblables, mais que l’esprit assimile a priori comme formellement similaires. L’analogie est à la fois une transgression et une assimilation. Contre l’évidence des sens, elle affirme la primauté fondamentale du sens.
Quand Jacques Monod déclare qu’il se surprend lui-même, à force de concentration sur une expérience, à « s’identifier à une molécule de protéine », il nous propose une analogie fondatrice de sens. La protéine gagne beaucoup plus de choses à nos yeux que le savant n’en perd. L’analogie liant Monod à la molécule doit être comprise comme une analogie ascensionnelle, une émergence de la protéine à la conscience même (du savant). C’est une analogie de l’analogie entre Dieu et l’homme, entre le démiurge et son œuvre.
« Entre la créature et le Créateur, il ne peut y avoir de similitude qui ne soit traversée d’une plus grande dissimilitude » (Concile de Latran IV, en 1215). La molécule n’est pas une image du savant, c’est le rapport du savant et de la molécule qui fonde une image de la création scientifique. II ne peut y avoir de modèles du réel qui ne soient traversés d’irréductibles écarts par rapport au réel.
Ce n’est pas par hasard que la modélisation analogique ait beaucoup de succès en métaphysique, par exemple dans la définition de l’âme. Aristote, au livre II du traité De l’âme, compare différentes sortes d’âmes (l’âme végétative des plantes, l’âme sensitive animaux et l’âme intellectuelle des hommes) aux figures géométriques, dont l’une contient l’autre « comme » le pentagone contient le carré. On peut aussi évoquer S. Augustin qui voit dans l’âme une analogie de la Trinité. Il propose un modèle « trinitaire » et relationnel de l’âme, vue « comme » un nœud indissociable de mémoire, d’intelligence et de volonté. « Car je me souviens que j’ai une mémoire, une intelligence, une volonté ; je comprends que je comprends, que je veux, que je me souviens ; je veux vouloir, me souvenir, comprendre, et je me souviens en même temps de ma mémoire tout entière, de mon intelligence tout entière, de ma volonté tout entièrevii ». Ce modèle ternaire est une analogie du modèle trinitaire de la Trinité. S. Augustin ne nous propose ni une image de l’âme, ni une image de la Trinité, mais un modèle de l’entrelacement ternaire. Cette analogie nous rend plus proches du mystère, sans toutefois le révéler. Le fait même qu’une analogie soit possible est aussi, en soi, un mystère.

LA SIMULATION

La modélisation conduit à la simulation, comme nous l’avons montré ailleursviii. Tous les modèles ne peuvent pas être simulés. Mais la simulation, quand elle est possible, est une fonction cruciale. Pour pouvoir être simulé, un modèle doit autoriser une variation réglée de sa structure. La simulation dynamise le modèle, l’inscrit dans une durée, révèle ses potentialités – en un mot l’anime. Si l’on peut considérer l’œuf comme un modèle de la vie, c’est bien parce qu’il contient en lui-même toutes ses virtualités de développement. L’embryogenèse est un modèle de l’ontogenèse et la simule. L’étude du corps favorisa naturellement la mise au point de tels modèles de simulation. Ainsi Boerhaave, professeur de médecine à Leyde, affirme en 1708 que « le mouvement des fluides et la différente résistance des solides sont les deux principes de la constitution du corps humainix ». Son modèle du corps « suit les lois de la mécanique », et cherche à simuler par son mouvement Ie mouvement même de la vie. Le « iatromécanisme » de Boerhaave est déjà un modèle de simulation plus qu’un simple modèle de représentation. Il met l’accent sur la dynamique et l’énergétique plus que sur l’anatomie ou la physiologie. Ce qui est en jeu, c’est de mimer la vie même.
Plus récemment, on a cherché à simuler le fonctionnement du cerveau. Par exemple, Prigogine affirme que des réactions métaboliques. comme la glycolyse ou les ondes cérébrales, peuvent être analysées en termes de structures dissipatives temporelles. Aux modèles du cerveau fondés sur la géométrie des connexions neuronales. on adjoint désormais des modèles dynamiques, basés sur la succession dans le temps des impulsions nerveuses et sur la diffusion à distance de signaux chimiques par le sang. Ce type de modélisation met résolument l’accent sur le mouvement, le changement. Il est moins important de caractériser des assemblages de neurones que d’étudier des dynamiques d’évolution et de transformation. La simulation cherche moins à identifier des structures qu’à saisir des principes, des lois générales de mouvement.

Les différentes classes de modèles que nous venons de passer en revue n’ont pas les mêmes possibilités de transformation et d’évolution. Les modèles de réduction et de partition sont en effet beaucoup plus figés que les modèles analogiques et les modèles de simulation. La réduction et le classement nécessitent une préconception, une référence idéale ou un critère principal de répartition. En revanche, l’analogie et la simulation favorisent un certain arbitraire, soit dans l’interprétation, soit dans la validation. La modélisation doit tenir compte de cette part variable d’arbitraire entre la loi et son application, entre la règle et ses exceptions, entre l’ordre fixé et le hasard subi. Aucun modèle ni aucune idée ne peuvent être totalement livrés à eux-mêmes. Ils doivent avoir prise sur l’extérieur, l’inconnu, l’imprévisible. Ils doivent pouvoir supporter sans dommage un certain arbitraire. La cohérence et le consistance que nous évoquions plus haut doivent pouvoir subir d’éventuelles contraintes ou déformations. On doit juger un modèle à sa capacité de résistance à des « agressions » circonstancielles ou même structurelles. Par exemple, en mécanique, on peut décrire l’évolution d’un système par deux types différents de modèles : les modèles locaux et les modèles globaux. Les modèles locaux se traduisent par des systèmes d’équations différentielles (équations de Lagrange et de Hamilton) qui obéissent à un déterminisme local. Les modèles globaux font appel à un principe « finaliste », le principe de moindre action. On peut considérer que ces modèles sont équivalents pour de petites modifications éventuelles des systèmes ainsi modélisés. Mais en cas de forte perturbation, le déterminisme local sera nettement défavorisé par rapport au finalisme global.
Les modèles de simulation sont naturellement les plus mathématisables, ils sont donc les plus aptes à l’évolution et à l’interaction dynamique. En effet, les modèles mathématiques sont de véritables pâtes symboliques. Ils permettent tous les pétrissages, tous les remodelages. Le modeleur peut « sentir sous ses doigts » ces pâtes mathématiques. Elles lui communiquent leur désir de formes, leur aspiration à accoucher de nouvelles figures symboliques, de nouveaux arrangements conceptuels. Les mathématiques sont des pâtes à modèles, des pâtes à modeler, des glaises, des boues, des cires, des sables qui rêvent de tous les possibles. Ce ne sont pas des pâtes banales. On peut faire varier leur mollesse, on peut programmer leur plasticité et leur consistance. Ces propriétés inépuisables ne sont pas réservées à des formes immatérielles, à un univers idéal. N’oublions pas que les mathématiques étudient des êtres qui ne sont pas séparés de la matière, mais qui sont au contraire « comme engagés en ellex ». Manipuler des modèles mathématiques équivaut à malaxer une sorte de matière diversement visqueuse, une matière « intermédiaire » entre la substance même des choses et l’idée pure.
On peut pétrir « analogiquement » les formes et les modèles mathématiques. Cette liberté n’est pas sans danger. Car les mathématiques ne résistent presque pas. On peut en tirer presque tout ce qu’on veut. Quoique engagées dans la matière, elles n’en ont pas toute l’inertie. Elles permettent tous les rapprochements, tous les apparentements. Il sera, par conséquent, toujours nécessaire de recourir à une validation par un retour à la matière.
Un autre danger doit être souligné : c’est celui de la puissance des mathématiques, qui peut finir par brider la pulsion créatrice et la ramener à la portion congrue. A trop mathématiser, on risque de perdre sa manière naturelle, on peut devenir l’esclave de méthodes et de procédés stéréotypés. Ce danger n’est pas nouveau. Vasari, déjà, l’avait bien noté dans sa Vie de Paolo Uccello, à propos de la perspective, dont l’utilisation trop systématique ou trop servile lui semblait condamnable. Ce n’est pas tant la modélisation mathématique qui serait dangereuse en soi, mais plutôt son excès, conduisant à un asservissement de la personnalité à quelque chose d’étranger.
Quiconque s’engage dans l’apprentissage des modèles prend le risque de se laisser submerger par un arsenal puissant mais spécifique et celui de perdre de vue ses fins par trop d’attention aux moyens. Il ne faut pas badiner avec les modèles ! La modélisation n’est pas un acte simple. C’est une démarche qui peut avoir un retentissement sur tout l’être. On commence par créer de petits modèles-outils, et puis, de fil en aiguille, on peut remettre en question toute sa philosophie du monde, sa manière même de penser. La modélisation est un acte quasi démiurgique. Dans les modèles sommeillent des Golems toujours prêts à renverser notre vision des choses. Le danger des modèles est aussi ce qui les rend si intéressants. Les menaces qu’ils recèlent pour nos propres modèles inconscients de pensée sont proportionnelles à leur impact artistique ou scientifique.
De même que les chromosomes servent à la fois de programme et de matrice, de mémoire et de moule, de plan et d’ouvrage, nos modèles ne sont pas simplement nos produits, ils nous produisent aussi ! Ils se réalisent en nous autant que nous nous réalisons en eux. La modification d’une seule molécule peut affecter par l’enchaînement des réactions métaboliques des milliers d’autres molécules dont certaines peuvent à leur tour influencer la synthèse de cette première molécule. Les protéines synthétisées par nos chromosomes évoluent et, ce faisant, modifient les mécanismes mêmes de leur évolution. De même, notre pensée nous modifie comme elle évolue. Les modèles se travaillent comme nos concepts se travaillent. Ils ne cessent de se réformer. Ceci répond à une nécessité profonde d’interdépendance systémique, vraie pour les protéines du métabolisme, comme pour les modèles ou les systèmes conceptuels.
Des recherches récentesxi tendent à objectiver de tels mécanismes dans notre cerveau. Celui-ci est considéré comme un « simulateur » capable de combiner, de comparer des « objets mentaux » et, par ces actions mêmes, d’en créer de nouveaux. La pensée est conçue comme le déroulement dans le temps d’une chaîne d’opérations combinatoires. Les objets mentaux s’associent « de manière spontanée et autonome », par la mise en commun de neurones faisant partie au même moment de plusieurs objets mentaux différents. La « machine cérébrale » impose certes des contraintes structurelles aux connexions réalisables. L’objet mental est transitoire. Pour le fixer définitivement en concept, il faut le valider par un test de réalité. En le comparant avec d’autres concepts ou avec des perceptions extérieures, il est sélectionné ou éliminé. Un concept n’a pas seulement une représentation « locale » en tant qu’« objet mental », il est aussi « délocalisé », ce qui facilite les possibilités d’interaction et de liaison avec d’autres concepts. Il possède des « tentacules » qui peuvent aller chercher de nouvelles associations. Certains neurones dits « oscillateurs » pourraient être à l’origine de l’« imagination » ou de la « pensée créative ».
D’ailleurs, on peut expérimentalement « créer » ou « synthétiser » des images mentales par stimulation directe du cerveau : cela revient à modifier « systémiquement » des objets mentaux et à promouvoir de nouvelles combinaisons neuronales. Par l’usage de drogues hallucinogènes on libère le cerveau de l’emprise de la volonté et on observe une autonomie totale des enchaînements mentaux. Les images se succèdent sans tenir compte du monde réel ou de la volonté du patient avec lesquels elles n’ont aucune liaison. D’ores et déjà, les caméras à positrons (tomographie à émission de positrons) permettent d’observer sur des écrans graphiques des images de synthèse traduisant dynamiquement les états du cerveau. Ces techniques sont actuellement appliquées au diagnostic des maladies mentales. On peut distinguer clairement des anomalies graphiques en visualisant le cerveau de maniaco-dépressifs ou de schizophrènes.
On peut retirer de ces résultats étonnants la leçon suivante : toute activité du cerveau, aussi fugace soit-elle, se traduit par une modification structurelle de celui-ci. Les objets mentaux, même les plus instables, ne manquent pas de modifier les structures neuronales qui les voient naître et disparaître. Dans notre tentative de définir les conditions d’un art plus proche de notre propre façon de penser et de vivre, ces modèles du cerveau nous donnent les moyens de concevoir des systèmes « quasi vivants ».
On propose dans les lignes suivantes quelques pistes pour tenter de résoudre cet épineux problème : réaliser un modèle qui modifie sa structure par son fonctionnement même.

On a souvent observé qu’une loi à forme statique ne représentait qu’un point de vue restreint et particulier du phénomène censément décrit, et qu’il était toujours possible de la remplacer par une loi à forme dynamique, plus générale, plus universelle. On vérifie ici encore qu’on ne peut échapper à cette réalité de base : les mêmes principes ne sont pas valables tout le temps. Une loi n’est valable que localement. Elle s’inscrit dans un devenir, dans un ensemble d’interactions nécessaires. La loi, « image constante du phénomène toujours instable », doit elle aussi préparer sa propre instabilité. Une loi qui reste « égale à elle-même » prétend pouvoir mesurer les différences affectant le phénomène, comme le mètre sert d’étalon pour toutes les longueurs. Mais ceci n’est vrai qu’au premier degré. Il y a une perte fondamentale. Si la loi reste constante, le phénomène garde toujours, quant à lui, une capacité de changement. La loi immobile perd donc la mobilité (en puissance) du phénomène. Par analogie, le démiurge consciencieux (qu’il soit artiste, scientifique ou homme politique) doit s’astreindre à modéliser des lois qui puissent être plus changeantes que calmes. Il faut retrouver le mouvement des choses en soumettant les lois immobiles à d’autres lois, qui soient plus animées et peut-être plus civilisées. Ces lois plus générales doivent être suffisamment « sages » pour ne pas risquer de devoir à leur tour être réformées. En fait, elles doivent contenir l’essence même de la civilisation qu’elles irriguent, ou de l’art qu’elles inspirent. Elles fondent une vision du monde ! D’autres cultures et d’autres peuples ont déjà cherché à résoudre ce problème difficile.
La pensée en Chine (ancienne) était caractérisée, selon Marcel Granet, par cette formule cinglante : « ni Dieu, ni Loi ». Les Chinois refusent la notion de « règle constante » ou de Loi souveraine. Ainsi, ils considèrent qu’il est absurde d’imiter les anciens. L’antiquité d’un procédé parle contre lui : à temps différents, lois différentes… Les lois et les abstractions, les jeux dialectiques ou sophistiqués excitent leur mépris. En effet, ils ont pour corollaires des formes de raisonnement contraignantes. L’induction, la déduction, le « calcul » sont pour les Chinois des modalités de pensée trop mécaniques, trop uniformes, trop répétitives. Ils tiennent à préserver une part de jeu dans la pensée, une réserve d’indétermination, une possibilité de liberté pure. La pensée chinoise exclut l’idée de Loi. Ce que la civilisation judéo-chrétienne a pu à grand-peine reconstituer par le Commentaire de la Loi ou son herméneutique, la civilisation chinoise le pose d’emblée. La logique chinoise n’est point rigide, elle se veut souple. Ce qui importe pour elle, ce n’est pas la raison abstraite, mais la sagesse concrète, ce n’est pas le choc des raisons partielles, mais le principe d’une paix générale, qui est aussi la condition de possibilité d’une Raison universelle.
On pourrait prendre exemple sur l’idée de Raison universelle (et anomique) pour fonder un art des modèles qui ne soit surtout pas un modèle de l’art.

________________________

iExtrait du livre de Philippe Quéau. Metaxu. Théorie de l’art intermédiaire. Ed. Champ Vallon/INA. Seyssel, 1989, p.48-62

iiPaul Dirac. Principles of Quantum Mechanics. Oxford, 1986

iiiRené Thom. Stabilité structurelle et morphogenèse, Paris, 1977

ivF. Nietzsche. La naissance de la philosophie à l’époque de la tragédie grecque.

vG.W.F. Hegel. Phénoménologie de l’esprit.

viCf. la belle thèse de Cl. Edelin. L’architecture monopodiale. L’exemple de quelques arbres d’Asie tropicale. Montpellier, 1984

viiS. Augustin. La Trinité. XI, 18

viiiP. Quéau. Éloge de la simulation. Seyssel, 1986

ixHerman Boerhaave.Aphorismi de cognoscendis et curandis morbis. 1708

xAristote. La Métaphysique. E, 1, 1026a

xiJ.-P. Changeux. L’Homme neuronal. Paris, 1984

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.