De l’éducation aux cultures numériques


Éducation, Savoir, Culture, Numérique. Des mots chargés d’histoire.
Éducation vient du latin e-ducere « conduire hors de ». C’est l’équivalent latin du mot « exode » qui vient du grec. L’idée est sans doute qu’il faut tirer l’enfant « hors de » son état premier. L’apprenant doit sortir « hors de » son état antérieur, pour se mettre en mouvement, s’exiler de lui-même, non pour se déraciner, mais pour mieux se conquérir.

Savoir est apparenté étymologiquement aux mots saveur, sapidité, sapience. La sapience est sapide. La racine en est indo-européenne : sap-, le « goût ». Dans toute affaire de « goût », il y a l’idée d’un jugement, d’une liberté d’appréciation et de déploiement. Selon cette source étymologique, le savoir ne serait pas de l’ordre de l’ouïe ou de la vue (qui ne produirait que de « l’information »), mais bien des papilles gustatives (prélude à la « digestion »).
Culture vient du mot latin colere (« habiter », « cultiver », ou « honorer »). Le terme cultura définit l’action de cultiver la terre. Cicéron fut le premier à appliquer le mot cultura comme métaphore : « Un champ si fertile soit-il ne peut être productif sans culture, et c’est la même chose pour l’humain sans enseignement ». (Tusculanes, II, 13). Il faut donc cultiver son esprit. « Excolere animum ».
Numérique et nombre viennent du grec nemein, partager, diviser, distribuer. D’où nomos, la loi, Nemesis, la déesse de la colère des dieux, mais aussi nomas, pâturage et conséquemment nomados, nomade.
Quatre mots, quatre métaphores : « l’exode », le « goût », la « culture », le « nomadisme ». Elles dessinent une dynamique de migration, une liberté de jugement, un esprit d’approfondissement, de patience, une attention aux temps longs, une incitation au vagabondage, à l’errance de la « sérendipité ».
Ces vieilles racines montrent qu’il s’agit d’apprendre à sortir de soi, à se libérer du joug des limites, des frontières, des clôtures. Former son propre « goût », conquérir une aptitude à la liberté, au choix. Et enfin il y a la vieille leçon du soc et du sol, de la graine et de la germination : pénétration, retournement, ensemencement, moisson. Leçon duelle, ou complémentaire, de cette autre qui met l’accent sur la transhumance et le nomadisme. C’est le dualisme de l’agriculteur et de l’éleveur, de Caïn et d’Abel.
Il est difficile de savoir ce que réserve le 21ème siècle. Mais il est presque certain qu’il sera truffé de nouvelles frontières, de difficiles « choix », et de champs clos (à ouvrir). Les frontières, il faudra apprendre à les traverser, à les dépasser. Les choix politiques, économiques, sociétaux, écologiques, globaux, régionaux, locaux et aussi les choix personnels seront matière à exercer son goût. Eduquer au goût n’est pas une petite affaire, si l’on entend par cela la capacité à naviguer dans l’océan des possibles. Quant aux champs du futur, ils sont nombreux, mais cette métaphore s’applique particulièrement bien au cerveau lui-même, objet et sujet de son propre retournement, de son réensemencement, avec les sciences de la cognition, les neurobiologies, et les nouvelles techniques d’imagerie neuronale et synaptique.
Dans l’océan des possibles, on voit aussi poindre de nombreux récifs : une mondialisation sans régulation, un rééquilibrage massif des richesses entre pays du Nord et du Sud, de l’Ouest et de l’Est, une crise majeure des paradigmes économiques usuels, la fin des modèles (des « grands récits ») du 20ème siècle.
Il faut s’attendre à une nécessaire grande transformation (pour reprendre ce mot de Karl Polanyi, qui l’appliquait pour sa part à la révolution industrielle, à partir de la fin du 18ème siècle). L’évidente et rapide mutation des paradigmes économiques, politiques et sociaux (de développement, de distribution, de justice, d’équité) doit-elle avoir un impact sur l’orientation des savoirs, des connaissances, des compétences à acquérir, non seulement à l’école et à l’université, mais tout au long de la vie ?
Comment former les esprits en temps de crise ? En temps de mondialisation ? En temps de mutation ? Dans quel but ? Pour quelles fins ?
Sur quoi mettre l’accent ? Esprit critique, esprit de synthèse, d’analyse, capacité de pensée systémique ? Esprit créatif, esprit collaboratif ? Multilinguisme, multiculturalisme ? Tout cela sans doute. Mais dans quelle proportion ? Avec quel équilibre ?
Comment faire travailler la mémoire dans un monde strié de réseaux puissants, ponctué de la présence ubiquitaire de points d’accès aux « savoirs » ?
Comment éduquer le regard dans un monde constellé de niveaux de représentations contigus ou superposés, et même d’étiquettes virtuelles sous-titrant  la v.o. de la réalité réelle par le biais d’une réalité augmentée ?
Que penser de la « Googolisation » de la mémoire et du regard ? Quid d’un bac où l’étudiant aurait accès au web ? Qu’est-ce que l’on évaluerait alors ?
Qu’est-ce que la virtualisation, la simulation offrent sur le plan pédagogique ? Est-ce que la réalité augmentée est l’opportunité d’une « recherche augmentée », d’une « pensée augmentée » ?
La superposition, l’enchevêtrement de réalités et de virtualités, la prolifération de représentations hybrides, la convergence des techno-sciences implique une refonte des manières de penser le monde et de former les esprits.
Tout cela implique-t-il la nécessité d’une rupture forte dans les modèles d’éducation, suivant des modalités résolument nouvelles ? Comment allier ces démarches novatrices avec l’exigence d’une culture retournant les « racines », allant puiser des semences dans la connaissance des héritages classiques ?
Pour de tenter de répondre à ces questions, je voudrais évoquer le thème de l’éducation à l’information et aux médias, selon quatre angles. Il y a la question des valeurs (citoyenneté, liberté d’expression, liberté d’accès aux informations et aux connaissances, participation au débat démocratique, déontologie, éthique). La question des représentations, des langages, des informations et de leur « maîtrise ». La question de la différenciation et de la convergence des médias, anciens et nouveaux, de leur structure, de leurs puissances et de leurs dangers. Et la question de l’impact politique, économique et social des révolutions en cours, ce qu’on pourrait appeler l’économie politique et la géostratégie des cybermondes.
Les valeurs.
Les médias  sont ubiquitaires, massifs ou subtils, fort anciens ou tombés de la dernière pluie. Ils sont essentiels pour la démocratie, mais on se rappelle aussi Goebbels ou la radio des mille collines. Il n’y a pas de médias neutres, à l’évidence. Le citoyen doit avoir un solide esprit critique pour se repérer dans la jungle des signifiants et des signifiés. Cela ne s’improvise pas. L’honnête homme, l’honnête femme, doivent acquérir des compétences spéciales pour maîtriser un monde médiatisé de mille manières, pour tirer le meilleur parti des puissances d’information et de formation, et pour éviter de tomber dans leurs pièges. Il faut désormais savoir comment savoir, savoir chercher, savoir trouver, savoir évaluer, savoir critiquer, savoir utiliser, savoir partager, et aussi savoir créer des informations, des savoirs, des connaissances. Il s’agit bien là d’acquérir une méthode, une méta-méthode – non de survie, mais de vie pleine dans le monde de l’outre-modernité. Trois valeurs résument l’esprit de la méthode : esprit critique, libre expression, participation créative. Tout un programme.
Mais il y a encore autre chose. Acquérir ce genre de compétences c’est bien, mais ce n’est pas assez. Encore faut-il savoir à quoi on va les appliquer, et pour quelles « fins » ? On a pu dire que la vocation du journaliste est de dire la « vérité » afin que le peuple puisse être « souverain ». C’est une belle formule. On pourrait y ajouter le renforcement de la liberté démocratique, l’édification de la responsabilité civique et de la citoyenneté, l’exigence de transparence. Ce n’est pas seulement des professionnels des médias et de la politique qu’on peut attendre cela, mais aussi de tout un chacun, puisque tout le monde « poste », « tweete », « publie » et « témoigne ».
Les représentations, les langages et la « maîtrise des informations »
Qu’est-ce qu’une représentation ? Une façon de voir, de se voir, et de voir les autres, une manière de se figurer le monde. Les journalistes, les photographes, les cinéastes, les romanciers, les philosophes, les politiques ont la leur. Il y a des représentations complexes et touffues, d’autres stéréotypées et simplistes, subjectives et partisanes, ou objectives et équilibrées. L’art de maîtriser les représentations que l’on rencontre à tout moment fait partie des compétences utiles aux navigateurs dans l’océan des informations et des savoirs. Il faut savoir mieux voir les images, et surtout ce qu’elles cachent, ce qu’elles ne montrent pas, leur hors-champ, leur contexte. Les représentations ne présentent que rarement leurs absences. Les médias sont souvent bavards, profus, ils ont beaucoup de latitude pour proposer analyses, enjeux et défis à la société. Mais ils sont aussi suivistes. Ils reflètent, volontairement ou non, la société en lui donnant le genre d’histoires et de représentations qu’elle demande, ou qu’on croit qu’elle demande.

Mais quels sont les arbitres des élégances ? Qui dicte le goût du jour ? La ligne éditoriale ? La mode à suivre ? Qui intronise les petits marquis furtifs et éphémères, ou indéracinables du PAF ? Qui décide des clichés à ressasser jusqu’à la nausée ? Et qui ferme les ondes aux idées franchement neuves, qui n’ont pour les porter que leurs fragiles « pattes de colombe » ? Comment ces images, ces mots, ces cadrages marquent-ils notre perception de nous-mêmes et des autres, notre compréhension du monde ?

Tous les jours, se mélangent sans trêve dans les cerveaux, rumeurs, doutes, propagandes, désinformations, espoirs et cris d’alarme. Qui sélectionne, hiérarchise, vérifie, compile, compare, conteste ces informations tous azimuts ? Cela devrait être une fonction quasi-sacerdotale dans une démocratie que celle consistant à vérifier les signes et les viscères que les pythies du jour répandent sur les autels médiatiques.

«  Le message, c’est le médium » disait Marshall McLuhan en 1964. Les bibliothèques, les archives, les musées, les journaux, les radios, les télés, Internet ont leur propre «langage », leur « grammaire », leurs « codes », leurs conventions – techniques, symboliques, sémiotiques.  Comment diffèrent-ils ? Que peuvent-ils exprimer ? Quelles sont leurs limites ? Comment ces codes sont-ils reçus, compris, interprétés, détournés ?

Qu’est-ce qu’une une véritable « maîtrise de l’information » ?

Une manière de la définir est qu’il nous faut « apprendre à apprendre ». Apprendre à reconnaître nos besoins en informations, savoir localiser, récupérer, analyser, organiser et évaluer cette information, puis l’utiliser, l’appliquer, la reproduire et la communiquer pour prendre des décisions spécifiques et régler des problèmes réels.
Les enseignants doivent acquérir pour eux-mêmes et développer chez leurs élèves un
ensemble de compétences permettant d’obtenir, comprendre, adapter, stocker et présenter des informations aux fins d’analyse des problèmes et de décision. Ces compétences s’appliquent à tout contexte d’enseignement et d’apprentissage, que ce soit dans le milieu de l’éducation, le travail en général, l’environnement professionnel ou l’enrichissement personnel. Mais cette maîtrise est-elle suffisante ?
L’information n’est pas encore savoir ou connaissance. L’information n’est faite que de données collectées, traitées et interprétées de façon à être présentées sous une forme utilisable.
En revanche, le savoir est « ce qui nous change » intellectuellement. Et la connaissance c’est ce qui atteint et modifie la conscience. Les expressions « société numérique » (digital society dans le langage de l’UE), « société du savoir », « société de la connaissance » ne sont pas équivalentes.
L’une des plus anciennes civilisations du monde, celle des Véda, fut la première à se revendiquer comme « société de la connaissance ». le mot Véda veut dire « savoir » en sanscrit. La connaissance y est portée au rang de religion, de vision du monde et de « révélation ».
Par le biais du zoroastrisme et du pythagorisme, l’Occident hérita aussi de cette idée que le monde sera sauvé par le savoir. C’est proprement l’idée fondamentale des divers gnosticismes. La gnose de Marcion tenta de prendre le pas sur le christianisme des premiers temps. Le salut par la connaissance était opposé au salut par la grâce, ou par la charité. Contrairement aux apparences, le gnosticisme n’a pas complètement disparu, bien au contraire. Des philosophes comme Hans Blumenberg ou Erik Peterson (tous deux philosophes et théologiens catholiques allemands) estimaient dans la première moitié du 20ème siècle que la modernité équivalait en fait à l’émergence d’une nouvelle période gnostique.

Anciens et nouveaux médias.

En quoi diffèrent-ils ? En quoi convergent-ils ? Est-ce que les 2000 livres d’une liseuse de poche équivalent à une bonne bibliothèque remplie de livres ? En quoi la cinémathèque de Langlois diffère-t-elle l’accès universel par Internet à presque toute la filmothèque mondiale ? Est-ce que les médias traditionnels vont pouvoir longtemps coexister sous leur forme actuelle avec la myriade de nouveaux médias numériques ?
Mais il y a d’autres questions, fort significatives. Les images réelles-virtuelles effacent toutes les frontières habituelles entre réalité et fiction. On peut fabriquer de vraies-fausses images d’archives, et la simulation du champ de bataille atteint des degrés de réalisme confondant tant en terme de qualité d’image que de fonctions représentées. Des acteurs virtuels peuvent avec un réalisme époustouflant faire revivre des acteurs disparus, ou bien des acteurs vivants peuvent s’incarner dans l’apparence de leur choix. Les androïdes de compagnie commencent à venir combler les solitudes des foules urbaines, à l’aide de techniques animatroniques de pointe, incluant des peaux agréables à toucher… Le cyber-sexe et la télé-stimulation font des progrès adaptés à leur marché propre. L’immersion dans les images est banalisée, et Google Glass a démocratisé l’accès aux scanneurs rétiniens miniaturisés, ouvrant la voie à des applications inédites de réalités augmentées et de géolocalisation. La « réalité augmentée » permet déjà de superposer des images virtuelles sur le corps. On peut ainsi voir l’anatomie de tel corps ou même son fonctionnement physiologique superposé à son apparence extérieure. Les artistes s’emparent de l’idée : Stelarc se greffent une oreille sous la peau du bras. Encore un peu, et des organes « augmentés » prolifèreront à des endroits inattendus du corps. Des électrodes placées sur les muscles surveillent les paramètres biologiques, en attendant les promesses des nano-biotechnologies en la matière. Les interactions avec un environnement « augmenté » se font ubiquitaire. On peut pointer tel objet et obtenir toute une série d’informations sur sa structure ou son fonctionnement. Par quel miracle ? Une simple combinaison de puces RFID, de caméras miniaturisées et de téléphone mobile. L’idée de « présence virtuelle » peut se conjuguer dans l’infiniment petit, et permettre de se retrouver au niveau nanométrique à sculpter interactivement des molécules atome par atome, ou bien projeté dans l’espace et se déplacer sur Mars en télé-présence. Les allers retours entre réel et virtuel sont aisés. Le système d’immersion virtuelle CAVE permet une vraie opération chirurgicale dans un bloc opératoire « augmenté » d’images pertinentes. Les humains bioniques apparaissent heureux de retrouver un bras ou des jambes parfaitement fonctionnels.   « Je peux plier mon bras, l’étendre, ouvrir et fermer ma main simplement en pensant à ces mouvements » déclara en 2006 Claudia Mitchell la première personne à avoir bénéficié de cette chirurgie réparatrice.
Dans un autre ordre d’idées, les progrès se multiplient sur le front de la collecte des renseignements (des satellites militaires et des drones tueurs aux applications de Google Maps). Citons à titre d’illustration la miniaturisation de ces drones espions qui pourront voleter dans nos jardins ou devant nos fenêtres : ils ont déjà la taille et la forme d’une libellule ou d’un hanneton, et pèsent moins de 10 grammes. Ces insectes à la vue et à l’ouïe perçante pourront aussi être utilisés à des fins privées, loin d’être réservés aux applications militaires ou de sécurité.
Des communautés virtuelles comme Second Life prennent leur essor, et des Eglises ou des ambassades (Maldives, Suède, Colombie, Philippines, Estonie, Serbie, Macédoine, Albanie) viennent officiellement s’y établir. On peut faire des affaires florissantes dans le virtuel. Business Week et Fortune ont commis des articles élogieux sur une certaine Anshe Shung, « la Rockefeller de Second Life » qui fait du courtage de terrains virtuels et des opérations sur les monnaies virtuelles. La simulation de mondes atteint déjà la dimension de pays entiers. Ainsi l’armée américaine a développé une base de données 3D à l’échelle de l’Iraq tout entier, dans un projet nommé « There », pour entraîner ses soldats à la guerre urbaine et aux manœuvres à grande échelle.
Une autre agence proche de ce type d’intérêts, la fameuse DARPA, a lancé le projet LifeLog qui ambitionne d’enregistrer toutes les données personnelles des individus, pendant leur vie entière. Ce système de saisie de l’intégralité des « évènements, états et relations » vise à identifier les « préférences, plans, buts, et autres marqueurs d’intention » de chacun de nous. Il y a aussi le projet de Google de capter en permanence l’ambiance visuelle et sonore des lieux d’habitation (par Webcam et par le biais des capteurs sonores et visuels des micro-ordinateurs). Et il y a le début de la mise en place de puces RFID sur les permis de conduire permettant pour le bénéfice de la police ou des assureurs un contrôle en temps réel et en permanence des faits et gestes des automobilistes.
On parle du concept de sous-veillance qui serait en fait une surveillance dûment acceptée par chaque individu, contribuant à se surveiller soi-même. Des objets particuliers viennent généraliser encore cette idée. Les « spimes » (space + time) sont des objets individuellement identifiés pouvant être suivis dans le temps et dans l’espace. Les “blogjects” (blog + objects) sont des objets qui enregistrent tous les paramètres de leur utilisation et rendent cette information publiquement accessible, en permanence. Et il y a l’internet du futur avec son étiquetage massif des moindres objets, mais aussi des mots, assemblages de mots et des concepts utilisés par telle ou telle personne. Des entreprises de data-mining fouillant dans les profils de consommation ou de navigation sur la Toile se réjouissent des perspectives commerciales ou politique du Cloud, du Big Data et du Web sémantique.
On pourrait ainsi avance l’idée que ces diverses formes de convergence entre la réalité et les virtualités créent une sorte de « réalité-fusion », où se mêlent divers niveaux de cognition, de simulation, d’augmentation et d’action. La réalité-fusion serait alors l’équivalent social du méta-média que serait l’everyware (tout, partout, tout le temps).
La réalité-fusion propose une sorte de monde intermédiaire entre réalité et abstraction, dans lequel nous sommes invités à vivre une vie dite « augmentée ». Elle implique un brouillage des dualismes simples et des antonymies anciennes. Elle multiplie les mélanges et les fusions entre modèles et images, entre écrans et réalités, entre présences et représentations. Elle correspond assez bien au monde platonicien des « intermédiaires » (metaxu), mais lui donne une portée nouvelle, en rendant ces « intermédiaires » de plus en plus autonomes, et capables d’influer grandement la vie des gens.
Pour les Scolastiques, intervenant dans la fameuse Querelle des universaux, les Êtres de raison (entia rationis), créés par la pensée, étaient incapables d’exister hors de l’esprit, bien que construits avec des éléments empruntés au réel. Mais aujourd’hui, par la médiation des capteurs et des effecteurs, les êtres de raison acquièrent un statut de quasi-objet: ils peuvent être détachés de l’esprit qui les conçoit et mener une « vie propre » dans le monde réel. Ils constituent peu à peu une quasi-réalité  indépendante, quoique greffée sur le réel. Cette réalité on pourrait l’appeler « le virtuel ». Le virtuel, c’est l’ensemble des « objets de pensée » capables d’interagir réellement avec le monde — et avec nos corps. C’est un espace de langage, multidimensionnel, métamorphique, superposant niveaux de sens et de perceptions. Ce n’est pas un lieu (topos), mais un espace de sens en mouvement (tropos), un univers de métaphores (tropes).
L’interpénétration d’un univers réel (notre « monde commun ») et d’univers virtuels (peuplés de quasi-objets, d’êtres de raison) est un défi pour l’analyse, la critique. C’est un défi aussi pour l’éducation et la maîtrise de nouvelles compétences. Il faut apprendre à évaluer divers niveaux de virtualisation ou d’immatérialité. Chacun de ces niveaux d’abstraction possède ses propres codes, ses propres langages, ses paradigmes, ses horizons d’intelligibilité. Jacques Maritain écrivait dans Les degrés du savoir : « Autant il y a de degrés d’immatérialité ou d’immatérialisation de l’objet, autant il y a d’univers d’intelligibilité ». Il faut apprendre à distinguer finement les degrés d’intelligibilité dans un spectre de représentations, possédant chacune son propre mélange de concepts et de percepts, d’objets immatériels et de référents réels. Parmi ces nouveaux objets, il y a ce qu’on pourrait appeler des « quasi-corps » et des « quasi-êtres ». La biologie de synthèse permet d’envisager de créer des formes totalement nouvelles d’ADN. Parmi elles l’AXN, où l’acide désoxyribonucléique qui donne son « D » à l’ADN pourrait être remplacé par des formes complètement différentes d’acides aminés, donnant lieu à une chimie de la vie complètement étrangère à la vie sur terre.
Mais il y a aussi un aspect philosophique qu’il importe de souligner. Platon (« le corps est la prison de l’âme ») ou Descartes, avec la « glande pinéale » et la métaphore de l’esprit «pilote en son navire» nous avaient introduit dans le monde du dualisme Corps/Esprit. Nietzsche symbolise assez bien la lourde tendance des modernes vers de nouvelles formes de monisme matérialiste. « Je suis corps et rien d’autre », proclame-t-il. Au 20ème siècle, Husserl et les phénoménologues voulaient « mettre le monde entre parenthèses », affirmaient la nécessité d’une « suspension de la croyance » qu’ils baptisèrent d’un vieux mot grec : époché. Demain, ni l’idéalisme dualiste ni le monisme matérialiste, ni la phénoménologie suspensive, ne pourront suffire à combler les tendances à la dissociation et à la schizophrénie, qu’un Rimbaud, plus poète, résuma d’une formule directe: « Je est un autre ». Je est même plusieurs autres, et plusieurs « je » et plusieurs « ils » se conjuguent en chacun de nous. Il va falloir naviguer entre divers niveaux d’êtres, entre quasi-sujets et quasi-objets.
Nous sommes sans doute invités à traiter de ces questions non pas sous l’angle simplement personnel, mais bien du point de vue de leur impact sociétal. Les esprits et les corps sont de plus en plus déréalisés, quoiqu’« augmentés », et isolés, bien que « mis en réseau ». De plus, l’abstraction et la complexité croissante des objets, des sujets et des « modes d’existence » (B. Latour) accroissent la forte probabilité de points de basculement et de « singularités » menaçant brutalement l’ordre du monde. Les violentes conséquences politiques et économiques des nouveaux Léviathans du virtuel, les monopoles qu’ils rendront possibles ainsi que les menaces directes sur le « bien commun » qu’ils induiront, requièrent une philosophie politique appropriée. Le virtuel a pour vocation intrinsèque de devenir une forme totale (et donc, peut-être bien, totalitaire?). L’un des problèmes politiques posé par une société du virtuel, est la place faite à la justice, c’est-à-dire la place faite à « l’autre » (les hors réseau, hors modèle, ceux qui ont été mis hors-jeu).

Géostratégie des cybermondes
L’importance de la révolution médiatique en cours se fera peut-être mieux comprendre si on analyse son impact géostratégique. La géostratégie du virtuel et du cyberespace permet d’analyser l’évolution actuelle des rapports entre les nations, ainsi que le déplacement des centres de pouvoir. Hier et avant-hier, les grands empires se dotaient de géostratégies impliquant des « lignes globales ». Par exemple, le Traité de Tordesillas (1494) et celui de Saragosse (1529) tracèrent, sous l’égide respective des papes Alexandre VI et Clément VII, des « lignes globales » dans l’Atlantique et dans le Pacifique, répartissant l’Amérique et l’Asie, entre les puissances coloniales d’alors, l’Espagne et le Portugal.
Au 19ème siècle, la doctrine Monroe fixa la zone exclusive d’influence des États-Unis. C’était « l’hémisphère occidental ». Il s’agissait alors de limiter les menées des vieilles puissances européennes dans le Nouveau Monde. Puis, au tournant du siècle, divers stratèges s’employèrent à théoriser les nécessaires adaptations de cette doctrine devenue trop étroite. McKinder en 1919 évoqua une nouvelle ligne globale, celle qui sépare les puissances de la mer et les puissances de la terre. Il s’agissait alors d’attirer l’attention du pouvoir britannique sur les dangers de se reposer sur la seule domination maritime, qui avait si bien réussi à l’Empire, jusqu’aux douloureuse remises en cause qu’annonçaient la 1ère guerre mondiale. La doctrine de McKinder se résume ainsi : « Qui contrôle l’Europe de l’Est contrôle le Heartland. Qui contrôle le Heartland contrôle l’Île Monde. Qui contrôle l’Île Monde contrôle le Monde ». Carl Schmitt, quant à lui, dans son Nomos de la Terre, proposa une autre ligne globale celle séparant les « Amis » des « Ennemis ». On sait ce qu’il advint de ce genre de vision du monde, qui sembla trouver sa fin avec le démantèlement du Rideau de fer.
Aujourd’hui, la question géostratégique demeure. Mais par où passent exactement les « lignes globales » qui structurent les rapports de puissance mondiaux ? Certaines de ces lignes globales opèrent dès maintenant leurs subtiles exclusions dans le cyberespace, et plus généralement dans l’univers des logiciels, des matériels, des réseaux. Les standards, les normes, les protocoles, les routeurs, les virus, les « chevaux de Troie », les « portes de derrière » (trap-doors) qui peuvent être câblées dans le silicium par les fabricants de puces, sont quelques exemples des mille manières de prendre l’avantage dans un contrôle stratégique des « positions éminentes » du cyberespace. Les prolégomènes d’une cyber-guerre, encore larvée, se développent entre les plus puissantes nations, mais aussi avec la participation active de puissances de deuxième ou de troisième ordre. Une troisième « guerre mondiale » pourrait-elle se déclencher à grande échelle, à l’occasion du moindre dérapage consécutif à telle ou telle attaque préemptive, pour s’assurer définitivement l’hégémonie numérique, informationnelle ou cognitive ? C’est une hypothèse à considérer sérieusement.
La géostratégie enseigne que les puissances cherchent toujours à s’assurer le contrôle des « positions éminentes » et des « communs mondiaux » (jadis : la terre, la mer, l’espace, et maintenant cyberespace). Si l’on en juge par l’Histoire, on peut inférer que les impérialismes et les colonialismes du passé trouveront des formes équivalentes ou analogues dans le « cyberespace », le « nuage » et le « virtuel ».

Deux « convergences » disruptives
Dans les quarante dernières années on a pu observer successivement deux révolutions de « convergence ». La première, la convergence « numérique », annoncée en France par le rapport Nora-Minc en 1978, s’est d’abord traduite techniquement par la fusion progressive des fonctionnalités de la transmission d’informations, de leur traitement et de leur représentation audiovisuelle. Du point de vue économique et social, cette convergence a induit soit le délitement, soit la recomposition de secteurs entiers comme celui des télécommunications, de l’informatique, et de l’audiovisuel. La convergence numérique est désormais entrée dans sa phase d’accélération, mais elle est loin d’avoir encore révélé toutes ses potentialités disruptives.
La deuxième convergence, commencée depuis une dizaine d’années, est ce qu’on pourrait appeler la convergence « nanométrique ». Nanotechnologies, Biotechnologies, Info-technologies et Sciences Cognitives (« NBIC ») convergent en effet au niveau nanométrique par les méthodes et les références scientifiques employées, à l’échelle atomique ou moléculaire. On a surnommé ce phénomène le deuxième « BANG ». B, A, N, G : Bits, Atomes, Neurones et Gènes semblent désormais sur le même plan, puisqu’on peut agir sur eux avec des outils comparables, à l’échelle nanométrique.
Ces deux « convergences » se résument ainsi:
(1) Tout est nombre. C’est là, certes, une intuition fort ancienne, qui remonte au moins à Pythagore, lequel en avait tiré tout un système philosophique et religieux. Mais si l’idée en est ancienne, je crois que nous n’avons pas encore bien pris la mesure de ce qu’implique le retour en force d’un tel paradigme du « numérique », dans une civilisation de l’analogique.
(2) Tout est nano. Le macro et le micro se mettent à converger au niveau nanométrique, où l’on peut manipuler la matière atome par atome. Alors qu’on opposait jadis le macrocosme et le microcosme, on peut désormais envisager d’opérer avec des outils, des modèles et des méthodes comparables à l’échelle nanométrique. C’est à cette échelle que l’on peut agir sur leur essence commune, leur substance partagée, modelable à volonté. On peut « reprogrammer » la matière, qu’elle soit organique ou vivante, et la restructurer, pour lui faire servir de nouvelles fins.
Cette dernière révolution est loin d’avoir donné à voir toute sa puissance. Mais on parle déjà d’un probable « changement de civilisation ».
Le vieux monde est déjà profondément bouleversé, son économie défaille, les sociétés doutent, les équilibres tanguent, et les rapports de force se recomposent. Or cela ne fait que commencer. Si on admet ce diagnostic, quel impact sur l’éducation, notre façon de considérer le savoir, la culture ? Dans un univers de fortes « convergences », et de complexités cachées, il faudra développer la maîtrise de nouvelles façons de se mouvoir dans les modèles et les représentations, de se déprendre de ses sens, de ses a priori. Nous aurons aussi besoin de nouvelles méthodes heuristiques. Il faudra observer et conceptualiser la prolifération des êtres intermédiaires, des quasi-objets et des quasi-sujets. Ces nouveaux « modes d’existence » nous appellent déjà à réfléchir sur l’indépendance de nos propres créations (intellectuelles ou industrielles). Il faudra apprendre à maîtriser la complexification croissante des hybridations, des mélanges, des métissages des réalités et des virtualités, requérant en conséquence une nouvelle acuité du regard et de l’esprit.

Penser stratégiquement les « transformations mondiales »


-La « grande transformation » : un projet politique et un impératif éthique.
-L’impact global des technologies convergentes.
-Les difficultés de la gouvernance mondiale.
-Une éthique des « transformations mondiales ».
-Veille systémique, réflexion transdisciplinaire et  implication des populations.
-Positions éminentes, biens communs mondiaux, et « contrat social mondial ».

Une « transformation mondiale » affecte l’écosystème entier, et commence d’impacter sérieusement les structures sociales, économiques et politiques de la planète.
C’est un phénomène difficile à saisir dans toutes ses dimensions. Plusieurs types de changement opèrent simultanément, et affectent des domaines éloignés en apparence, mais interdépendants en réalité. La crise économique et financière, l’augmentation rapide de la population, le changement climatique, le pic dans l’usage des énergies fossiles, l’acidification des océans, la pénurie d’eau douce et de terres arables, la diminution de la biodiversité, sont autant de dimensions ou d’indicateurs des changements en cours, et de menaces pour le développement durable.
La complexité des liens entre les diverses dimensions de la « transformation mondiale » induit une imprévisibilité structurelle, et une non-linéarité probable des réactions du « système-monde ». Elle se double de la difficulté à inférer à partir de temps longs de gestation, des temps rapides d’accélération, avec des points critiques, des points de « basculement » (« tipping points »). Il est difficile par nature de conceptualiser a priori la nature de tous les points de basculement potentiels. Mais ils sont déjà à l’œuvre. Par exemple, dans l’océan arctique le réchauffement climatique induit déjà des dégagements gigantesques de méthane, gaz 80 fois plus nocif que le CO² par rapport à l’effet de serre. Des boucles de rétroaction actuellement mal comprises ont le pouvoir de démultiplier en des temps très courts les effets catastrophiques d’un réchauffement graduel.

Une autre difficulté pour les observateurs vient de la dispersion et de la fragmentation des causes, des opérateurs, des décideurs, des intérêts en jeu, de l’hétérogénéité des approches entreprises, des niveaux de pouvoir mobilisés, et de l’opacité des décisions effectivement prises au-delà des effets d’annonce (un bon cas d’école est l’échec effectif des négociations sur le changement climatique 20 ans après la Conférence de Rio).
D’un autre côté, l’analyse fait apparaître des lignes de force communes (convergence, complexité, interdépendance), souligne la permanence de grands débats sociétaux (comme la question de la définition de l’intérêt général). Elle fait surgir aussi des questions conceptuelles entièrement neuves et radicales sur la vie et la non-vie, la nature et l’artificiel, le rôle de « l’anthropocène », et de l’humanité, sujet et objet de son propre destin.

Cette nouvelle forme de complexité systémique relie effectivement des domaines aussi divers que le changement climatique, les nanotechnologies, la biologie de synthèse, mais aussi l’évolution de la propriété intellectuelle, la régulation des échanges mondiaux, la gouvernance et la fiscalité (équité, évasion, dumping), la régulation de l’usage des biens publics mondiaux  et la participation concrète des citoyens à la construction du futur.

La « grande transformation » : projet politique et impératif éthique.

La profondeur des changements prévisibles et leur caractère mondialisé font prévoir un bouleversement considérable, à relatif court terme. C’est pourquoi on doit s’efforcer de penser et de conceptualiser cette « transformation mondiale », puis de soumettre les divers modes de réaction politiques et sociétaux à des processus d’approbation démocratique selon toutes les formes de représentation mobilisables.
La « grande transformation » n’implique pas seulement un nouveau projet politique ou social : elle apparaît comme un « impératif éthique », et l’élaboration d’un « contrat social mondial » c’est-à-dire d’un « grand récit » (« master narrative »), prenant en compte l’exigence des transformations politiques et sociales à l’échelle planétaire et orientant l’attention, l’énergie et l’action des citoyens et des politiques à l’échelle mondiale. Il s’agit d’assurer au mieux le passage vers une société mondiale « post-fossile », qui reste à définir.

Impact global des technologies « convergentes ».

Dans le même temps apparaissent de nouveaux domaines et objets techniques, au sein d’ambitieux programmes de recherche (sur les nanotechnologies, les biotechnologies, la biologie de synthèse, ou la géo-ingénierie) qui semblent pouvoir apporter des solutions à hauteur des défis globaux.  D’où des raisons pour un nouvel optimisme. L’influence politique et sociale des technosciences augmente d’autant plus qu’elles « convergent ». La convergence des nano-, bio-, info-technologies, et des technologies cognitives (NBIC), favorise aussi, malheureusement, un déferlement de promesses hasardeuses, d’exagérations médiatiques et d’initiatives guidées par la perspective de profits rapides et de nouvelles tentatives d’appropriations globales des biens communs (« global commons »).

Les solutions techniques que les technosciences font miroiter peuvent être ciblées, spécifiques (par exemple le piégeage du CO² afin d’atténuer l’effet de serre, la désalinisation pour lutter contre l’appauvrissement des ressources en eau douce, le développement de bactéries capables de produire de l’énergie propre, de traiter les eaux usées ou les terrains contaminés…). Ce ciblage technique n’est pas néanmoins exempt d’hubris : leur utilisation à large échelle (géo-ingénierie) provoque de graves inquiétudes.
Elles peuvent être aussi présentées comme des utopies générales, avec une crédibilité appuyée par des soutiens politiques conséquents de la part de grands opérateurs nationaux ou régionaux. Ainsi les nanotechnologies ou la biologie de synthèse portent de nombreux espoirs. Elles permettront, pour certains, de viser une « transformation de la civilisation ».
Cependant, les techno-sciences sont devenues elles aussi une source de risques. Elles pourraient même faire davantage partie du problème que de la solution.

Les difficultés de la « gouvernance mondiale ».

A la complexité systémique et programmatique s’ajoute le fait que de nombreuses implications des questions émergentes sont non seulement difficiles à prédire mais « fondamentalement inconnaissables » (fundamentally unknowable).
Pour y faire face des formes de gouvernance intergouvernementale ont été mises en place, mais semblent s’affaiblir dans le contexte de « crise » économique globale, qui vient compliquer la donne. A titre d’exemple, la Convention des Nations unies pour la Biodiversité a pu provoquer en 2010 l’établissement d’un moratorium sur toutes les formes de géo-ingénierie. Mais, dans un autre sens, l’échec relatif de la réunion de Doha en décembre 2012 (COP18 et CMP18) montre la difficulté de renforcer l’esprit du protocole de Kyoto, 20 ans après l’adoption de la CCNUCC (UNFCCC). On observe la cacophonie des parties prenantes et leur confusion quant aux niveaux d’intervention requis et à la façon de hiérarchiser les approches économiques politiques, éthiques, juridiques, sociales, environnementales, sanitaires et sécuritaires.
D’un côté, de grands acteurs politiques et économiques sont absents de programmes comme le protocole de Kyoto (Etats-Unis, Chine, et maintenant Canada) et nient la crédibilité des organes des Nations unies. De l’autre, des pays font preuve de volontarisme et demandent une révision de la Charte des Nations unies afin de renforcer l’approche multilatérale pour prendre en compte le défi mondial du développement durable.

C’est dans ce contexte complexe et mouvant qu’il faudrait traiter en priorité  l’axe « science-politique-société » (SPS), en réfléchissant sur l’intégration des approches éthiques, juridiques et sociétales, à travers un traitement politique (gouvernance, participation, consultation), et prospectif (aspects culturels et philosophiques, épistémologie politique, régimes épistémiques, régimes culturels, « master narratives ») touchant de façon transversale les processus de transformation mondiale.

Au-delà de la veille stratégique et de la réflexion normative, il s’agit de formuler une stratégie de l’éducation au développement durable, à la pensée systémique, collaborative et critique, et d’encourager l’accès universel aux connaissances pour faciliter la « transformation mondiale ».
Il faudrait promouvoir spécialement l’importance stratégique des « biens communs mondiaux », et le rôle spécial que le système des Nations unies peut jouer pour leur protection et leur défense dans des domaines comme l’accès à l’eau douce, les océans, le patrimoine génétique, la biodiversité, le domaine public des informations et des connaissances, la diversité culturelle.
Les « biens communs mondiaux » font aussi partie des axes clés dans les politiques intégrées des « sociétés de la connaissance ».
Il s’agit surtout d’éviter le risque d’éparpillement et de « balkanisation » qui résulterait de la simple juxtaposition d’approches sectorielles ad hoc.

Une éthique, une philosophie et une anthropologie culturelle des « transformations mondiales ».

Il faut promouvoir à l’échelle mondiale une anthropologie culturelle, une sociologie et une éthique des « transformations mondiales ». Les approches éthiques sectorielles (éthique des sciences et des technologies, bioéthique, nano-éthique, éthique de l’eau douce, éthique du changement climatique, éthique de l’environnement, éthique du développement, info-éthique) ne suffisent pas à rendre compte de la complexité globale des enjeux. Il faut envisager d’aborder le problème de la transformation mondiale de manière plus systémique, en traitant de façon synoptique les dimensions politiques, sociales, techniques, économiques, environnementales (qu’il reviendrait à une « éthique des transformations mondiales » de formuler et d’articuler en tant que complément d’un projet de société).
Cela inclut une analyse éthique et philosophique de l’évolution des « sociétés de la connaissance », en tant qu’elles sont confrontées aux défis de la « transformation mondiale », ainsi qu’une analyse politique des avantages et inconvénients de la convergence épistémique induites par les nano-bio-info technologies. (L’« épistémologie politique » a pour tâche d’étudier l’impact politique des régimes épistémiques prévalant dans une société donnée. Elle équivaut à une philosophie politique des sociétés de la connaissance. Elle fait une analyse éthique de leur convergence ou de leur divergence possible avec les régimes classiques des sciences naturelles, humaines et sociales.)

L’approche éthique doit de plus affronter les défis propres à la mondialisation des questions. Au-delà de valeurs éthiques essentielles (dignité, liberté, égalité, solidarité, justice, droits humains) qui sont en général reconnues, il faut harmoniser les approches éthiques développées dans des contextes culturels ou nationaux très divers, ainsi que les méthodologies employées pour les rendre effectives, synthétisant la variété des approches en une « méta-éthique ».

Inversement, il faut aussi traiter le problème des territoires « sans éthique ». Sans même parler d’Etats faillis, ou de zones de non-droit, on peut se préoccuper de l’existence de zones de « dumping » éthique, social ou fiscal.

Enfin, la réflexion sur une éthique de la transformation mondiale ne peut échapper à la question de la finalité que l’humanité doit donner à son propre développement. En témoignent les diverses formes que pourrait prendre une telle éthique: anthropocentrique, bio-centrique, ou éco-centrique, qui représentent autant de « grands récits » différents.
La réflexion éthique doit aborder le problème philosophique de la condition humaine face à son développement irréfléchi, « impensé », et peut-être « impensable ». H. Arendt avait prédit que toutes nos « connaissances » et notre « know how » pourraient faire de nous des « créatures privées de pensée ».
“If it should turn out to be true that knowledge (in the modern sense of know-how) and thought have parted company for good, then we would indeed become the helpless slaves, not so much of our machines as of our know-how, thoughtless creatures at the mercy of every gadget which is technically possible, no matter how murderous it is.”

Ainsi les nano-biotechnologies imposent presque subrepticement un nouveau « régime épistémique », qui suscite des questions cruciales sur la nature et l’artificiel, la vie et la non-vie, « l’augmentation » de la nature humaine (« l’homme v. 2.0 »). Ces questions qui sont loin d’être simplement techniques, doivent sans doute recevoir une attention beaucoup plus large que celle de comités d’éthique ad hoc.

Surtout, il faudrait compléter la réflexion éthique sur les nouveaux régimes cognitifs par une philosophie politique de la mondialisation.
La planétarisation des enjeux de gouvernance implique une refondation du politique, de la démocratie, à travers un dialogue science-politique-société complètement renouvelé et renforcé. Les menaces sur la survie même de l’humanité impliquent que toutes les valeurs éthiques sont elles-mêmes directement menacées. Tout comme la vérité est la première victime en cas de guerre, l’éthique serait la première victime d’une panique planétaire.
Le « principe de précaution » devrait s’appliquer à prévenir par l’information, l’éducation, la participation du public ce risque de panique planétaire (sociale, économique ou boursière) avec ce qui pourrait être perçu comme les premiers prodromes de la catastrophe.

Veille systémique, réflexion transdisciplinaire et implication des populations.

Un suivi permanent, interdisciplinaire, des menaces globales doit associer les ressources des sciences de la nature et des sciences humaines, et faire participer tous les niveaux des sociétés développées et en développement (particulièrement les jeunes et les femmes). Un immense effort, permanent, de réflexion et d’analyse doit affronter toutes les dimensions du changement social, économique, scientifique et technique qu’elles induisent. Un tel suivi, « en temps réel », avec une diffusion mondiale des acquis ou des échecs, serait une première dans l’histoire de l’humanité. Ce processus de « veille » pourrait adopter le prisme d’une approche éthique des « transformations mondiales », avec une attention particulière à la structuration des « sociétés de la connaissance » en tant qu’elles jouent un rôle dans ces processus de transformation mondiale (culture de la participation citoyenne, transparence démocratique, éducation à la pensée systémique et à la pensée critique, accès ouvert aux savoirs collectifs et au domaine public de la connaissance et des données).

Positions éminentes, biens communs mondiaux et « contrat social mondial ».

Il est urgent d’identifier les secteurs stratégiques d’intervention et de « positionnement éminent ». Par exemple, les « Global Commons » (la res communis mondiale), le patrimoine mondial de l’humanité en tant que “domaine public” (régi par les autorités étatiques) ou bien en tant que “domaine mondial” régi par des formes émergentes de gouvernance mondiale, le patrimoine intergénérationnel font partie de ces lieux de positionnement stratégique pour une action éthique à caractère mondial.
Les « Global Commons » ont diverses formes (par exemple l’espace extra-atmosphérique, la « zone » maritime de haute mer, ou les “Nano Commons”). Il faut se saisir de ce défi posé aux politiques publiques du 21ème siècle, et s’attacher à définir les principes éthiques d’une lutte contre la « tragédie des communs » (“Tragedy of the Commons”).
Ceci pourrait inclure une réflexion approfondie sur les nouveaux paradigmes de la propriété intellectuelle, ainsi que les pays de l’OCDE commencent à la réclamer, notamment dans le domaine des nanotechnologies et de la biologie de synthèse. Les concepts de « propriété collective » des brevets et des données, de « domaine public » à protéger et à renforcer, de développement des exceptions légales (« fair use ») dans un contexte de crise climatique et environnementale aigüe, ainsi que la généralisation des idées d’accès ouvert et de sources ouvertes (« open source ») déjà testées dans le contexte de la société de l’information (ex : BioBrick Public Agreement et MIT Registry) pourraient être des pistes de recherche-action.

La réflexion prospective pourrait s’étendre à l’éthique de la fiscalité des « commons », que l’on pourrait appliquer aux fins d’une redistribution équitable. Le principe d’une telle fiscalité mondiale a déjà reçu un commencement de mise en œuvre avec l’idée de taxer les opérations financières (Taxe Tobin) ou de taxer les voyages aériens, puisque ceux-ci contribuent pour une bonne part à la diffusion des gaz à effet de serre.
On pourrait significativement étendre ces dispositifs à la taxation de l’usage de la haute mer par les bateaux cargos, qui contribuent indubitablement à la mise en danger de la faune et de la flore marine.
A l’ère de la dématérialisation de l’économie, les idées d’une taxe numérique sur les biens échangés électroniquement par le biais des grands opérateurs mondiaux ou l’idée d’une taxe sur les données personnelles sur les  opérateurs qui les accumulent à des fins lucratives (« personal data-mining ») commencent à apparaître. Il s’agit d’adapter les fiscalités nationales, régionales ou mondiales à la nouvelle « économie de la multitude », qui se développe dans le « virtuel », afin de rendre plus transparents (notamment du point de vue fiscal) les liens entre les territoires réels et les espaces virtuels, ces derniers ne devant pas être voués à devenir autant de zones supplémentaires de dumping social et fiscal.
Ces aspects sont d’autant plus cruciaux que les perspectives d’atteinte à la vie privée du fait des nanotechnologies (« Nanoscale information gathering systems ») sont particulièrement préoccupantes. L’une des manières de limiter l’impact probable de la déferlante des nanotechnologies en matière d’invasion de la vie privée est de réguler toutes les formes de bases de données personnelles accumulées à des fins privatives.
Un autre aspect de la manière dont une réflexion éthique sur des formes de fiscalité mondiale pourrait se met en place serait de s’attaquer à l’analyse des subsides et aides publiques consacrées aux producteurs et consommateurs d’énergie fossile, ou aux opérateurs impliqués dans la surpêche. Les montants en cause se comptent par plusieurs centaines de milliards de dollars des USA. Une alliance des « agents de changements » dans la société civile, dans les acteurs de l’économie « verte » et dans les communautés scientifiques, pourrait gagner à être soutenue politiquement par les Nations unies ou l’OCDE, afin de tenter d’éliminer les barrières fiscales qui, sous couvert de répondre aux besoins stratégiques en énergie ou d’encadrer l’accès aux ressources halieutiques, entravent en réalité le progrès des « grandes transformations » nécessaires, en encourageant des pratiques  manifestement à contre courant total des nécessités du développement durable.
Le concept de « Transformation Mondiale » pourrait incarner la nécessité de consultations élargies, en vue d’établir un Contrat social mondial, sur fond d’une nouvelle ère des Lumières, mondiales et post-fossiles.

L’art de toutes les images possibles


On sentait qu’un espace de possibles s’ouvrait, malgré de fortes contraintes techniques et stylistiques. Très vite des court-métrages comme celui de Ed Emshwiller, Sunstone (1979) produit au New York Institute of Technology offraient à l’imagination des pistes nouvelles. A l’INA, le département de la Recherche prospective que je venais d’intégrer continuait des recherches dans le domaine de ce que nous avions appelé les « nouvelles images », sur la lancée du fameux Service de la recherche de l’ORTF dirigé par Pierre Schaeffer.

En 1980 j’ai organisé à Arc et Senans un premier séminaire sur le traitement et la synthèse d’image appliqués à la création audiovisuelle. L’année suivante, en 1981, André Martin et moi-même lançons la première édition du Forum des Nouvelles Images de Monte-Carlo, qui sera plus tard renommé « IMAGINA ». En 1983 nous co-réalisons Maison Vole, le premier court métrage français entièrement synthétique (images 3D et musique), coproduit par l’INA et la Sogitec. A IMAGINA, nous commencions de présenter lors des Pris Pixel-INA les meilleures productions mondiales réalisées en images de synthèse. Sera par exemple présenté en 1984 Bio Sensor de Takashi Fukumoto et Hitoshi Nishimura (Toyolinks / Osaka University, Japon, 1984), qui surprenait le public averti par son usage inédit du ray-tracing 3D, compte tenu des temps de calcul extrêmement longs habituellement dévolus à cette technique de rendu. Puis en 1985 furent présentés Tony de Peltrie de Pierre Lachapelle, Philippe Bergeron, Pierre Robidoux et Daniel Langlois (Université de Montréal, Canada, 1985) et Sexy Robot de Rober Abel (Los Angeles, USA, 1985) qui tentaient avec succès de mimer respectivement l’expression de sentiments et d’émotions sur le visage d’un pianiste ou d’une certaine sensualité se dégageant d’une créature d’acier chromé.

Le mouvement était lancé. Quand en 1986 John Lasseter présenta Luxo Junior , toute la communauté des spécialistes en image de synthèse comprit que désormais le cinéma d’animation avait effectivement à sa disposition une nouvelle technique puissante, innovante et capable d’ouvrir des perspectives nouvelles.

Nous avions le sentiment de vivre collectivement une épopée, d’être les témoins du début d’une nouvelle époque. Nous assistions chaque année à de multiples « premières », comme autant d’entrées du train en gare de La Ciotat. L’esprit pionnier régnait. Dans mes souvenirs, je retrouve des théières emblématiques, des couchers de soleil synthétiques, des sourires de synthèse, des danses métamorphiques, de nouveaux effets de matières. Nous étions sans cesse à la recherche d’un réalisme croissant. Il y avait aussi les défis du temps réel. Puis arriva le « virtuel », avec les notions d’immersion dans l’image, puis d’hybridation réel/virtuel, et de « réalité augmentée ».

Je pourrais énumérer les anecdotes, mais cela ne rendrait pas compte d’un sentiment plus puissant, plus pérenne, qui m’habitait alors.

Les « nouvelles images » et le « virtuel » incarnaient l’idée qu’un nouveau régime de la représentation (et partant d’un nouveau régime épistémique) s’ouvrait, en rupture complète avec les millénaires passés de la très riche histoire de l’image.

Nous étions de nouveaux venus, mais nous voyions soudain tout un espace de possibles.

Des métaphores globales venaient à l’esprit: le numérique était une « nouvelle imprimerie ». Le virtuel, c’était une « nouvelle réalité », le cyberespace, une « nouvelle Amérique ». Rien de tout cela n’était trop emphatique. En fait, avec le recul des trois dernières décennies, il faut constater que beaucoup a effectivement été réalisé, même si bien plus encore reste à faire. Et aujourd’hui, des perspectives complètement incroyables s’ouvrent avec la convergence NBIC.

Les concepts-clé.

Je crois utile de résumer, de manière peut-être un peu abstraite, en quoi a consisté conceptuellement cette révolution de l’image. Le numérique représente l’apparition d’une source totalement nouvelle d’image après la main (peinture, sculpture) et la lumière (photo, vidéo). Nous sommes loin d’en avoir compris toutes les profondes implications, nous limitant la plupart du temps à mimer numériquement les outils classiques de représentation. L’impact du numérique sur la représentation reste à explorer, tant il est vaste. Il est même fondateur d’une nouvelle épistémologie de la simulation et des « expériences de pensée ». Algorithmes, modèles, langages formels, jadis réservés à la pensée abstraite (sciences mathématiques, physiques) peuvent désormais déverser leur puissance propre dans l’espace du visible, ainsi que dans l’espace immatériel du « virtuel ». Auparavant séparés (comme dans deux régions du cerveau) le langage et l’image, le « lisible » et le visible convergent.

Avec le 3D, il ne s’agissait plus de faire seulement des « images » (dites 2D) mais des « modèles », et donc de nouveaux types de générateurs d’images avec toutes leurs capacités propres. Autrement dit, la modélisation 3D ne produit pas seulement une image, ou des séquences définies d’images, mais des « modèles » qui peuvent engendrer un flot infini d’images suivant la manière dont on actualise les modèles, par exemple en tournant autour, ou bien en les métamorphosant par différents procédés.

Le virtuel introduit un nouveau rapport entre le corps et l’image. L’immersion du corps dans l’image et son interaction avec elle ouvre des pistes inédites (synesthésies, interactions haptiques). On peut créer des mondes virtuels potentiellement aussi complexes que ce que nous croyons comprendre des mondes réels.

Avec la télé-virtualité, nous avons la fusion du virtuel et des télécommunications. Nous fêtons cette année le 20ème anniversaire d’une première mondiale, la rencontre télé-virtuelle que j’ai organisé avec l’aide de VidéoLab, entre deux personnes situées physiquement l’une à Paris, l’autre à Monte-Carlo, mais se retrouvant virtuellement dans une simulation 3D en temps réel de l’abbatiale de Cluny, lors d’IMAGINA 1993. Désormais ce concept peut être décliné sur les plus grandes distances (sondes spatiales, ou encore drones tactiques) ou au niveau des nanostructures (nano-présence).

Le virtuel peut aussi s’hybrider selon de très nombreuses modalités avec le réel. On peut parler de réalités augmentées (par le virtuel), ou à l’inverse de virtualités augmentées (par la réalité). Enfin, il faut rappeler que c’est à IMAGINA que les premières applications d’Internet furent présentées au public français.

Toutes ces ruptures n’ont pas encore donné pleinement leur mesure. Sans doute, plusieurs décennies seront encore nécessaires pour que se révèlent l’étendue de ces nouveaux paradigmes. Mais on peut donner une brève idée de la profondeur philosophique des questions ouvertes.

Par exemple, on aller aussi loin que possible dans les « expériences de pensée » à base de simulation, donnant ainsi un nouveau statut à ces « réalités intelligibles », qui coexisteront avec la réalité proprement dite, pour aider à la comprendre et à la transformer. Il y a aussi la complexité qui reste presque entièrement à explorer des rapports intriqués entre images, modèles et paradigmes. Il y a les infinies possibilités de ce que j’ai appelé l’art intermédiaire ,à base de quasi-vies, et d’entités logico-mathématiques autonomes, se reproduisant et évoluant de façon quasi-épigénétique.

Ce qui n’a pas encore été accompli.

Il est inutile de revenir sur les grands succès du cinéma hollywoodien. Qu’il suffise dire que c’est Pixar qui a fini par avaler Disney et non le contraire. Qui l’eût cru en 1983 ?. John Lasseter domine désormais le Box office du « cartoon » avec son style lisse et léché. Des films comme Avatar (2009) de James Cameron ou Epic (2013) de Chris Wedge prouvent abondamment que la technique 3D est parfaitement maitrisée, et qu’elle rapporte de plus des sommes colossales. Mais où sont les Velasquez, les Vinci, les Rembrandt, les Monet, les Van Gogh  du 3D? Même question à propos des jeux virtuels. Ils sont partout. Mais où sont les Rodin, les Le Nôtre, les Claude Nicolas Ledoux, les Le Corbusier, les sculpteurs, les architectes, les urbanistes, les jardiniers du virtuel?

A ce sujet je voudrais évoquer la figure que fut André Martin, ce collègue et cet ami trop tôt disparu, qui a tant contribué à l’identification de la spécificité du cinéma d’animation, et qui fut aussi l’un des fondateurs du festival d’Annecy et de l’AFCA.

Dans un texte de 1952, Dessin animé et pesanteur, cité par Pierre Hébert, il critique violemment l’ensemble de la production américaine de dessin animé depuis l’apparition du cinéma sonore. «Pendant ses vingt premières années le Dessin animé a esquivé les voies essentielles et peu commodes qu’avaient montrées les précurseurs et préféré les situations plus sûres et moelleuses». Quels étaient ces précurseurs ? Aussi divers qu’Émile Reynaud, l’inventeur du Praxinoscope (1876) et du Théâtre optique (1892), puis Émile Cohl, Walt Disney, Paul Grimault. Commentant le travail de Grimault et Trnka, il écrit : «Dans l’animation il y a âme. Entre le personnage et l’animateur il n’y a pas seulement l’effort fourni pour lui donner mouvement. Quelque chose reste de la chaleur qui a accompagné l’évolution du personnage ; ligne amoureuse de sa dérive qui rend la nuance d’un clin d’œil…». Tout le secret de l’animation réside « entre » les images, comme le dira plus tard Norman McLaren, que Martin découvrit avec Blinkity Blank (1955), film étonnant, directement gravé sur chaque photogramme et dont plus de la moitié est composé d’images noires, pour le plus grand bénéfice du rythme et de la dynamique… Se révélait alors pour Martin «l’art immense du Film d’Animation, et de la prise de vue Image par image qui sauvent le meilleur du cinéma et dont le Cartoon tel qu’on le connaît n’est qu’une minuscule et étroite application.»

Quinze ans plus tard, dans un texte de 1967, la déception de Martin est d’autant plus patente, amère: «Je pense que l’animation aujourd’hui est en décadence, car elle ne parvient plus à dominer les écritures plastiques, les procédés de manipulation. (…) Tout ce mouvement se développe aux dépens ou même franchement contre ce qui était l’animation : le contrôle de mouvements complexes et décisifs, dans plusieurs dimensions. Ces valeurs allaient de la vitesse aux qualités des déformations, des déplacements, des vibrations visuelles. Pour moi, l’animation perd toute sa vie instrumentale et son dynamisme en empruntant à l’affiche, à l’illustration, à la peinture sa force de communication et en entrant dans le volant accéléré de la consommation des styles.»

Ce co-fondateur du Festival d’Annecy n’hésitait pas à dire alors : «Les festivals d’animation vont devenir des temples solennels du goût et de la nouveauté graphique affectée. Pour le moment ce n’est plus la peine de penser à l’animation, de la chanter, de l’annoncer, de l’attendre.» Mais en réalité c’est précisément ce qu’il attendait : l’avènement d’une utopie créative. «Des ordres de construction nouveaux, répondant aux lois de l’image par image, des styles imprévisibles sont encore possibles qui permettront au cinéma, même de prise vue directe, de prétendre aux plus hautes déterminations lyriques et expressives. (…) Le Cinéma est né avec une vocation discursive bien plus importante, originale et toujours actuelle, que son aptitude à enregistrer et reproduire automatiquement le mouvement.» Et il concluait : «L’invention du cinéma déjà inventé ne va plus finir.» Le Cinéma doit être considéré comme « l’Art de toutes les images possibles.» Qu’aurait-il pensé de Cars ou d’Avatar ?

Arts et convergences

Pouvons-nous espérer une nouvelle écriture de l’image ? Un nouvel art ? Une nouvelle « époque » stylistique? Un « art intermédiaire » des images, avec des processus de génération et d’auto-engendrement quasi-vivants ? La réalisation de mondes virtuels aussi profonds que des gouffres, aussi larges que des galaxies, et dans lesquels on pourrait trouver des histoires, des récits, des rêves, allant bien au-delà de Google Glass et des lunettes 3D à 2€? Quelles sont les chances d’ouvrir des voies radicales, impensées?

Après la convergence télématique annoncée dans les années 1970 et maintenant réalisée, qu’en est-il de la nouvelle convergence NBIC, nano-bio-info-cognitive ? Que pouvons-nous en attendre sur le plan de la création ?

Sur le plan de la création cognitive et conceptuelle, on peut affirmer qu’elle est déjà largement affectée par la convergence NBIC. Il est à noter que la simulation (en 3D) est désormais un superbe outil de travail cognitif allant bien au-delà des performances en temps réel des « simulateurs de vol ». L’art de la simulation et des expériences de pensée, déjà évoquées, est désormais partie prenante des progrès de la biologie de synthèse et de la biologie informatique. En effet le rôle fonctionnel des repliements 3D des séquences génomiques et des sites 3D protéiniques peut être étudié en détail. La simulation 3D permet d’étudier les micro-variations temporelles et les oscillations des nanostructures. La simulation peut être mise à profit pour tenter de saisir toute la complexité des enchevêtrements fonctionnels des réactions biochimiques, ou de quelques réseaux systémiques que ce soient.

Le rôle épistémique des techniques du virtuel comme outils de simulation cognitive et de prédiction heuristique dans le cadre de la biologie ou des nanosciences est l’un des éléments les plus prometteurs de la « convergence NBIC ». Mais quid de l’impact sur la création artistique ?

Futurs ?

La Biologie de synthèse permet d’envisager à terme la synthèse des processus vitaux, et donc possiblement la synthèse de la vie. On parle déjà de « Xéno-biologie ». On peut synthétiser des brins fonctionnels d’ADN, mais ce qui est plus ébouriffant ce sont les perspectives de synthétiser des formes de vie complétement orthogonales par rapport à la vie telle que nous la connaissons. On passerait de l’ADN à l’AXN, c’est-à-dire à des formes de vie basées sur des acides xéno-nucléiques, avec d’autres types d’acides aminés. Il y a aussi l’idée de l’émergence de l’Homme v. 2.0, l’ « Homme augmenté », capable de modifier en toute conscience son propre patrimoine génétique. Tout ceci est encore de la science-fiction, mais les bio-briques se mettent en place. Nul doute qu’un art NBIC pourra accompagner ce grand mouvement de convergence. Rien à voir avec l’image de synthèse des années 1980-2020, bien sûr, mais peut-être serons-nous témoins de l’émergence de formes inouïes de création, d’un art du trans-humanisme ou du post-humanisme ?

Vers un nouvel art total

Par exemple je voudrais évoquer l’artiste trans-génique Eduardo Kac qui a fait beaucoup parler de lui avec son GFP Bunny, un lapin fluorescent, modifié génétiquement. Le travail de Kac, aussi connu pour ses œuvres télématiques, a pris un développement nouveau avec Le Huitième Jour.. C’est une œuvre transgénique qui inclut dans un système écologique artificiel, physiquement clos mais ouvert sur le Web, des créatures bio-luminescentes comme des plantes, des amibes, des poissons et des souris. Dans l’installation Genesis, Kac incite les participants à provoquer des mutations génétiques, proposant « un perfide et déstabilisant jeu par Internet ». Voilà bien un nouvel avatar moderne du rêve de “l’art total” (Gesamtkunstwerk)! Une nouvelle grande fusion artistique est à notre portée. Les amibes et le cerveau, les bio-bots et le Web, les « participants » et « l’environnement » sont invités à fusionner.

Bref retour sur le passé des « nouvelles images » et quelques perspectives futures.

Mes premiers contacts avec les « images par ordinateur » remontent aux années 70. A l’époque le film de Peter Foldès La faim (1973), prix du jury à Cannes en 1974, était emblématique de certaines possibilités de transformation, de métamorphose et d’animation de dessins 2D.

A titre d’exercice de pensée, je propose « l’augmentation » du Lapin GFP de Kac. GFP veut dire Green Fluorescent Protein. On peut prévoir l’arrivée prochaine de protéines fluorescentes RFP et BFP, c’est-à-dire rouges et bleues. Créons alors un lapin dont un poil sur trois sera fluorescent rouge, vert ou bleu, selon le principe bien connu de la télévision en couleur. En combinant de plus les gènes du caméléon, du grillon et de la luciole avec les gènes de ce lapin rouge-vert-bleu, il sera aisé de créer le lapin-télévision. Les images fluorescentes pourront changer, comme pour un caméléon, avec une fréquence légèrement supérieure à la stridence du grillon, et avec une luminosité plusieurs fois supérieure à celle de la luciole. Bientôt, on pourra donc regarder Metropolis ou Autant en emporte le vent sur des lapins.

Allons plus loin encore.

L’idée suivante serait de faire de l’humanité une œuvre d’art totale. Pourquoi ne pas injecter les gènes du lapin télévision dans le patrimoine génétique humain ? Il n’y aurait plus de roux, de blonds ou de bruns, mais des chevelures en haute définition, où l’on pourrait afficher ses photos de vacance, entrecoupées de publicités.

Généralisons encore. Nous savons maintenant que la NSA peut en matière de secondes accéder n’importe quel ordinateur, n’importe où et n’importe quand. Je propose de donner à quelque artiste le loisir d’avoir accès disons une fois par an, pour le Carnaval ou la saint Valentin, à ce clavier universel. Sur les milliards de mobiles et d’ordinateurs, une symphonie visuelle mondiale, faite d’extraits de comptes bancaires, ou d’emails d’amour, pourraient exceptionnellement sortir des archives secrètes, et apparaître au grand jour. Alors les drones se mettront à filmer le monde selon des saccades programmées pour en faire surgir une sorte de suc, d’essence immatérielle, qui dirait quelque chose de l’âme mondiale, en voie de transformation.

Shēn 申 Dire


La langue chinoise offre d’innombrables rêveries sur la manière dont les concepts s’agglutinent ou se dissocient, coopèrent entre eux ou bien se divisent, s’éloignent les uns des autres. Cela vient de ce que chaque caractère peut se combiner de multiples façons avec d’autres caractères aussi éloignés que possible. Ainsi Shēn 申 « dire, rapporter », dans le simple exemple suivant.

Homme 紳 =  le fil 糸 + dire 申

Dieu 神 = révéler 示+ dire 申
Dans les deux cas, le verbe « dire » semble figurer une essence profonde. Cela est d’autant plus étonnant que cette essence paraît donc constitutive de l’homme et du dieu. L’homme et le dieu ont pour essence commune le « dire ». Le second caractère, celui qui les différencie, en étant placé comme une sorte de préfixe, définit deux modalités de leur « dire » respectif.

Le « dire » de l’homme est modalisé ou métaphorisé par le « fil » (le fil à coudre, le fil de soie, ou le fil de l’étoffe). La métaphore se dessine  ainsi: le « dire » de l’homme est une sorte de « fil » qu’il faut passer sa vie à dévider, ou bien à tisser, ou bien à suivre. Ou alors ce pourrait être la piste d’un labyrinthe, ou bien un lien liant?

Le « dire » du dieu, en revanche, se trouve modalisé par un second verbe: « révéler », qui est en fait une sorte de « dire » à un degré plus fort. Le dieu est donc un « dire » dont l’essence est de se dévoiler entièrement. La métaphore s’éloigne de la linéarité ou de l’embrouillamini du « fil » humain.

Etrange proximité, surprenante complémentarité, sans réelle contradiction, entre le « dire » qui se « révèle » et qui dévoile, et le « dire » qui se tisse, ou qui se voile.

Comment regarder l’esprit (en son entier) ?


Dans un texte appelé « Les grands cadres de référence » (Maha-satipatthana Sutta) du Tipitaka, ou « Canon Pali », collection des textes fondamentaux en langue Pali formant la base doctrinale du bouddhisme Theravada, on trouve une question : « Et comment fait un moine pour regarder en son entier l’esprit dans l’esprit? »

Suit alors une assez longue réponse, dans le genre : « Lorsque l’esprit a des illusions, il perçoit que l’esprit a des illusions. Lorsque l’esprit est sans illusions, il perçoit que l’esprit est sans illusions (…). Lorsque l’esprit est libéré, il perçoit que l’esprit est libéré. Lorsque l’esprit n’est pas libéré, il perçoit que l’esprit n’est pas libéré.»

Puis vient la conclusion : « De la sorte il demeure observant intérieurement l’esprit dans l’esprit, ou extérieurement l’esprit dans l’esprit, ou à la fois, intérieurement et extérieurement l’esprit dans l’esprit. (…) Et il demeure indépendant, sans attachement à rien au monde. C’est ainsi qu’un moine demeure observant l’esprit dans l’esprit. »

Conclusion provisoire: l’esprit n’est « en entier » qu’en dehors de lui-même. L’esprit ne se contient donc pas lui-même. Il ne se contient qu’en sortant de sa propre « contenance ». Il doit sortir. Choisir l’exode, s’exiler hors de lui-même, non comme dans un désert, mais bien plutôt comme si cette sortie de soi était la condition d’accès à sa propre essence.

Le souffle à l’origine du monde


元气 (en chinois, yuánqì) : 元 origine + 气 souffle : le souffle originel à l’origine du monde.

De Wikipédia, je reprends les éléments suivants :

Le est le souffle vital. Il anime la vie des êtres, mais persiste aussi après la mort, dans l’au-delà. C’est un principe fondamental qui donne sa forme à l’univers, et qui le transforme sans cesse. Il circule partout, reliant en permanence les choses et les êtres. Il s’agit d’une sorte d’essence invisible, qui anime toutes choses, et tout être. Il peut prendre différentes formes qui sont alors notées par d’autres caractères. On distingue ainsi le primordial (yuánqì 元氣), le prénatal (jīng 精), le qui alimente la pensée et la vie spirituelle (shén 神), etc.

Le dictionnaire Shuowen Jiezi élaboré par Xǔ Shèn au IIe siècle évoque les traces archéologiques du , gravées sur une carapace de tortue, qui représentent une graphie à trois barres horizontales. Elle évoque la vapeur ou la brume. Cette même graphie se retrouve sur une tasse de thé en bronze. L’idée de qi apparaît également sur un bijou de jade datant de la période des Royaumes combattants (-403 à -256), sous la forme du sinogramme 炁 ; composé de la vapeur (ou respiration) sur le radical 灬, qui se rapporte au feu (huǒ 火). Dans le système d’écriture lishu, sous la Dynastie Han (-206 à 220), le est exprimé lui aussi par un sinogramme combinant la vapeur 气 sur le feu 火.

C’est seulement sous la Dynastie Song (960 – 1279) que le est représenté par le sinogramme 氣 qui évoque la vapeur émanée de la cuisson du riz. C’est aussi le moment où la médecine chinoise a besoin de transcrire une « énergie » issue de la nourriture et de la respiration. C’est l’idéogramme encore utilisé de nos jours. Ce sinogramme traditionnel 氣 illustre le caractère à la fois matériel et immatériel de la notion. Le sinogramme a pour clé le pictogramme 气 (). Utilisé comme clef pour les gaz, il représente un nuage et signifie l’air.

La partie inférieure gauche du sinogramme est le pictogramme 米 (), qui représente des grains de riz et signifie riz. Le caractère complet 氣 exprime ainsi l’idée du riz qui bout dans la marmite.

Le sinogramme décrit donc le comme étant un mélange, à la fois aussi immatériel et éthéré que la vapeur et aussi dense et matériel que la céréale. Il signifie également que le est une substance subtile (vapeur) dérivée d’une substance matérielle (céréale).

Dans la cosmologie chinoise, le souffle ( 气) précède la scission binaire du yin et du yang, elle-même à l’origine des « dix-mille êtres » ( wànwù 万物), c’est-à-dire tous les êtres et indirectement les choses qui composent le monde. Car dans la pensée chinoise, le est à l’œuvre dans le règne du vivant et dans le règne minéral. Par exemple, les nervures du jade sont considérées comme étant organisées par le tout comme les veines du corps humain. Dans la peinture chinoise, les strates géologiques des montagnes sont une des manifestations macro-cosmiques du , et l’esthétique d’une toile dépend de ce souffle.

Le se manifeste ainsi partout, « sans jamais aucun rapport toutefois avec la notion de divinité », précise Wikipédia.

Cependant, comme on a vu un peu plus haut, le qui alimente la pensée et la vie spirituelle (shén 神) entretient un certain rapport avec le divin shén 神, dont a exposé dans un autre billet le sens profond (lié au « dire » et à la « révélation »).

Le divin n’est pas dans le , soit, mais le peut être utilisé par le divin, à l’évidence, pour les fins qui l’intéressent. Le est à la fois matériel et immatériel, mais c’est justement parce qu’il représente une forme de conjonction entre esprit et matière, entre nuage et riz, qu’il se sépare du divin. Car le divin n’est pas par essence le résultat d’une telle conjonction. Le divin, selon l’étymologie, est tout entier dans l’ordre du « dire » et du « révéler », donc bien loin des « nuages » et du « riz ».

Ces métaphores nous guident. L’énergie est de ce monde. Le divin n’est pas du monde, mais peut être dans le monde.

L’art des « metaxu »


Entre la beauté et la laideur, entre le savoir et l’ignorance, entre la matière et les formes, entre les mortels et les immortels, il y a toutes sortes d’êtres « intermédiaires », ce que Platon appelle les metaxu. Il en est des myriades. Le monde se tisse sans cesse par leurs médiations et par leurs transformations.

Les metaxu prennent une actualité nouvelle avec la révolution numérique, qui les rend plus tangibles peut-être, et leur ouvre un immense champ d’expérimentation pratique. L’artiste intermédiaire peut se lancer à la découverte de formes métamorphiques, et de forces immuablement mues. L’art intermédiaire des metaxu entrecroise inextricablement des images (sensibles) et des modèles (intelligibles), révélant progressivement leur essence : le paradigme caché, celé par le démiurge.

Les images de metaxu présentées ici se veulent des expressions caractéristiques de cet « art intermédiaire ». Elles doivent être comprises comme quelques moments privilégiés dans la vie de leur genèse. Ces prélèvements ne sont pas arbitraires. Ils ont été sélectionnés comme des « instants », des « moments » uniques. Seul leur « paradigme » reste intangible, à travers la multiplicité des formes visibles qu’il engendre, et des figures qui l’incarnent provisoirement.

L’imitation des dieux

Ovide a dit que le Sommeil est le père de mille enfants. Parmi ceux-ci, il y a Morphée qui peut prendre toutes les apparences de la figure humaine, Icélos qui peut se changer en bête sauvage, en oiseau ou en serpent, et Phantasos qui sait imiter la terre, les rochers, les eaux, les arbres. Le Sommeil engendre les fantasmes, et rêver c’est imiter les dieux, c’est reprendre ce qu’ils ont déjà vu, pour le métamorphoser à notre manière.

Il y a bien sûr des grincheux, comme Schopenhauer, qui vitupèrent l’imitation : « Imitatores servum pecus ! ». Les imitateurs, peuple serf. Cette servitude est parfois nécessaire, en vue d’une plus haute libération. En Amérique tropicale, les fleurs de la passion (du genre passiflora) en font une question de survie. Elles imitent de faux œufs du papillon heliconius, avec leur couleur jaune et leur disposition aléatoire. Elles font ainsi croire à ces papillons qu’une ponte d’œufs a déjà eu lieu, et les incitent à aller pondre ailleurs leurs œufs parasites, aux promesses de larves dévoreuses. Dans ce cas il n’est pas question d’innover. Imiter c’est vivre. Innover c’est mourir.

Et pourtant, il a fallu à ces fleurs beaucoup innover pour imiter, simuler et survivre.

Il reste entendu que l’imitation « serve » ne peut se comparer à la vive imagination. L’imitation est toujours limitée par ce qu’elle imite. Elle ne tient pas assez compte des rapports cachés entre les choses. Elle étale trop crûment la mince pellicule qu’elle se contente de prélever sur le monde.

L’imagination, quant à elle, prétend ne rien imiter. En réalité, elle imite aussi, mais ce qu’elle imite, elle l’obscurcit, et le cèle. Elle arbore du neuf pour mieux cacher ce qui ne saurait être vulgairement dévoilé.

Oscar Wilde disait que le maniérisme cherche à « imiter l’art et non la nature ». En réalité, il n’imite ni l’un ni l’autre. Un tableau maniériste n’est pas d’abord une image. Il est d’abord une idée. Le peintre maniériste ne cherche pas d’abord à rendre visible, il veut surtout rendre l’invisible. L’image maniériste n’imite pas, elle signale. Elle ne figure pas une présence, elle désigne une absence. « Comprenne qui pourra ! » semblent nous dire ces tableaux moqueurs et distants. Se servir de son esprit plus que de son regard, voilà la leçon maniériste.

Pythagore fut le premier philosophe de l’imitation. Les nombres, disait-il, forment la substance même des choses, et celles-ci imitent (mimesis) les nombres. Les choses entretiennent entre elles des relations analogues à celles qui relient les nombres entre eux. Platon reprit cette idée, en lui donnant une forme plus large : les idées sont des « modèles » dont toutes les choses « participent ». Cette participation se fait comme mélange (mixis), comme union intime entre le modèle idéal et la chose réelle.

Comme si toute grande idée exigeait une polémique, Aristote affirma peu après que ces nuances n’étaient que des « jeux de mots ». Il ne voyait quant à lui aucune différence entre mimesis et mixis, et les rejetait l’une et l’autre. Il y avait pourtant une nuance de taille. La mimesis pythagoricienne laissait intangible le monde épuré des modèles ; elle n’affectait pas la symbolique archétypale des nombres, qui restaient séparés des choses. La mixis platonicienne exigeait en revanche une forme d’union rapprochée entre les idées et les choses. C’était un mélange actif, participatif, une fusion des essences et des natures, qui permettait l’engendrement puis la prolifération d’une multiplicité de mondes intermédiaires.

Devenir

Le devenir multiple des formes, comment le concevoir ? Par « devenir des formes », on entend la génération, le changement et le mouvement des formes sensibles. Pour Platon, ces formes en devenir sont une image déformée et affaiblie de la génération, du changement et du mouvement qui animent les formes idéales. En revanche, pour Aristote, il n’y a de devenir que dans les choses. Tout ce qui « devient », devient quelque chose, à partir de quelque chose, au moyen de quelque chose. Pour devenir, il faut s’incarner.

Ce qui importe, ce ne sont pas seulement les formes, ce sont aussi leurs manières de fluer, leurs façons de varier. La diversité des devenirs est infinie. La fleur devient fruit, la larve nymphe, l’enfant adulte et la fille femme, chacun selon sa manière. Le devenir n’est pas non plus le même qui affecte les parties ou le tout. De plus, des principes différents s’appliquent à l’origine et au terme du développement. Les lois du devenir ne sont point fixes. Elles sont elles-mêmes en devenir. Héraclite utilise l’expression « vivre la mort » pour traduire ce passage de l’être au devenir. Il n’y a pas de loi qui résiste au devenir, pas même les lois qui le régissent. La seule loi immuable, c’est qu’aucune loi ne l’est. Le devenir s’engendre lui-même puisque sa mort garantit sa vie. Il est sa propre substance, sa propre matière, et se fait guerre à lui-même, en toute nécessité, en toute liberté.

D’ailleurs le devenir n’est pas synonyme de progrès. L’adulte n’est pas toujours supérieur à la larve. Chez certains crustacés, des organes parfaitement développés au stade embryonnaire peuvent être relativement dégénérés au stade adulte. Darwin en conclut que ces larves doivent être placées plus haut sur l’échelle de l’organisation que les animaux adultes qu’elles deviennent.

La sénilité et la décrépitude sont issues du devenir au même titre que la maturité et la force de l’âge. Les formes en devenir ne sont jamais assurées de leur avenir. Les artistes le savent bien, qui s’empressent de ponctuer leur vie d’œuvres « achevées ». L’œuvre s’achève, mais ni l’art, ni l’artiste. L’art, indéfini, devient toujours. L’artiste, quant à lui, fige les formes nécessaires à son propre devenir, et il les laisse sans remords derrière lui, comme des sentinelles endormies. Que devient-il lui-même ? Il devient ce que deviennent tous les hommes. Peut-être son sort est-il même encore moins enviable. Car les formes qu’il forge lui renvoient sans cesse une image de la distance qui le sépare de son propre idéal. L’artiste ne peut jamais produire une œuvre dont l’essence vaille sa propre essence. Ses œuvres sont comme les excrétions d’un métabolisme créateur dont le sens est dans cette essence.

Les œuvres ne sont que des traces, là où l’on pensait trouver des chemins ou des passes. Aussi l’art est-il un venin mortel. Vienne l’âge, et avec lui le coup de grâce. « Ton art te dépasse », clament les œuvres rassemblées devant l’artiste amer. Ces objets, qu’un souffle créateur anima jadis, portent l’accusation la plus terrible. Le créateur qui les porta n’est plus. Le démiurge a baissé les bras. La folie ou la mort, le désespoir ou l’amertume semblent les seuls recours devant le constat fatal. Les œuvres libéralement dispensées pendant la période active, paraissent d’abord comme autant de signaux stables d’un mouvement précieux, vital, indicible. Puis elles deviennent la preuve irréfutable de la mort proche de l’artiste qui les fit naître. Dans un de ses derniers poèmes, Michel-Ange écrit : « L’art tant célébré, dont je connaissais les secrets, m’a fait sombrer dans la fange. Vieux, pauvre, dépendant d’autrui, je me décomposerai si bientôt je ne meurs. »

Modification

Les modifications sont toujours légères ou minimes. Mais leurs conséquences peuvent être prodigieuses. Si nous avions un système respiratoire très légèrement différent de celui dont nous disposons actuellement, il en résulterait une transformation extraordinaire des expressions de notre visage, note Darwin. Une simple modification de l’environnement peut faire évoluer des espèces ayant le même patrimoine génétique vers des morphologies très différentes.

Les modifications paraissent souvent marginales ou accessoires. Elles semblent ne pas affecter le principe même de ce qu’elles modifient. Elles ne sont qu’une simple modalité, ne touchant en rien à l’essentiel. L’essentiel ne se modifie pas. Il ne peut être modulé. La modification n’est donc qu’un accident, qui n’engage pas le fond des choses, la substance.

Cependant, le jour arrive où une modification minime se traduit par un résultat sans commune mesure avec ce que l’on attendait. C’est le grain de sable, qui désole les planificateurs imprévoyants.

Pour notre part, on se réjouit de ce qu’en se modifiant un peu, sans peine, on puisse se transformer beaucoup, sans douleur.

En allant au bout de l’idée, il suffit donc peut-être de rêver son être pour le modifier, et le modifiant ainsi, le changer réellement.

Changement

Pour Héraclite, le réel est changement. Toute la nature est en mouvement. Tout coule. On ne peut donc énoncer aucune vérité, car qui peut juger de la vérité de ce qui change en tout sens ? Cratyle alla plus loin encore, et reprocha à Héraclite d’avoir dit qu’on ne descend pas deux fois dans le même fleuve, car il estimait qu’on ne peut même pas le faire une fois. Il en concluait qu’on ne peut rien dire, et se contentait de remuer le petit doigt.

Aristote, comme à son habitude, se livra à une analyse fouillée des diverses catégories de changement : la génération, la croissance ou la décroissance, l’altération et la translation. Pour lui c’est la translation qui est le premier des changements, car tous les changements se ramènent en dernière analyse à des séries de translations.

Les changements peuvent être brusques ou lents, légers ou prononcés. Les changements visibles finissent toujours par émerger de la mer des changements invisibles. Les clinamens et les catastrophes sont les visages brutaux d’un changement qui ne cesse jamais.

Au théâtre du changement, le spectacle n’est ni sur la scène, ni dans la salle, mais dans les coulisses profondes. Les métamorphoses les plus luxuriantes du vivant se ramènent au « fonctionnement expressif » des gènes. Ou même, si l’on va plus loin, se résument à leurs « sauts quantiques ». La chimie, avec son cortège de réactions, de combustions, et de transformations, la physique avec ses fusions, ses évaporations et ses sublimations ne sont que de pâles images de nos genèses intimes.

Le changement s’attaque à tout, même à lui-même. Toutes les règles peuvent être réformées. Toute loi doit contenir le germe de son abrogation. Tout juge doit pouvoir être jugé, au tribunal du changement. Tout changement doit pouvoir être changé. Le changement du changement, c’est aussi le lieu de la liberté.

Baltasar Gracián fit débarquer ses héros sur une île où cette liberté était acquise, et ils y rencontrèrent des monstres en perpétuelle transformation, « tantôt immenses, tantôt minuscules, changeant sans cesse de couleur et de sexe. »

C’était un monde en délire, assez amusant. Mais changer toujours reste au-dessus de nos forces. La folie guette le changeur invétéré. Elle le suit pas à pas, prête à fournir son secours et son poison. La démence n’est-elle pas la faculté de changer n’importe quoi en autre chose ?

Il est vrai aussi que mieux vaut parfois la folie éventuelle à la mort assurée.

Evolution

L’évolution est créatrice, disait Bergson. Cette formule apparemment simple n’est pas si facile à concevoir. La difficulté principale est de bien comprendre la force du temps. Nous n’avons aucune idée concrète de ce que représente un milliard d’années, ni même un million, et surtout de leur possible impact sur des formes vivantes. Le calme royaume de la géométrie ou la paisible république du langage ne nous sont d’aucun secours dans la jungle absolue de la lutte des espèces pour la vie, sur d’immenses durées de temps. L’examen des quelques formes de vie aujourd’hui présentes ne nous éclaire guère sur les innombrables formes disparues, et sur les possibles innovations qui se révèleraient, peut-être, dans un ou deux milliards d’années.

L’évolution se fait par bonds inédits, et en une mosaïque de vitesses relatives. L’évolution n’est pas la même en tous points du temps et de l’espace. Ici elle peut sembler somnoler, là être foudroyante. Les différentes parties d’un même organisme n’évoluent pas elles-mêmes à la même vitesse. On a pu même affirmer que dans chaque être vivant aujourd’hui coexistent des vestiges chromosomiques de toutes les époques du monde.

Une théorie récente met en avant, dans le cas des vertébrés, l’activité auto-catalytique du cerveau dans le processus évolutif. L’évolution morphologique dépendrait en partie des rétroactions positives du cerveau. A condition d’être suffisamment développé, le cerveau peut exercer une « pression interne » capable de favoriser ou d’inhiber des mutations génétiques fortuitement apparues.

Avec le cerveau, l’évolution se donne un moyen d’une puissance inimaginable pour se changer elle-même, pour changer ses propres règles, et même la finalité implicite qu’elle semble suivre. Hegel disait déjà que « du fait même que l’homme sait qu’il est un animal, il cesse de l’être. »

Pour l’artiste intermédiaire, l’évolution des espèces est un paradigme particulièrement stimulant. L’évolution semble n’obéir à aucun programme prédéterminé, ni à aucun modèle préalable. Elle ne cesse de réfuter ses propres productions par tous les moyens, jusqu’à frôler parfois le suicide final. C’est l’exemple énigmatique d’un système géant, génial, en genèse constante, et capable de se transformer lui-même, de lui-même, par lui-même, visant quelque lointaine idée qui pourrait bien résider en dehors de lui-même.

Variation

Le même et le varié entretiennent des rapports étroits. Une seule image peut engendrer de multiples rêves. Une seule forme peut se lire de façon variée. Réciproquement, un concept impose sa forme unique aux mille variations qu’il subsume. Le rêve et le concept, l’un et le multiple, ne sont que des variations l’un de l’autre.

Il n’est rien qui ne varie. Car la variation, c’est l’art de rester soi-même. La (petite) variation est la substance même du même.

Les minéraux varient. Ils se dissolvent, ils se recombinent. Les molécules qui les composent ne cessent de varier de formes.

Les arbres varient, suivant l’heure du jour ou la température. Le volume des branches et du tronc change. C’est au matin, avant le lever du soleil que leur circonférence est la plus grande. Plus tard, dans la journée, ils rétrécissent à cause de la transpiration. Mais il suffit d’une averse et ils enflent à nouveau.

Les animaux aussi sont sensibles aux variations de température. Prenez les chats siamois. La couleur de leur pelage dépend d’une enzyme qui ne fonctionne correctement qu’à la température de 33°C. Au-dessus de cette température, l’enzyme ne catalyse plus la synthèse de la couleur noire, et le poil reste clair. Les parties les plus chaudes du chat sont claires, et les zones plus froides (pattes, oreilles, queue) sont noires.

Un des mécanismes de variation les plus répandus est la répétition. « Lorsqu’un organe se répète souvent dans un même animal, il tend tout particulièrement à varier, soit par le nombre, soit par sa conformation », écrit Darwin.

Les gènes sont particulièrement concernés par cette loi, puisqu’ils répètent sans fin les mécanismes simples de la duplication de l’ADN.

Mais la variation ne s’applique jamais qu’aux détails, à la périphérie. C’est justement parce qu’un caractère n’a pas beaucoup d’importance qu’il peut varier sans contrainte. S’il en avait, il serait soit éliminé radicalement, soit conservé précieusement, et donc soustrait à toute variation. L’extrême variabilité d’un caractère implique son extrême marginalité. Parfois ce raisonnement semble difficile à accepter, tant la variation semble radicale. Le papillon araschia levana L., appelé vulgairement « la carte de géographie », offre un festival variations spectaculaires. Les papillons de la génération du printemps sont fauves, avec des taches noires, blanches et bleues. Ils sont remplacés par la génération de l’été qui est de couleur brune avec des taches blanches et un trait rouge. L’explication est que le gène qui contrôle les couleurs donne lieu à deux « expressions » parfaitement distinctes.

La variation est une métamorphose marginale, parfois saisie de très timides audaces. Ainsi le visage de l’homme est l’objet d’infinies et subtiles variations. Le visage du matin n’est pas celui du soir. Athanasius Kircher (1601-1680) avait inventé un système à base de miroirs plans pour « montrer le visage humain comme variable » (Faciem hominis variam ostendere) en en superposant des images successives.

La tradition picturale fourmille de techniques variationnelles. C’est une question cruciale, on s’en doute. Comment un même outil, le pinceau, peut-il rendre les infinies variations de la nature ? Il faut commencer par varier les gestes qui l’animent. La « méthode des rides » de Shitao est une encyclopédie des variations possibles, avec le roc, l’arbre ou le nuage. Les diverses « rides » (nuages enroulés, chanvre éparpillé, corde détoronnée, taille à la hache, face de diable, crâne de squelette, fagot emmêlé, graines de sésame, or et jade, cavité ronde, pierre d’alun, fragment de jade, sans os,…) sont autant d’opérateurs capables de faire « varier » l’aspect d’un sujet donné. Indépendantes de leur destination finale, les « rides » forment un groupe de transformations dont le jeu renvoie d’abord à lui-même. La signification particulière, contingente, d’une ride donnée s’efface nécessairement devant la signification plus haute qu’elles offrent toutes ensemble, comme système. Elle disparaît devant les affinités qui unissent les rides entre elles, ou les dissonances qui les font vibrer, et qui forment le tissu même du style, et peut-être même du monde.

Altération

S’altérer c’est devenir autre, tout en demeurant le même. Il y a altération quand une substance change qualitativement en restant cependant la même. Ceci est possible quand ce n’est pas la substance prise comme un tout qui change, mais seulement certaines de ses qualités. Si toute la substance changeait, il ne s’agirait plus d’une altération, mais d’une corruption totale – laquelle conduirait à la génération d’autres substances.

L’altération est un changement qualitatif, partiel et continu. Comme elle ne change pas le sujet, mais seulement telle ou telle de ses qualités, elle transforme continûment la substance en elle-même. Les qualités altérées des objets se succèdent comme des instants dans la durée, ou des points sur de souples lignes. C’est ce mouvement continu qui donne son identité à ce qui devient autre, dans ce qui reste le même.

En résumé, l’altération incarne la présence d’un peu d’autre, librement à l’aise dans le même.

Mais l’altération peut parfois attenter à la vérité même de la chose, quand on en abuse. L’approche seulement technique, ou la méthode mathématique, strictement ou absolument appliquées, font partie des dangers. « Dans la connaissance mathématique, la réflexion est une opération extérieure à la chose ; de ce fait, il résulte que la vraie chose est altérée. »

Il ne faut pas en conclure que la technique ou les mathématiques pervertissent les choses vraies, comme par exemple Socrate les jeunes gens. Il faut plutôt comprendre qu’elles offrent le moyen d’une lecture autre du même. Il ne faut pas trop se plaindre de l’éloignement des mathématiques et du réel, et de l’extériorisation de celles-là par rapport à celle-ci. Au contraire, il faut se servir de l’altération qu’elles lui font en effet subir pour découvrir certains de ses principes cachés. L’altération, dans ce cas, permet un regard autre, plus profond, sur le même. De ce fait, elle nous aide à reconstituer, indirectement et au moins partiellement, l’invariant qu’est la chose même.

Dis-moi ce qui te rend autre, et je te dirai qui tu es.

Déformation

Tout ce qui se déforme, dans le même temps se reforme. En se déformant, la forme devient pâte ou glaise. Elle se fait nuage ou liquide : elle se soumet à la puissance continue de la déformation. Cette malléabilité, cette humilité plastique sont semblables à celles des rêves et de l’imagination. La déformation relie la forme ancienne et la forme nouvelle, tout comme la rêverie mêle le possible et le réel. En ce sens, toute forme qui se déforme doit toujours garder en elle quelque chose d’amorphe. Il doit rester en elle de quoi recevoir d’autres formes en partie nées d’elle.

La déformation est un commentaire de la forme. Elle l’explicite, et la révèle en quelque sorte, car la dynamique déformante met au jour les points d’inflexion ou de rebroussement, les jointures et les pivots.

L’art a su depuis longtemps jouer de l’heuristique déformatrice. Les célèbres anamorphoses mettaient en scène des perspectives accélérées ou ralenties, des rectifications optiques, cachant de monstrueux rébus ou des bizarreries érotiques. Roland Barthes voyait dans l’anamorphose l’un des deux moyens radicaux de tourner l’Analogie en dérision, l’autre étant le respect plat, la « copie ». L’anamorphose est une déformation réglée, obéissant scrupuleusement aux lois de l’optique, mais dans un but résolument pervers. L’anamorphose est l’application extrême et ironique des lois nécessaires pour atteindre la perfection représentative.

Depuis Phidias, le sculpteur retors, on savait qu’il vaut mieux représenter des cercles par des ovales plutôt que par des cercles, car les images, « pour être plus parfaites en qualité d’images et représenter mieux un objet, ne doivent pas lui ressembler. »

Le maniérisme voulut soumettre la nature à l’anamorphose, comme on soumet à la question, pour lui arracher de nouveaux aveux. Athanasius Kircher chercha à appliquer le « grand art de la lumière et de l’ombre » et les ressources de sa « lanterne magique » pour « déformer le visage de l’homme de mille manières. »

Kircher, qui était jésuite, voulait déformer pour transformer, il voulait reformer pour mieux réformer. La déformation lui était une sorte de forceps pour aider la forme à s’accoucher d’elle-même.

Cette métaphore vaut aussi pour la vie et les formes vivantes. Sous sa forme la plus élémentaire, la matière vivante est une simple goutte de protoplasme enveloppée d’une membrane lui permettant de se déformer. Cette membrane, molle et souple, se comporte comme un liquide à deux dimensions, qui ne cesse de s’agiter. De fait la membrane cellulaire se recycle totalement en environ cinquante minutes, par la formation ou la disparition de vésicules et divers mécanismes, comme l’invagination de la membrane ou une phagocytose, permettant d’ « avaler » des corps étrangers.

De même, les protéines se déforment sans cesse, et ce sont ces déformations qui les rendent actives biochimiquement. Des petits mouvements locaux extrêmement rapides, de l’ordre de la femtoseconde (10-15 s.) produisent au bout du compte une déformation globale de la protéine.

Les protéines passent du local au global par d’infimes contorsions, indéfiniment répétées un million de milliards de fois par seconde. Elles semblent toujours en quête, toujours à l’affût d’un niveau énergétique approprié. Si les protéines avaient un dieu, ce serait Protée.

La déformation impose une sorte de continuité intrinsèque à la forme qui en est le siège. La forme doit en quelque sorte se souvenir d’elle-même pour seulement se déformer, partiellement, et non pas se métamorphoser complètement.

Cette nécessité d’une mémoire de la forme signale le début d’une sorte de conscience dans l’ordre du vivant. « L’amibe est déformable à volonté, elle est donc vaguement consciente », dit Bergson.

Fusion

La déesse de la fertilité, Io Aréthuse, se baigne nue dans les eaux du fleuve Alphée. Celui-ci tombe aussitôt amoureux d’elle. Se changeant alors en homme, il la poursuit. Io, acculée, prend peur. Une sueur glacée couvre ses membres, des gouttes coulent de tout son corps, une rosée s’écoule de ses cheveux, une mare ruisselle à ses pieds, en un instant Io se voit changée en fontaine. Alphée « reconnaît à cette eau l’objet de son amour », comme dit Ovide. Quittant l’apparence humaine qu’il avait prise, le fleuve Alphée reprend sa forme initiale et se change en ondes pour se mêler à elle.

En quelques lignes, sont ainsi rassemblées les trois figures classiques de la fusion : la fusion liquide (krasis), le mélange des liquides (mixis) et la « véritable fusion » : l’union naturelle (symphysis). Io commence par se liquéfier, puis se mélange aux eaux d’Alphée, pour finir par s’unir à lui.

Ovide rapporte encore l’histoire de Salmacis et d’Hermaphrodite (dont le nom est déjà une fusion des noms du dieu Hermès et de la déesse Aphrodite). Il décrit ainsi leur métamorphose : « Ce ne sont plus deux êtres, et pourtant ils participent d’une double nature. Sans que l’on puisse dire que c’est une femme ni un enfant, l’aspect n’est celui ni de l’un ni de l’autre, en même temps qu’il est celui des deux. »

Dans la fusion, c’est l’aspect extérieur qui change, et non pas le principe interne des êtres fusionnant.

Bergson, penseur de la conscience, utilise le mot de « fusion » pour décrire la pénétration mutuelle des idées. Les faits de conscience ne sont pas juxtaposés, mais fusionnés. Le moi est constitué par des êtres vivants qui se pénètrent les uns les autres, qui se fondent ensemble. Il est difficile de concevoir avec précision cette succession de changements d’états, cette compénétration de formes s’unifiant. Mais c’est une façon de rendre compte de l’immersion du monde, de sa substance, de son altérité, dans la conscience. Les durées, les odeurs, les instincts, les images sont comme les éléments d’une conscience « en sympathie » avec le monde, contre laquelle se liguent éventuellement toutes les forces de durcissement, de pétrification, de vitrification.

Mais la fusion porte potentiellement la confusion en elle. Comment établir la partition entre la fusion réussie et la fusion confuse, ratée ? Comment évaluer la « nature » positive, créatrice, de la fusion ?

Dans un chapitre sur la religion esthétique, Hegel montre l’effort de l’œuvre pour échapper à cette confusion. La figure humaine doit « se libérer » de la figure animale à laquelle elle est « mélangée ». La figure du dieu doit montrer la vie organique « comme fondue à la surface de la forme et limitée à cette surface. » La « fusion de l’idée et de la forme » doit se contenter d’un minimum de formes confondues. Sinon, la confusion des formes confondra aussi les idées.

Cette question est cruciale. Hegel prétendait juger de la valeur d’une œuvre d’art d’après « le degré de fusion, d’union qui existe entre l’idée et la forme ». Le beau serait le résultat de la « fusion » du rationnel et du sensible. Mais comment distinguer la fusion véritable, signifiante, de la bouillie inaboutie, confuse ?

Comment fondre sans confondre ?

Il faut revenir à la nature. Elle enseigne de multiples façons de fusions non confuses qui peuvent être embrassements, conjonctions, conjugaisons, ou même un dualisme de principes antagonistes.

Prenons l’exemple de la tempête, décrite par Ovide : « On croirait que le ciel entier descend dans la mer, tandis que lamer soulevée se hausse jusqu’aux régions célestes (…) les eaux du ciel se mêlent à celle de la mer (…) l’obscurité de la nuit s’épaissit des ténèbres de la tempête jointes à ses propres ténèbres ».

Ce dualisme de la mer et du ciel évoque la précision dialectique de la peinture extrême-orientale de paysage (comme le « san-sui-ga » japonais). Cette peinture ne vise pas à reproduire la nature mais à créer le principe d’une « nature ». Les jeux de l’encre et du pinceau veulent engendrer ceux des eaux et des montagnes. Comme l’eau et la montagne, l’encre et le pinceau se pénètrent pour se féconder mutuellement.

« Il faut que la montagne s’applique à l’eau pour que se révèle l’universel écoulement. Il faut que l’eau s’applique à la montagne pour que se révèle l’universel embrassement. »

Médiation

Les êtres intermédiaires sont en nombre infini. Mais on a déjà signalé qu’on pouvait distinguer deux grandes classes dans cette profusion : les messagers, qui relient, et les hybrides, qui mélangent. Ce sont les deux pôles d’une dialectique du même et de l’autre, de la liaison et de la fusion. L’être intermédiaire peut être un messager parce qu’il a une nature hybride, et qu’il possède des éléments de plusieurs natures. Réciproquement, il a le privilège de ces diverses natures, parce qu’il a su les conjoindre et les relier, de façon pérenne. Chez l’intermédiaire, il y a du même dans l’autre et de l’autre dans le même.

Ce principe, très taoïste, est aussi une conséquence du langage, de ses insuffisances et de la manière dont il s’applique au monde. Les mots doivent rassembler sous la même bannière des réalités distinctes, ils sont par là portés à les rapprocher et à les hybrider en les subsumant sous le même signifiant. Par ailleurs, le langage est notoirement inapte à traduire toute la gamme des glissements entre les formes. Etant lui-même une forme que nous imposons aux choses, il n’est guère propre, en conséquence, à traduire les transformations et les métamorphoses, puisqu’il a choisi de pérenniser les structures et les états. Ceci se vérifie simplement lorsqu’on tente d’appliquer à la nature une classification basée sur le langage. Quels que soient les critères choisis, les exceptions abondent.

Considérons par exemple les trois règnes classiques : le minéral, le végétal, l’animal. A la frontière entre ces règnes, prolifèrent les ambiguïtés. Telle substance gélatineuse, bourgeonnante, capable de mouvements autonomes dans les étangs, a été classée comme plante par Leeuwenhoeck en 1703, mais Abraham Trembley considéra un peu plus tard qu’il s’agissait d’un animal « zoophyte », d’un chaînon intermédiaire entre les végétaux et les animaux.

Il existe des organismes monocellulaires, les protistes phytoflagellés, qui se comportent comme des végétaux en milieu bien éclairé, et comme des animaux dans l’obscurité. Dans le premier cas, ils se nourrissent par photosynthèse ; dans le second cas, ils peuvent digérer des particules organiques. Ces organismes sont donc à la fois animaux et végétaux, ou successivement l’un puis l’autre. Mais cette distinction dépend essentiellement du critère choisi pour octroyer le caractère animal ou végétal. En l’occurrence il s’agit de savoir si leurs cellules possèdent des pigments comme la chlorophylle, auquel cas elles sont considérées comme « végétales », ou bien si elles en sont dépourvues, auquel cas elles seraient dites « animales ». Mais chez certains protistes, sur deux cellules-fille engendrées par mitose, l’une possède un plaste chlorophyllien, et est donc « végétale », et l’autre cellule en est dépourvue, et est donc « animale ».

Clairement, le problème vient des critères caractéristiques choisis, qui tranchent à vif dans une réalité beaucoup plus complexe que n’en saisit le langage.

La difficulté éprouvée à déterminer des frontières précises entre espèces différentes fut l’occasion pour Darwin de proclamer son principe de « continuité » de l’évolution, de gradation insensible entre espèces, sous-espèces et variétés accusées, et entre variétés légèrement divergentes et simples différences individuelles. Il est impossible, dit Darwin, de fixer le point auquel le terme « homme » commence à s’appliquer, si l’on considère la série graduelle des formes simiesques qui mène à l’homme.

On peut en inférer qu’il y a un nombre infini de formes intermédiaires « oubliées » qui relient toutes les espèces entre elles. D’innombrables formes de transition, aujourd’hui disparues, ont été « exterminées » par la sélection naturelle.

Ces multiples intermédiations, ces inimaginables hybridations, le langage semble impuissant à en rendre compte. Réduit à signaler quelques étapes bien nettes entre lesquelles les multiplicités hybrident s’ébattent incognito, le langage laisse échapper à ses filets nombre d’essences indicibles.

Ovide a raconté l’histoire émouvante de Myrrha qui supplia les dieux de la soustraire à la vie et à la mort. Sa métamorphose la chassa en effet du séjour des vivants comme de celui des morts. Echappant à tout repère formel, son châtiment fut littéralement indicible. Ses os furent transformés en bois, et son sang en sève, ses bras en branches et sa peau en écorce. Myrrha était enceinte au moment de sa métamorphose. L’enfant arriva à son terme et chercha l’issue par laquelle il pourrait venir au jour. L’arbre eut alors toute l’apparence d’une femme en travail. Les douleurs de la mère ne peuvent s’exprimer par des mots. L’arbre se fissura et livra passage à l’enfant par une fente de l’écorce.

Les résultats des Métamorphoses hybrident l’ineffable et la monstruosité.  Dans tous les cas, le langage peine à les nommer. Comment décrire sans de longues périphrases des êtres hybrides comme Scylla, femme-tronc aux jambes constituées par des monstres aboyant, assemblés par le dos, ou bien Dryope, « qui n’avait plus que le visage qui ne fût arbre » ? Devenus innommables, les monstrueux hybrides assument toute la charge du péché originel du langage.

Cependant, le langage ne s’avoue pas toujours battu. Il est parfois capable de médiation, d’intermédiation. Hermès, dieu du commerce et de la communication, est aussi l’inventeur mythique de l’écriture hiéroglyphique. L’archétype de l’intermédiaire messager est l’ange.

Issus de la tradition hébraïque, les anges et les archanges, les principautés et les puissances, les vertus et les dominations, les trônes, les chérubins et les séraphins, représentent autant de degrés hiérarchiques, de points de passage entre l’Homme et Dieu.

Platon partage la même intuition : « Tout ce qui est démonique est intermédiaire entre ce qui est mortel et immortel ». Les êtres intermédiaires jouent un rôle essentiel, et permanent. Le démiurge du Timée, créateur de la race humaine, en fait partie, tout comme les âmes dont il anime l’argile qu’il pétrit. Car les âmes sont des intermédiaires en ce qu’elles relient le sensible à l’intelligible. Elles donnent une « forme » à la matière de leurs impressions. Par le biais des représentations, elles réalisent la conjonction de l’être et de la pensée, elles relient le singulier et l’universel.

En revanche, Aristote n’a cessé de vouloir démontrer leur inanité. « La pensée d’Héraclite, disant que tout est et n’est pas, fait que tout est vrai ; celle d’Anaxagore, au contraire, disant qu’il y a un intermédiaire entre les contradictions, fait que tout est faux : quand, en effet, il y a mélange, le produit du mélange n’est ni bon, ni non-bon, de sorte qu’on ne peut rien dire de vrai. »

C’est être un peu sévère sur les mélanges. Il en est beaucoup dont on peut dire quelque chose de vrai. D’ailleurs, notons que c’est le propre du discours du philosophe, selon Platon, que de se situer entre savoir et ignorance.

De façon analogue, la théorie de l’art intermédiaire se propose de promouvoir un art qui serait, comme la philosophie, entre le savoir et l’ignorance, ou comme l’amour, entre le beau et le laid. L’art intermédiaire est entre la recherche et la production, entre l’idée et la forme matérielle, entre l’intention et la réalisation.

Les êtres intermédiaires issus d’un tel art, veulent imiter la liberté des créations du démiurge.

Jouir de cet art-là demande sans doute de partager le regard contemplatif d’un dieu ou d’un philosophe.

Cendres


La langue chinoise possède une expression: 神游 , « le voyage de l’esprit », qui peut s’appliquer à ceux qui savent rester tranquillement chez eux, tout en voyageant par l’esprit aux quatre coins du monde.

有些人可以四海爲家地無拘無束,也有些人可以靜坐家中而神游四海。
« Il y a des personnes qui sont chez elles partout dans le monde, et d’autres qui, tout en restant à la maison, peuvent s’envoler par l’esprit aux quatre coins de l’univers. »

Anne Cheng rapporte à ce sujet dans son Histoire de la pensée chinoise que, selon Zhuangzi, la puissance spirituelle de « l’homme vrai » permet à celui-ci un « voyage de l’esprit », un envol mystique, une extase qui laisse le corps « comme motte de terre » ou « bois mort », et le cœur comme « cendre éteinte ».

Ces expériences ont été faites par toute la terre, depuis des temps anciens, et ont été documentées par nombre d’ethnologues et d’anthropologues, dont Mircea Eliade, qui en fit une étude fouillée. Le « voyage de l’esprit » a un rapport certain avec la transe.
Le chamanisme a pratiqué la transe pendant des millénaires. Les chamans sibériens sont capables, à volonté, d’expériences extatiques. De même, les sacrifices brâhmaniques de l’Inde ancienne permettaient l’ascension du muni, son « envol dans les airs ». L’Atharva Veda (X1, 5, 6) décrit le disciple emporté par la force magique de l’ascèse (tapas) : « En un clin d’œil, il va de la mer orientale à la mer septentrionale ». Le bouddhisme et le yoga tantrique connaissent de similaires extases.

A ce point, par un simple coup d’aile, je voudrais derechef m’envoler vers un autre horizon.
Dans un poème célèbre de Paul Celan, Todesfuge, « Fugue de mort », on trouve ce vers:
Dein aschenes Haar Sulamith wir schaufeln ein Grab in den Lüften da liegt man nicht eng

« Tes cheveux cendre Sulamith nous creusons dans le ciel une tombe où l’on n’est pas serré »

Le mot « cendre » se retrouve souvent chez lui. Dans son poème Chymique, par exemple :

Alle die Namen, alle die mit-
Verbrannten
Namen. Soviel
Zu segnende Asche
.

« Tous ces noms, tous ces
noms avec
elle brûlés. Tant
de cendre à bénir. »

Ou encore :

Ich bin allein, ich stell die Aschenblume
Ins Glas voll reifer Schwärze.

« Je suis seul. Je mets la fleur de cendre
Dans le verre rempli de noirceur murie. »

Les scènes que Celan évoque sont dans les mémoires.
Mais le voyage de l’esprit n’est pas toujours un voyage de mort.
Les cendres laissent aussi monter la vie dans les nuages;
et elles laissent descendre la vie dans la terre.
Ces cendres ne sont pas grises, éteintes. Seuls les cœurs le sont.

Il y a d’ailleurs plusieurs sortes de cendres, nous enseigne le dictionnaire.
Il y a les cendres אֵפֶר
comme dans Gen. 8.27 : « Je ne suis que poussière et que cendre. » Ce sont les cendres pulvérisées par le temps ou les puissances.
Il y a les cendres דֶשֶׁן
comme dans Jer. 31.40 : « La vallée des cadavres et de la cendre ».
Ce sont les cendres qui résultent du feu et de l’incendie.
Et il y a les cendres פִּיחַ
Ce mot vient de la racine-verbe פּוּחַ , « souffler, dire ».
Ce mot rappelle que les cendres, fort friables, sont faciles à « souffler ». On peut aisément les disperser. Mais il est également possible d’y insuffler le « souffle » de l’esprit.

Le bien commun mondial et les sociétés de la connaissance


Distinction entre le « bien commun » et les « domaines publics »

Les « domaines publics » relatifs à l’évolution des TIC et des sociétés de la connaissance.

Les TIC: des moyens pour quelles fins ?

La « position éminente » (« The command of the commons »)

La seconde « clôture » (“Enclosure”)

Une « grande transformation » des valeurs?

Qu’est-ce que le bien commun mondial ?

Res nullius et res communis

Les « intérêts primordiaux de la collectivité mondiale».

Le bien commun et le rôle de l’Etat.

Bien commun et modernité.

Une nouvelle Renaissance

La Noosphère

Au 15ème siècle, la boussole, l’astrolabe et le gouvernail d’étambot ont permis la découverte du Nouveau Monde. Considéré comme terra nullius, il attira les convoitises, et il fallut, moins de deux ans après, établir le traité international de Tordesillas (7 juin 1494) pour assurer son partage entre les deux puissances coloniales d’alors, l’Espagne et le Portugal. Ce traité traça une « ligne globale », incarnée par le méridien nord-sud passant 370 lieues (1770 km) à l’ouest des îles du Cap-Vert. A l’ouest de cette « ligne globale », les terres revenaient à l’Espagne, à l’est, au Portugal. Voilà pourquoi le Brésil est lusophone, et le reste de l’Amérique latine parle espagnol.

Après le tour du monde de Magellan, il fallut à nouveau s’entendre pour prolonger le méridien de l’autre côté de la Terre, afin, cette fois-ci, de se partager l’hémisphère oriental… L’un des enjeux était l’archipel des Moluques et ses épices. Le traité de Saragosse, signé le 22 avril 1529, établit la prolongation de ce méridien « global » à 300 lieues à l’ouest des Moluques, au profit du Portugal.

Ce petit rappel historique pourrait être généralisé ainsi: l’état des technologies définit de nouveaux « espaces » et dessine une nouvelle « géographie », ce qui induit des effets politiques globaux, et une forme de « mondialisation », caractéristique d’une période donnée.

Le partage du monde par des lignes globales s’appliquant sur des terres « nouvelles », réputées n’appartenir à « personne », est une métaphore éclairante de ce qui se passe sous nos yeux, dans un contexte évidemment différent, mais qui ne manque pas d’analogies avec le début des Temps modernes. Cette métaphore nous invite à examiner la relation entre des progrès technologiques spécifiques (comme les TIC, Internet et, demain, la convergence BANG), la découverte d’une nouvelle terra nullius (le cyberespace, et demain le nano-monde ou le nanocosme, ces territoires « d’en bas », où il y a beaucoup de place à prendre) et les constructions politiques qui vont s’en déduire.

Bien évidemment, le facteur technologique n’est pas suffisant à lui seul pour expliquer de tels bouleversements. Il faudrait certainement s’intéresser aussi aux logiques économiques en œuvre et au climat politique et social. On peut à cet égard évoquer la « convergence » des technologies, mais on pourrait aussi souligner la « divergence » d’un capitalisme qualifié de « schizophrénique »[1], confronté à une crise structurelle. On pourrait aussi évoquer, sur un plan plus idéologique, le lien probable entre le développement de sociétés dominées par des processus de plus en plus « abstraits » (de gestion, de structuration, de modélisation, d’interprétation), et l’apparition récente de l’idée (de l’idéologie ?) des « sociétés de l’information et de la connaissance ». Cette idée, en forme d’utopie, a été médiatisée par deux Sommets « mondiaux » (les SMSI de Genève et Tunis, en 2003 et 2005). Elle semble porteuse d’un projet sociétal global, pour une économie postindustrielle. Mais la « société de la connaissance » est-elle un véritable concept sociétal et politique, ou n’est-elle qu’un slogan, recouvrant une idéologie fonctionnelle, au service d’ambitions non pas « cognitives » mais bien économiques, politiques, stratégiques ?

L’Union européenne, encore récemment dotée d’un Commissaire européen à la société de l’information, vient de le remplacer par un Commissaire européen à « l’agenda numérique » (Neelie Kroes). S’agit-il de montrer que les temps ne sont plus à l’utopie ? …

Pourtant, loin de piétiner, l’évolution des techniques continue à marche forcée et la nouvelle « convergence », dite BANG (Bits-atomes-neurones-gènes), entre les info-technologies, les nanotechnologies, les biotechnologies et les technologies cognitives, commence à s’observer, et vient en quelque sorte prolonger et transcender la convergence numérique (téléphone, télévision, informatique) démarrée dans les années 70. Alors que cette dernière avait culminé avec l’apparition du « cyberespace », célébré comme une nouvelle Amérique virtuelle à coloniser, la convergence BANG inaugure une révolution sociétale et cognitive bien plus large, qui ouvre des défis bien plus radicaux et bien plus profonds. Qu’il suffise d’évoquer les nano-armes, la réingénierie génétique du corps humain et la nano-médecine (la conception d’un Homo sapiens v.2.0), ou la géo-ingénierie planétaire, pour se faire quelque idée de ce qui nous attend.

Ces défis technologiques impliquent naturellement une réflexion sur leurs usages et leurs conséquences, sur l’économie politique des sociétés qui les mobiliseront à l’échelle mondiale, mais aussi une réflexion éthique sur leur devenir, à partir d’une meilleure compréhension de la nature du « bien commun mondial ».

La définition du « bien commun », et a fortiori d’un « bien commun » mondial, est depuis longtemps un difficile problème philosophique et politique. Ce problème, déjà délicat à l’intérieur d’une même sphère culturelle ou d’une même civilisation, se complique encore quand on le pose dans le contexte de la mondialisation.

Des représentations du monde fort diverses entrent alors en compétition pour imposer leurs points de vue hétérogènes. Les tenants des « valeurs asiatiques » par exemple nient l’idée de valeurs universelles, jugées comme n’étant que l’expression de valeurs dites « occidentales ».

Notons qu’en Occident aussi, les plus radicaux des conservateurs nient également l’existence même du « bien commun », qui ne serait qu’une « chimère », ou une abstraction sans signification. Cette position radicale s’inscrit depuis le Moyen Age européen dans la longue tradition des philosophies nominalistes.

Ce nominalisme a ensuite trouvé une traduction politique avec Thomas Hobbes, et avec une longue théorie de penseurs conservateurs, de J. Bentham[2] et E. Burke à F. Hayek[3] et aujourd’hui les théoriciens « néoconservateurs ».

Distinction entre le « bien commun » et les « domaines publics »

Si le bien commun est particulièrement difficile à définir, la notion de « domaine public » est plus facile à saisir, car elle est plus concrète. Il faut nettement distinguer le « bien commun » (qui est un concept abstrait) et le « domaine public », qui possède indéniablement une certaine réalité, tangible, ou intangible, reconnue par un ordre politique et définie par des règles juridiques. Le domaine public peut être « exploité », pour appuyer des politiques publiques (ou pour servir des intérêts privés). Il peut aussi contribuer au « bien commun » — pour autant que l’on puisse définir ce dernier et qu’on puisse le traduire en politiques publiques.

Les exemples de « domaines publics » mondiaux sont nombreux: citons pêle-mêle, de façon volontairement éclectique,  la haute mer et les grands fonds marins, la couche d’ozone, les orbites géostationnaires, les objets célestes[4], les fréquences hertziennes, le génome humain, le patrimoine génétique.

Plus immatériels, mais bien réels, il y a aussi les standards et protocoles d’échanges du domaine public (IPv4 ou IPv6 d’Internet par exemple), les logiciels libres (licence GPL), ou plus généralement encore les principes du droit international, les idées, ou les faits bruts, qui sont considérés comme appartenant au domaine public.

Tous ces « domaines publics » ont évidemment un lien, par leur bonne ou moins bonne gestion, avec le « bien commun » mondial[5]. Prenons quelques exemples : la diversité génétique, la mer, l’espace. Environ 85% des forêts mondiales relèvent du « domaine public ». Et elles contribuent pour plus de 50% à la réduction du CO². Elles sont à la fois « domaine public » et contribuent au « bien commun » mondial ».

La diversité biologique ou culturelle peut être appelée un bien commun à l’humanité entière. Or on estime que le changement climatique pourrait se traduire d’ici la fin du siècle par une perte de 50% du patrimoine génétique mondial (faune et flore).

Quant aux fonds marins, appelés “la Zone” par la convention sur le droit de la mer du 10 décembre 1982, ils ont été proclamés “patrimoine commun de l’humanité”. La convention prévoit l’exploitation de leurs richesses sous le contrôle d’une organisation internationale, l’Autorité internationale des fonds marins, qui reste à mettre en place. En attendant, “la Zone” a un statut hybride et controversé.

Selon la Sea Education Association (SEA), de grandes poubelles de déchets plastiques non biodégradables existent dans les océans, comme la « Great Eastern Pacific Garbage Patch » découverte en 1997, d’une taille variant entre un et quinze millions de km², et qui comporte 300.000 fragments de plastiques (polyéthylène, polypropylène, mousse polystyrène) de moins de un centimètre et moins de 15 grammes par km². On trouve des poubelles comparables dans l’Atlantique au nord et au sud, dans le Pacifique sud et dans l’océan Indien. Accumulés dans des « gyres », ces déchets ont des effets néfastes sur plus de 260 espèces (mammifères, tortues, oiseaux). De plus ils accumulent les polluants organiques persistants, qui ingérés par la faune marine, peuvent être véhiculés jusqu’à l’homme.

En revanche, contrairement aux grands fonds marins, l’espace extra-atmosphérique, à l’exception de la Lune et des corps célestes, n’a pas été déclaré “patrimoine commun de l’humanité”. Comme la haute mer, il est soumis au principe de non-appropriation et de liberté d’utilisation.

Résultat – comme pour les océans – un grave problème de débris orbitaux se prépare. On estime à 350.000 le nombre de débris supérieurs à 1 cm en orbite basse, et à 750.000 au total. En 2009 un satellite actif Iridium est entré en collision avec un satellite russe Cosmos 2251 hors d’usage et incontrôlable. Une dizaine de faits semblables ont été enregistrés depuis une vingtaine d’années. Mais chaque collision produit des milliers d’autres débris, ce qui provoque une réaction en chaine exponentielle (quoiqu’encore lente, à ses débuts). A terme, dans 50 ans, on estime que ce sont l’ensemble des orbites satellitaires qui risquent de devenir inutilisables. La Terre sera encerclée par un champ de débris…

A fortiori, une guerre en orbite rendrait l’espace inutilisable pour des centaines d’années. Quelle solution ? On pourrait commencer par déclarer l’espace comme « environnement commun », pour le gérer de façon multilatérale.

Il y a sur ce sujet une forte opposition des Etats-Unis, alors que le Canada, la Russie, la Chine désirent faire avancer les négociations pour un désarmement de l’espace[6]. Qui peut dire où est le bien commun en ces matières ? Pour sa part, Noam Chomski  déclare: « Si nous militarisons l’espace, nous pouvons dire adieu à la planète. »

Même si l’on se limite à la « bonne » gestion de ces « domaines publics », ce qui serait une sorte d’interprétation a minima du « bien commun », il faut bien voir que les nombreuses sortes de « domaines publics » à l’échelle mondiale, qu’ils soient matériels ou immatériels, ou mixtes, impliquent des politiques qu’il faut différencier en prenant en compte les multiples « intérêts », généraux ou privés, fort divers, eux aussi. Comment définir la balance de ces intérêts, pour les mettre en équilibre, comment les articuler avec l’ensemble des autres politiques publiques, et cela, non seulement à des échelles nationales ou régionales, mais à des échelles qui se veulent in fine « mondiales » ?

Par exemple, on peut affirmer sans trop de crainte que le développement économique contribue au « bien commun » de l’humanité tout entière. Mais on sait aussi que le développement peut impliquer des usages incontrôlés et des abus des « domaines publics » mondiaux. Les externalités négatives du développement économique (par exemple : pollution à long terme, changement climatique, épuisement des ressources naturelles) sont des « maux communs », qui menacent la durabilité du développement à moyen ou long terme, et même mettent en danger la survie de la planète et des générations futures.

Face à des échelles de temps et d’appréciation fort diverses, par quel critère de jugement arrivera-t-on à mettre en balance les aspects contradictoires d’une politique de développement, a fortiori à l’échelle mondiale, où les intérêts les plus contradictoires se heurtent frontalement?

Quel concept de référence, acceptable par tous, ou tout au moins par une majorité significative (une majorité « qualifiée ») des humains vivant aujourd’hui sur cette planète, et prenant en compte leurs intérêts du moment mais aussi ceux des générations suivantes, pourra servir à arbitrer entre les divers aspects positifs et négatifs d’une politique mondiale donnée, dans le domaine de l’énergie, de l’environnement, du climat, des réseaux numériques, des biotechnologies ou des nanotechnologies ?

Avant de revenir sur ce point crucial, je voudrais maintenant entrer dans le détail des « domaines publics » liés aux sociétés de l’information et de la connaissance.

Les « domaines publics » relatifs aux TIC et aux sociétés de la connaissance.

Dans les sociétés de l’information et de la connaissance, et dans le contexte de l’évolution des TIC et de leurs usages, on observe une très grande variété de types de « domaine public », et aussi des façons très différentes de poser la question de l’intérêt général et du « bien commun » (aux différentes échelles locales, nationales, mondiales), et d’y répondre politiquement.

Il y a le domaine public des ressources naturelles, comme les fréquences hertziennes, les  orbites géostationnaires, la « Zone » (les fonds marins sont en effet propices à la pose de câbles de communication et autres fibres optiques), déjà évoquées, ainsi que les protocoles IP, les normes et standards ouverts, les logiciels libres (licence GPL), les informations publiques ou gouvernementales[7], les informations ou connaissances « tombées dans le domaine public ».

De façon, plus abstraite, il y a le domaine public des lois et autres codes (« code is law » selon L. Lessig), régissant par exemple la façon dont on peut accéder à l’information publique, et de manière générale, l’environnement légal. Son déficit se traduit par la « fracture numérique » (« Digital gap ») et par des inégalités d’accès (réseaux, matériels, logiciels, réduction de la diversité linguistique, culturelle).

Chacun de ces types de « domaine public » exige un niveau différent d’analyse, et pose d’une manière différente la question de l’intérêt général et du bien commun.

Par exemple, faut-il ou non préserver la « neutralité du web » ? La réponse diffère évidemment suivant les intérêts des transporteurs, des éditeurs de contenus ou des gestionnaires de l’information. Pour certains, l’Internet du futur ne pourra pas transporter de manière indifférenciée n’importe quel bit, que ce soit de la téléchirurgie, des jeux, de la messagerie ou de la téléphonie. Pour les autres, il faut garder un modèle complètement ouvert et transparent, et ne pas permettre aux fournisseurs d’accès de dégrader intentionnellement la qualité de leur service d’accès à internet pour amener leurs clients à aller vers leurs propres plateformes de contenus. Qui doit être responsable de la «gouvernance » d’Internet et de la « régulation » des réseaux, et en vue de défendre quelles « valeurs » ? Qui doit « réguler » les nouveaux oligopoles ou monopoles induits par les techniques, les réseaux, ou l’effet de l’économie de l’attention (de Microsoft à Google[8]) ? Peuvent-ils d’ailleurs se réguler tous seuls ?

Au mois de mars 2010, Apple a décidé d’attaquer en justice HTC, le fabricant taïwanais de téléphones mobiles que Google a choisi pour mettre en œuvre son système d’exploitation Android. Il paraîtrait qu’Android viole des brevets d’Apple. Dans un article du 12 mars, le New York Times commente ainsi l’évènement. « M. Jobs pense que Google a trahi l’alliance qui existait entre les deux firmes en produisant des téléphones mobiles qui ressemblent physiquement, technologiquement et spirituellement à l’iPhone ».

Spirituellement ! L’esprit est donc de nos jours brevetable. Un investisseur bien connu de la Silicon Valley commente l’affaire ainsi : « C’est la 3ème guerre mondiale. C’est la plus grande bataille d’égos de l’histoire ».

Il n’y a pas si longtemps, Apple et Google avait formé une sainte alliance contre Microsoft, dans le but de mettre fin à son hégémonie dans le domaine des PC et empêcher de pénétrer le secteur des services en ligne et des appareils mobiles. Apparemment cela a assez bien marché.

Mais il y avait une autre bataille en jeu, plus fondamentale encore, peut-être. Cette bataille jusqu’alors restée sous-jacente, implique désormais un renversement nécessaire d’alliance, et illustre la séparation radicale des intérêts d’Apple et de Google. Apple, en effet, privilégie des applications « propriétaires » pour ses téléphones et autres tablettes. Il s’agit d’obliger le consommateur à passer par App Store. Au contraire, Google défend une approche non-propriétaire, c’est-à-dire ouverte et libre, pour sa plate-forme Android. Car Google, qui offre de nombreuses applications en libre accès, redoute par-dessus tout que ses rivaux (Micosoft, Apple ou l’opérateur Verizon) bloquent l’accès à ces applications « libres », pour les remplacer par des succédanées du genre Bing ou Safari…. Pour Google, Android est donc une affaire de vie ou de mort : c’est par le biais de ce système d’exploitation libre et ouvert, qu’il compte empêcher la fermeture imminente de l’accès aux consommateurs mobiles par les plateformes « propriétaires ».

Dans cette affaire, qui peut dire ce qui est vraiment dans l’intérêt du « public » ? Autrement dit, où est l’ « intérêt général » dans ce choc de paradigmes ?

Mitch Kapor, le fondateur de Lotus Development, pense que toute cette histoire lui rappelle la vieille bataille entre Apple et Microsoft. D’un côté une volonté de contrôler tous les aspects de l’expérience utilisateur, de l’autre une approche plus « ouverte » permettant des myriades d’applications sur un grand nombre de machines. Son cœur balance apparemment pour le modèle ouvert: “Tight control helps in the beginning, but it tends to choke things in the long term.” Un contrôle étroit peut sembler bénéfique au début, mais à long terme, cela étouffe les choses.

Qu’on me permette cependant de nuancer cette forte parole (qui peut s’appliquer à beaucoup de domaines sociétaux). Je ne pense pas du tout que ce soit seulement une question de contrôle. Après tout, les cyber-géants que nous venons de citer sont tous capables d’une très forte dose de « contrôle » quand cela leur chaut. Google défend certes un modèle ouvert pour Android, mais essayez un peu d’entrer dans ses algorithmes de recherche et de classement de mots-clé, et vous verrez qu’ils sont assez fermés en la matière.

D’ailleurs même dans un modèle « libre et ouvert », il faut du contrôle. La licence GPL est précisément là pour empêcher que n’importe qui s’approprie n’importe quoi. Elle permet à « l’intérêt général » de contrôler le respect du modèle « libre et ouvert ». La question n’est donc pas celle du contrôle, mais de savoir qui exerce le contrôle, et à quelles fins ? Pour l’intérêt « privateur », ou l’intérêt commun ?

L’existence même de « géants » dans le domaine des réseaux ou du logiciel, fait apparaître la question très générale et structurelle des « rendements croissants »[9]. Comment préserver la concurrence et l’innovation dans un contexte de monopole de facto, ou même de jure, si l’on tient compte de l’effet du durcissement de la propriété intellectuelle ? Quelles possibilités de généraliser des lois anti-trust régionales (comme celles de l’UE) à l’échelle mondiale ?

 

Il y a bien d’autres questions, mêlant évolution technique, domaine public et bien commun.

Est-ce que la protection de la « vie privée » est un « bien commun » ? Ou bien est-ce que les données personnelles ont vocation à devenir une sorte de domaine public, réservé à la surveillance de l’Etat (pour des raisons de « sécurité ») ou bien à l’exploitation des entreprises (« data-mining »).

Quid de l’espionnage électronique, de la surveillance des réseaux (Trap-doors, « deep packet inspection »), de la censure en ligne, de la liberté d’expression, de la protection de la vie privée et des données personnelles, des politiques officielles de désinformation, de manipulation des données ?

Est-ce que l’accès équitable, universel, aux contenus est un « bien commun » ?

Que penser du renforcement continu de la protection de la propriété intellectuelle (extension en durée, en étendue, en types d’appropriation— données brutes, bases de données, méthodes, algorithmes,…)

Quel est le rôle du « domaine public informationnel » (information gouvernementale et « droit d’accès » à l’information garanti à tous) ?

Le savoir est-il un « bien public mondial », dans le cadre des « sociétés de la connaissance », ou bien est-il le nouvel « or noir » du 21ème siècle, susceptible d’une privatisation massive ?

Suivant la manière dont on conçoit la notion même d’intérêt général, et suivant la manière dont sont conduits les processus de négociation (ou de lobbying) des parties intéressées, des politiques publiques sont alors adoptées, tant pour la résolution des défis de gouvernance, que de gestion du « domaine public ».

Le droit de la propriété intellectuelle (brevets, droit de la propriété littéraire et artistique), le droit d’accès aux documents publics, la régulation anti-trust et les législations pour lutter contre les pratiques anticoncurrentielles, la protection de la vie privée, la régulation de l’utilisation des données personnelles, la gouvernance nationale et mondiale d’Internet, la préservation de la diversité culturelle et linguistique dans l’info-sphère, font partie des sujets de ces politiques publiques.

En s’élevant d’un degré, se pose la question de l’évolution des sociétés vers une « marchandisation » accrue des savoirs ou de l’éducation, ou a contrario vers leur reconnaissance comme un élément essentiel du « bien commun ».

Les TIC: des moyens pour quelles fins ?

Dans les années 70 les TIC n’étaient encore de simples techniques au service des « média ». Dans les années 80 et 90, les idées d’ « économie de l’information » et de « société de l’information » furent de plus en plus reconnues, et des métaphores comme celle des « autoroutes de l’information » commencèrent à apparaître trop techniques et trop étroites. On commença à introduire des paradigmes plus larges comme celui de « société de la connaissance ».

Le mot « connaissance » ne va pas sans certaines ambiguïtés. Etymologiquement le mot anglais « knowledge » fait référence au pouvoir et à l’utilité. En français, « savoir » a la même racine que sagesse ou sapience. En russe, “знание” vient de la racine indo-européenne <gen>, donner naissance à, engendrer. On a ainsi trois différents paradigmes pour la connaissance : le pouvoir, la sagesse, la création.

Il est important de garder cela à l’esprit, pour comprendre les diverses manières dont la « connaissance » peut être adaptée à tel ou tel ordre social, à telle ou telle idéologie. La connaissance vue comme « pouvoir » a un impact sur les questions de liberté d’expression ou de contrôle des personnes. La connaissance interprétée comme « sagesse » joue son rôle dans la recherche de la justice sociale ou de la consolidation du tissu social. La connaissance, en tant que « création » est au cœur de l’invention, de la cognition, de la recherche.

Le concept de connaissance est donc assez ambigu, en tout cas à géométrie variable. Par contraste, les TIC ne sont a priori que de simples « moyens ». Mais, en tant que « moyens », en quoi les TIC peuvent-elles aider à réparer le système financier international ? Mettre une fin aux paradis fiscaux ? Lutter contre le changement climatique ? Prévenir de nouvelles guerres? Garantir des élections libres? Réduire la pauvreté? Nul doute que les TIC peuvent jouer un certain rôle, mais ce rôle est-il seulement instrumental, ou peut-il être décisif ?

Ne voyons-nous pas plutôt que la « décision » en toutes ces matières est avant tout de nature politique ou cognitive ?

Il est vrai que le rôle des TIC dans nos sociétés n’est pas seulement instrumental. Il est aussi mental. Les TIC façonnent une certaine vision du monde. Marshall McLuhan disait que la typographie, à partir de l’invention de Gutenberg, avait « hypnotisé » l’esprit des modernes, et que l’écriture alphabétique avait amorcé un processus de schizophrénisation chez les Grecs[10]. Il parlait de la « puissance détribalisante de l’écriture phonétique ».

Je le paraphraserai en parlant de la puissance schizoïde des réalités virtuelles ou augmentées, mais aussi de la puissance retribalisante de la « réalité-fusion », et de la convergence BANG généralisée.

Les mondes virtuels représentent une réalité propre, où la simulation et les communautés virtuelles tendent à créer un “deuxième monde”, qui ne visent pas à remplacer le “premier monde”, celui de la réalité réelle, mais plutôt à l’ « augmenter ». Les étiquettes géo-spatialisées (GPS, RFID, Internet of things), le calcul ubiquitaire, l’enregistrement de données personnelles tout au long de la vie (Lifelogging), les scanneurs rétiniens, la nano- ou la télé-présence avec retour de force haptique, les « spimes » (space + time) ou les “blogjects” (blogging objects) en sont des facettes.

On peut avancer que l’accumulation, la densification et la systématisation de tels outils contribuent à l’émergence d’une réalité-fusion, qui se caractérise par un effacement des frontières entre la réalité et la virtualité, produisant une culture de l’ « everyware », c’est-à-dire une culture où partout et à tout moment, des systèmes ou des procédés viendront « augmenter » notre expérience de la réalité réelle.

Dans ce contexte, il faudra surveiller de près la convergence annoncée des Bits, des Atomes, des Neurones et des Gènes (BANG). Quand l’industrie des semi-conducteurs aura atteint la barrière des 20 nm et sera véritablement bâtie autour des nanotechnologies, un point de non-retour sera atteint.

La prolifération de nano-produits, le développement d’une biologie synthétique, la manipulation à grande échelle des écosystèmes et du climat, la fertilisation des océans par la géo-ingénierie, l’ingénierie génétique extrême modifiant la structure même du corps humain, feront aussi partie du tableau d’ensemble.

On pourra alors peut-être prendre au sérieux la prédiction de futurologues comme Ray Kurzweil, qui affirme que nous allons vers une « singularité », quand notre intelligence transcendera ses « limitations biologiques », et pourra s’incarner sur d’autres supports, permettant de devenir des « trillions » de fois plus puissantes.

Admettons que ces prédictions se réalisent. La question de base restera cependant la même. Ces nouveaux nano-outils ou cette réingénierie générale se mettront au service de quelle finalité ?

Autrement dit, les nouveautés technologiques ne nous permettront pas, par elles-mêmes, ni de juger si des idées comme celles de “bien commun mondial” sont des fictions et des chimères philosophiques, ou si elles sont susceptibles d’un consensus mondial. Elles ne contribueront pas nécessairement et spontanément, non plus, à ce bien mondial.

La « position éminente »  (« The command of the commons »)

Il ressort de ce qui précède que si les technologies ne sont jamais qu’un moyen, la question principale reste de définir les fins qu’elles peuvent servir. Mais, loin d’être aisée, la définition de ces fins implique nécessairement une réflexion plus large, et même toute une « vision du monde ».

Loin d’être nécessairement et universellement admise, une « vision du monde » particulière est elle-même porteuse d’une certaine interprétation du « bien commun ». Dans la plupart des cas associés au monde réel, elle rend surtout compte d’un état des rapports de force, ou plus précisément des capacités effectives d’appliquer les politiques décidées pour atteindre telle ou telle fin.

Pour illustrer cela, je voudrais me focaliser brièvement sur le rapport entre le domaine public et la chose militaire.

On a vu que l’état des technologies à une époque donnée définit de nouveaux « espaces » et une nouvelle « géographie », induisant des opportunités globales, de nouvelles formes de « mondialisation », pouvant être par exemple colonialiste, mercantile ou impériale et conquérante.

Pour comprendre la nature de la mondialisation à une époque donnée, il peut donc être très utile de se référer aux stratégies militaires d’occupation de l’espace global, qui sont elles aussi fort caractéristiques. En particulier, il vaut la peine de se pencher sur la question stratégique des « positions éminentes » pour le contrôle des domaines publics mondiaux.

 

Ainsi, dans le cadre d’une stratégie contemporaine, que l’on a qualifiée de « pax americana », l’armée américaine a identifié divers domaines publics à l’échelle globale (« global commons ») : la mer, l’air, l’espace et le cyberespace (sea, air, space, cyberspace).

Elle a défini une doctrine stratégique à leur égard, qui a été résumée de cette manière: « La domination militaire des domaines publics mondiaux est un facteur clé de la position de puissance globale des Etats-Unis » (“The “command of the commons” is the key military enabler of the US global power position”)[11].

Cette « domination militaire » peut prendre plusieurs formes. Il est affirmé qu’elle peut aller jusqu’à dénier l’accès ou l’usage des domaines publics globaux aux ennemis ou aux entités jugées hostiles ou menaçantes.

Mais le contrôle des « communs » n’est pas une fin en soi. Quelle est donc cette fin ? On la trouve ainsi formulée, de manière plus  “politique”, et traduisant nettement le lien structurel entre les « domaines publics » et le « bien commun » mondial : « La stabilité des domaines  publics mondiaux est en soi un bien commun » (“Stability within the global commons is a public good”).

Tout le monde a en effet un intérêt évident à une « stabilité » des domaines publics. La plupart des pays ont certes un grand intérêt à cette stabilité. Il est vrai aussi que d’autres pays ne tirent que peu d’avantages directs de leur accès éventuel aux domaines publics mondiaux. Il est aussi vrai que quelques puissances dominantes en tirent des avantages tactiques et stratégiques fort conséquents, et estiment de plus qu’il leur revient le rôle d’assurer la protection ou la garantie de cette stabilité. La question plus générale de savoir si cette stabilité est mieux garantie sous leur égide, plutôt que, par exemple, par un autre mécanisme, onusien ou multilatéral, reste ouverte.

Mais ce qui m’intéresse ici c’est le concept stratégique de « position éminente », en tant qu’il permet le contrôle des communs, et le maintien de leur « stabilité ». Il s’agit de voir si ce concept serait opératoire dans le domaine des sociétés de la connaissance.

De tout temps, en matière de stratégie militaire, le contrôle des « positions éminentes » a joué un rôle essentiel. La maitrise des points hauts, ou de l’espace aérien en sont des exemples. De nos jours, il s’agit de s’assurer le contrôle de la « position éminente » suprême : l’espace.

Il y a environ 1000 satellites actifs actuellement en orbite. La moitié d’entre eux appartiennent aux Etats-Unis, et ceux-ci sont approximativement pour 50% d’usage civil et pour 50% d’usage militaire.

Le 21 janvier 1967 un Traité international a banni la nucléarisation de l’espace – mais pas l’usage d’armes conventionnelles dans l’espace. C’est cette réalité que la polémique internationale autour du système de défense anti-missile révèle. Certains analystes avancent qu’il s’agirait en réalité de prendre prétexte d’une défense contre les missiles pour permettre une arsenalisation croissante de l’espace. Pour ces experts, il s’agirait moins d’utiliser cet arsenal contre d’éventuels missiles, que de construire les capacités militaires pour la destruction de la totalité des satellites des pays « hostiles » (éventuellement par des frappes préemptives). Cette doctrine de la « maitrise de l’espace » passe aussi par le développement de capacités de bombardement orbital (« Prompt Global Strike »).

Mais cette notion de « position éminente » peut varier suivant les milieux où l’on opère. La volonté de « dominance » (« command ») qui se traduit d’une certaine manière dans l’espace, comment se traduit-elle dans le cyberespace ?

Quelles sont les « positions éminentes » dans le cyberespace, et plus généralement, dans la société de la connaissance?

On peut avancer par exemple les nœuds de concentration mondiale du trafic Internet, soit les treize « serveurs racine » du DNS (qui peuvent être dotés de systèmes comparables au fameux « Carnivore »). On se rappelle la fameuse « Room 641A » avec le système NarusInsight.

Mais il s’agit aussi du contrôle de l’architecture matérielle des réseaux et des grandes « autoroutes de l’information » (cf le système Echelon de la NSA pour les satellites et d’autres systèmes d’espionnage pour les fibres optiques et les câbles sous-marins). L’architecture logicielle générale, les routeurs (avec les trap-doors), la prééminence dans le domaine des virus et des chevaux de Troie électroniques, font à l’évidence partie des « positions éminentes » dont il s’agit de s’assurer le contrôle[12].

Naturellement, si j’ose dire, ces « domaines publics » peuvent être contestés par d’autres puissances (« contested commons »[13]). L’espace en fait partie (on peut interpréter le tir de missile chinois sur l’un de ses propres satellites comme un message adressé au monde pour prendre position sur la question de l’arsenalisation de l’espace). On peut aussi interpréter ainsi les récentes attaques de cyber guerre (cf l’affaire Google).

Un autre exemple de « commons », à la fois contesté (pacifiquement) et enchevêtré (couplant des questions de stratégie militaire globale, et de contrôle des systèmes clé pour les sociétés d’information) est le système de géo-positionnement par satellite GPS, qui se voit désormais concurrencé par le système européen Galileo.

On pourrait utilement chercher d’autres aspects stratégiques du concept de « position éminente » dans le cadre des sociétés de l’information. On pourrait interpréter le renforcement continu de la propriété intellectuelle depuis plusieurs décennies comme la création d’une nouvelle possibilité de « position éminente » (permettant de biaiser la « libre concurrence », affichée en principe, par des barrages de brevets, ou des « frappes juridiques » préemptives). Le non-débat public sur l’Accord Commercial Anti-Contrefaçon (ACTA) est un exemple de cette stratégie, comme la captation privative des capitaux cognitifs et sociaux (Google, Facebook), attentionnels (Twitter), humains (marchandisation des données personnelles), et même intentionnels (data-mining prédictif).

La question devient alors : quel est le rôle « global » à long terme de l’appropriation stratégique ou privative du domaine public des informations et des connaissances, par rapport à l’intérêt général mondial ?

La seconde « clôture » (“enclosure”)

Il n’est vraiment pas simple de répondre à cette question. Les diverses sortes de « domaines publics » génèrent diverses stratégies d’appropriation, qui contribuent de manière fort différentes à des conceptions du « bien commun » qui peuvent être elles-mêmes fort différentes.

On peut nourrir sa réflexion de la considération d’antécédents historiques, comme la conquête des « terres (prétendument) vierges » (terra nullius), le pillage des communs (terra communis), la privatisation des terres communales. On peut évoquer le mouvement des « enclosures » en Grande-Bretagne aux 16ème et 17ème siècle, prolongé ensuite au 19ème siècle pendant la révolution industrielle, pour soutenir un changement de modèle économique et sociétal. Les propriétaires trouvaient plus rentable de consacrer les terres arables aux pâturages afin d’augmenter la production de laine[14]. D’immenses souffrances sociales en furent la conséquence. Mais pour certains commentateurs, ce prix très lourd a finalement été à l’origine, selon eux, d’une « grande transformation » sociale, globalement positive[15].

Qu’en est-il dans le contexte des sociétés de l’information ? Observe-t-on des phénomènes analogues ?

Peut-on observer un mouvement de « clôture » des communaux dans le domaine de l’information et des connaissances ? Et si nouvelle « clôture » il y a, faut-il en craindre de brutales transformations sociales, éventuellement annonciatrices d’un nouvel ordre de la société, finalement plus bénéfique ?

Pour répondre à cette question, relevons d’abord quelques exemples de tels communaux informationnels.

L’ « espace public » de la société de l’information est notamment constitué par :

le domaine public de l’information, informations gouvernementales, documents, données, logiciels, et en général tous les contenus appartenant au patrimoine commun de l’humanité ;

les domaines publics mondiaux, les « global public goods », matériels ou immatériels (normes, standards, protocoles). Ces biens peuvent être sur-utilisés ou sous-utilisés, et posent des problèmes spécifiques de régulation ;

-les institutions du secteur public intéressées par l’information et la connaissance,  comme les écoles et universités, les bibliothèques et archives, les centres de documentation et de recherche. Le rôle économique des institutions relevant du secteur public est considérable. Leur influence de prescripteur, leur capacité de mise en réseau internationale par l’intermédiaire des « puissances publiques » acceptant la mise en commun de leurs efforts, peuvent aider à appuyer des politiques publiques incitatives et contribuer à définir concrètement la notion de « service essentiel mondial » et celle de service « d’utilité publique mondiale », dans le cadre de la société mondiale de l’information.

Dans ces trois domaines, on peut assister à des politiques renforçant le caractère public et commun de ces ressources, et se traduisant en termes d’accès, de qualité, d’efficacité, ou au contraire à des politiques de privatisation et d’appropriation, avec un désinvestissement de la puissance publique. Dans quels cas le « bien commun mondial » est-il mieux servi ?

A titre d’exercice, on pourrait se livrer à une réflexion approfondie sur la manière dont évoluent les lois sur la propriété intellectuelle à l’échelle internationale, et à une observation sur les clivages globaux entre des pays qui ont, aujourd’hui, un intérêt au durcissement du cadre législatif international dans ce domaine, et les pays, en général des pays en développement et en transition, qui au contraire ont intérêt à assouplir les mécanismes de protection de la propriété intellectuelle (par exemple permettant la production et la commercialisation de médicaments génériques, ou la promotion des exceptions au titre du « fair use »).

Notons en passant que le constat du renforcement de la « propriété privée » de l’information depuis plusieurs décennies contraste d’ailleurs avec le laxisme apparent en matière de protection des données personnelles (qui, elles, sont de moins en moins « privées » et de plus en plus exploitées par l’industrie du data-mining).

Le modèle postindustriel d’une société de l’information et de la connaissance peut donc favoriser certaines stratégies d’appropriation et de « clôture » des communs. On citera comme exemple le grand écho donné récemment à la décision par le juge Robert Sweet, du tribunal fédéral du district sud de New York d’invalider sept des vingt-trois brevets déposés par le laboratoire Myriad Genetics sur deux gènes, BRCA1 et BRCA2, dont les mutations sont associés à des types de cancer du sein et des ovaires. L’ACLU, une organisation américaine de défense des libertés publiques, instigatrice du procès, avait déclaré que la brevetabilité du génome « empêchait quiconque d’étudier, expérimenter, voire même observer un gène, ce qui a pour effet global de ralentir la recherche, de la limiter, voire de la bloquer en raison du droit de propriété ». L’Office des brevets des Etats-Unis a accordé des milliers de brevets sur les gènes humains, et l’on estime que « 20% du génome sont aujourd’hui propriété privée »[16].

Mais si l’on tire les leçons de l’histoire, il faut se préparer à l’idée que d’autres nouvelles « clôtures » seront instaurées, induisant à terme une possible « grande transformation » (Karl Polanyi) et même un nouveau « nomos de la terre » (selon l’expression fameuse de Carl Schmitt). Où passeront alors les « nouvelles lignes globales » ? Dans les disques durs ? Dans les lois ? Dans les gènes mêmes ?

Dans ce nouveau « nomos » global, comment concevoir une régulation (gouvernance d’Internet, anti-trust), une protection des droits de l’homme (libre expression, vie privée) et une garantie d’équité de l’accès aux informations et aux connaissances (questions de propriété intellectuelle)?

Une « grande transformation » des valeurs

Plus généralement, lorsque des concepts comme celui de « société de l’information ou de la connaissance » sont proposés, on peut légitimement penser qu’un tel objectif exige une conception plus claire de « l’intérêt général à l’échelle mondiale », ou du « bien commun mondial ». Qu’entend exactement par « société de l’information », du point de vue des valeurs sociétales ?

On ne peut que constater leur diversité et leur hétérogénéité.

Au fronton des bâtiments publics en France, on trouve cette ambitieuse devise : « Liberté, égalité, fraternité », que l’on peut comparer aux « valeurs fondamentales » de la Déclaration du Millénaire des Nations unies: Liberté, Egalité, Solidarité, Justice sociale, Tolérance, Respect de la nature, Partage des responsabilités.

Mais à l’évidence, ces formules inspirantes ne peuvent ramasser la multiplicité, la complexité, la transversalité des enjeux plus spécifiques. Par exemple quand l’Union européenne entreprend une réflexion sur le rôle à long terme des TIC dans la société, des objectifs un peu plus directs seront cités :

–          Répondre aux besoins d’une population vieillissante

–          Développement des ressources humaines à travers l’apprentissage tout au long de la vie

–          Promotion d’une « économie basée sur la connaissance »

–          Combattre la dégradation de l’environnement

–          Faire du développement durable une réalité

La Déclaration du Millénaire des Nations unies se proposait pour sa part de bâtir « un monde plus paisible, plus prospère et plus juste ». Pour ce faire elle a énuméré toute une série d’ “objectifs clé”, couvrant des domaines forts divers. Il est intéressant de comparer les objectifs proclamés en 2000, et ce qu’il en est advenu dix après, en 2010.

Cette déclaration proposait d’éliminer les armes de destruction massive, notamment les armes nucléaires, d’éliminer la pauvreté en adoptant une politique d’admission en franchise et hors quota pour la quasi-totalité des produits exportés par les pays les moins avancés, et en annulant toutes les dettes publiques bilatérales contractées par ces pays, en assurant dans tous les pays la protection intégrale des droits civils et des droits politiques, économiques, sociaux et culturels de chacun; en assurant le droit des médias de jouer leur rôle essentiel et le droit du public à l’information.

Elle se donnait comme objectifs prioritaires la lutte pour le développement de tous les peuples du monde, la lutte contre la pauvreté, l’ignorance et la maladie; la lutte contre l’injustice; la lutte contre la violence, la terreur et la criminalité; et la lutte contre la dégradation et la destruction de notre planète.

Curieusement, dans une longue liste très hétérogène  d’objectifs relevant de l’intérêt général mondial : paix et sécurité, prévention des conflits, bonne gouvernance et transparence dans les systèmes financiers, monétaires et commerciaux internationaux, combat du crime transnational dans toutes ses dimensions (trafic d’êtres humains, blanchiment d’argent), élimination des armes de destruction massive, on trouve une mention faite aux TIC : assurer que les bénéfices des TIC soient accessibles à tous (Ecosoc 2000) !

La Déclaration ministérielle de l’ECOSOC des Nations unies en 2000 est en effet consacrée aux TIC. Elle traite de leur rôle dans le contexte d’une économie globale, basée sur la connaissance. Notant que la majorité de la population vit encore dans la pauvreté et n’a pas accès aux TIC,  elle affirme que « la révolution des TIC ouvre de vastes opportunités pour la croissance économique et le développement social ».

Selon cette Déclaration, l’accès aux informations et aux connaissances est largement déterminée par l’éducation, par la « transparence » des sociétés, et par la capacité à générer et à utiliser le savoir. C’est seulement en second lieu que sont mentionnés la connectivité, la mise à disposition d’applications et de contenus diversifiés et l’existence d’un cadre légal et de politiques de régulation favorables.

On peut utilement comparer ces conclusions de l’ECOSOC avec, par exemple, les recommandations du Rapport 1999 du PNUD sur le développement humain, qui sont beaucoup plus « offensives », et qui proposent ainsi, entre autres :

– la taxation des flux internationaux de télécommunication et des brevets déposés à l’OMPI, facturation de l’utilisation de ressources mondiales communes, à des fins de redistribution mondiale.

– la révision de la gestion mondiale des droits de propriété intellectuelle pour créer un système ne barrant pas l’accès des pays en développement au savoir.

La question centrale, du point de vue du bien commun mondial, pourrait être résumée ainsi : quel rôle les TIC peuvent-elles jouer dans le développement d’un avenir global et durable ? Plus précisément, en quoi sont-elles pertinentes par rapport à des problèmes comme l’énergie, l’éducation, l’environnement, la gouvernance, l’économie, la finance, ou le bien-être de la population ?

Plus généralement, on pourrait poser la question de l’impact effectif des « politiques » décidées lors de Sommets vis-à-vis de dynamiques sociétales au caractère global, systémique, immanent. Quel rôle les TIC ou les techniques BANG jouent-elles dans le tissu social global des « sociétés de la connaissance » ? D’ailleurs de quelle « connaissance » parle-t-on en fait ? Est-ce une connaissance scientifique et technique ? Politique et sociologique ? Philosophique ?

Mais surtout, en quoi cette « connaissance » contribue-t-elle au « bien commun mondial » ? Et, d’ailleurs, comment définir le « bien commun mondial » ?

Qu’est-ce que le bien commun mondial ?

A priori, on pourrait dire que le “bien commun mondial” vise l’intérêt collectif de tous les habitants du « monde commun ».

Mais on peut entendre par “monde” des notions très différentes: la totalité des contemporains (le monde des vivants), ou bien y inclure toutes les générations futures (l’humanité dans sa perspective entière). La protection de la couche d’ozone intéresse évidemment toute la population mondiale actuelle. En revanche les manipulations du génome humain concernent aussi l’avenir de l’espèce humaine et pas seulement les générations contemporaines. C’est le monde futur qui est concerné, dans son lointain avenir.

En disant que le “bien commun mondial” est ce qui est bon pour la totalité des humains appartenant au « monde commun », on adopte une définition qui considère les humains comme une totalité homogène. Mais on peut aussi adopter une définition plus différenciée, et peut-être plus éthique. En application du « principe de différence », John Rawls[17] propose de dire que le “bien commun mondial” est ce qui est “bon” pour les plus défavorisés des humains. Cela change évidemment la perspective, et les priorités.

Le principal problème du “bien commun mondial” est qu’il est censé profiter à tous, mais qu’on ne voit pas clairement qui est directement responsable de sa préservation, de son bon usage, ou de son augmentation. Bien au contraire, le “bien commun mondial” semble victime d’une « tragédie » systémique.

En effet, les problèmes systémiques globaux, les “maux communs”, ont un caractère tellement transnational que l’on ne peut guère les analyser en termes d’externalités nationales. Les critères employés pour évaluer les coûts et les bénéfices locaux perdent rapidement de leur sens et de leur pertinence s’ils sont employés à l’échelle globale. Inversement, les critères globaux, à supposer qu’ils existent et qu’ils soient bien acceptés, paraissent à leur tour bien loin des préoccupations locales. La “gouvernance globale” pose des problèmes d’équilibre entre forces centrifuges et aspirations centripètes, entre les biais propres à la décentralisation et le besoin d’une harmonisation planétaire, entre les revendications des situations locales les plus diverses et l’exigence d’une stratégie commune à l’ensemble de “l’humanité”.

Les Etats ont tendance à privilégier le local et le court terme, c’est-à-dire à négliger le global et le long terme, autrement dit le bien commun mondial.

Res nullius et res communis

Le droit international ne s’est pas désintéressé de la notion de domaine public mondial. Mais on le trouve flottant quant à sa définition précise. Il est parfois assimilé à une res nullius et parfois à une res communis.

La res nullius n’appartient à personne. La res communis appartient à tous.

Si un bien public est une res nullius, chacun peut s’approprier librement ce qui n’appartient à personne en particulier. Personne n’est en droit de se sentir lésé. En revanche, si un bien public est une res communis, il appartient à tous, et chacun peut se servir de ce qui est en commun pourvu que les autres ne soient pas affectés par cet accaparement. Pour garder son caractère de res communis, un “bien collectif” doit être effectivement un bien inépuisable. Un bien public immatériel peut être inépuisable. Mais la consommation d’un bien public matériel se fait par exemple au détriment de ceux qui pourraient eux aussi consommer ces biens publics mais qui en sont empêchés faute de moyens, de ressources, de connaissances, d’opportunités.

La haute mer, l’espace extra-atmosphérique ont parfois été considérés comme une res nullius et parfois comme une res communis.

La mer est-elle d’abord une route, ouverte à tous, ou un réservoir de ressources? Les puissances maritimes qui ont intérêt à la liberté de navigation se heurtent aux Etats côtiers qui ont intérêt à étendre leurs zone exclusive.

A qui appartiennent les orbites géo-stationnaires?

On a déjà évoqué la pollution croissante des orbites par les débris spatiaux.

Mais dans le passé, la discussion a porté sur la propriété même des orbites géostationnaires!

Certains Etats “riverains”, proches de l’équateur, ont estimé qu’il s’agissait d’une “ressource naturelle rare” et qu’ils avaient un droit sur elle. Par une déclaration commune du 3 décembre 1976, le Brésil, la Colombie, le Congo, l’Equateur, l’Indonésie, le Kenya, l’Ouganda et le Zaïre ont proclamé leur souveraineté sur celle-ci. Cette revendication a été rejetée par le reste de la communauté internationale. La question a cependant été examinée par le Comité des utilisations pacifiques de l’espace extra-atmosphérique. Malgré l’opposition de la plupart des Etats occidentaux, l’Assemblée générale s’est préoccupée de “l’utilisation rationnelle et équitable de l’orbite géostationnaire qui est une ressource naturelle limitée”[18].

La liberté d’utilisation de l’espace n’est donc pas totale, en théorie: elle se heurte à trois limites:

– les activités spatiales “doivent s’effectuer conformément au droit international, y compris la Charte des Nations Unies”[19]

–   l’utilisation de l’espace doit être pacifique et viser à “maintenir la paix et la sécurité internationales”.

–  “l’exploration et l’utilisation de l’espace extra-atmosphérique, y compris la Lune et les autres corps célestes, doivent se faire pour le bien et dans l’intérêt de tous les pays, quel que soit le stade de leur développement économique ou scientifique; elles sont l’apanage de l’humanité tout entière[20]

Cette dernière expression (“apanage de l’humanité tout entière”) est à retenir. On la rapprochera de la notion de “patrimoine commun de l’humanité” qui est employée à propos de la Lune et des corps célestes dont les “ressources naturelles constituent le patrimoine commun de l’humanité”, selon l’article 11 du Traité de l’espace.[21]

On sait assez que les règles applicables à la haute mer et à l’espace dépendent largement des rapports de force internationaux, mais aussi de la notion d’intérêt public telle qu’elle prévaut à telle ou telle époque, en fonction de la sensibilité à la protection de l’environnement, de la nécessité de la recherche scientifique, de l’exploitation des ressources naturelles, de l’implantation de systèmes de communication.

On trouve dans un traité de droit international[22] une gradation des attitudes possibles, autour des notions d’appropriation et d’utilisation:

–          Non-appropriation et liberté d’accès et d’exploitation pour chaque Etat, les seules contraintes résidant dans l’obligation de ne pas porter atteinte à l’égale liberté des autres Etats (régime de la haute mer et de l’espace extra-atmosphérique)

–          Non-appropriation et gestion collective. Par exemple: la Convention sur le droit de la mer de 1982 en ce qui concerne les grands fonds marins (la “Zone”).

–          Non-appropriation, mais gestion collective par un petit nombre d’Etats dans leur intérêt exclusif (exemple: gestion des ressources halieutiques par les pays membres de l’Union européenne).

–          Non-appropriation mais droits exclusifs réservés, à certaines fins, à un Etat déterminé (exemple: zone économique exclusive du plateau continental et de la zone contiguë)

–          Appropriation nationale, mais pouvoir de gestion subordonné au respect des libertés des Etats tiers (régime de la mer territoriale)

–          Souveraineté nationale exclusive mais généralement tempérée par l’octroi de droits d’accès (espace national aérien, eaux intérieures).

En résumé, la notion de res communis fait ressortir deux principes majeurs:

La res communis appartient à la collectivité, nationale ou internationale. Nul ne peut se l’approprier.

Son utilisation (ou sa consommation) est possible, mais soumise à des contraintes dans l’intérêt de la collectivité.

Mais que se passe-t-il lorsque la consommation abusive ou privative menace la res communis?

En pratique, les biens collectifs peuvent être menacés par les intérêts sectoriels. Ils peuvent malheureusement être “consommés”, et donc réduits d’autant pour les autres. Les appétits particuliers peuvent confisquer l’utilité générale à leur profit.

Les exemples de telles confiscations privatives et de telles appropriations particulières sont nombreux. Dans le cas du patrimoine génétique, qui fait l’objet actuellement de tentatives de privatisation par le biais de brevets, cette démarche revient à le considérer comme une res nullius, puisqu’il est assimilé non à quelque chose que l’on invente, mais que l’on découvre, et qu’on peut néanmoins s’approprier.

Dans le domaine numérique, il faut évoquer comme emblématique la stratégie de Google de numériser des millions de livres, et en particulier plus de 7 millions d’œuvres dites « orphelines », en principe non encore tombées dans le domaine public, parce que beaucoup plus récentes, mais appelées ainsi parce que les ayants-droit n’ont pas été identifiés. Cette stratégie montre assez tout le profit privé que l’on peut attendre d’une appropriation de facto du domaine public mondial publié, ainsi que de la zone grise (res nullius) de toutes ces œuvres « orphelines ».

Riccardo Petrella[23] décrit la logique prédatrice des forces du marché, suivant une stratégie de déstructuration et de destruction du bien commun (“war on welfare”). Les forces politiques conservatrices cherchent à privatiser et à déréguler les services publics, à réduire les emplois publics, à remettre en question les droits sociaux, à réduire le pouvoir des assemblées parlementaires au profit de l’exécutif, à réduire la richesse commune et les espaces publics, à rétrécir le champ de la solidarité, en tant que principe fondateur de l’Etat du « welfare » et du bien commun. On assiste à une braderie, à l’échelle planétaire, de la richesse commune. Les Etats comme les organisations internationales s’affaiblissent constamment au profit des pouvoirs privés mondiaux. « Le droit public qui se forge tend à être avant tout un droit commercial privé d’amplitude planétaire »[24].

Les théoriciens du libéralisme, comme Hayek, se réjouissent de cette montée en force du gigantisme capitalistique, et de cette frénésie concurrentielle allant jusqu’aux monopoles planétaires:

« Il n’y a aucun argument en justice, ni justification morale à empêcher un monopoliste de faire profit de monopole (…) Parfois, l’apparition d’un monopole (ou d’un oligopole) peut constituer un résultat désirable de la concurrence »[25]. Il admet que le pouvoir des monopolistes peut être dangereux lorsqu’il est combiné avec l’influence qu’il peut exercer sur un gouvernement. Mais pour lui, « ce n’est pas le monopole en soi qui est nuisible, mais la suppression de la concurrence ». C’est « le même problème [qui] se pose lorsqu’une quelconque petite entreprise, ou un syndicat, qui contrôlent un service essentiel peuvent rançonner la collectivité en refusant de fournir leur prestation »[26]. Il n’hésite pas à comparer entreprises et syndicats en affirmant que « nombre de monopoles d’entreprise résultent d’une meilleure productivité, alors que tout monopole syndical est dû à une suppression forcée de la concurrence »…

Pour Hayek, la plus grave menace pour l’ordre de marché n’est pas « l’action égoïste de firmes indépendantes, mais l’égoïsme de groupes organisés ». « Les intérêts collectifs des groupes organisés sont toujours à l’opposé de l’intérêt général ». Ces groupes acquièrent leur pouvoir grâce à l’aide des gouvernements, ce qui modifie la situation relative des divers groupes. Cette « fixation politique des revenus » des divers groupes de pression heurte toujours quelques intérêts particuliers et surtout l’intérêt général, assure-t-il.

Il ajoute que « l’intérêt qui est commun à tous les membres d’une société n’est pas la somme des intérêts communs aux membres des groupes de producteurs existants ».

En effet seuls les « intérêts organisables » ont avantage à exercer une pression sur le gouvernement, et à lui faire adopter des « règles discriminatoires et tendancieuses ». Ceci engendre inévitablement « une situation où les intérêts non organisables sont sacrifiés et exploités par les intérêts organisables ».

Mancur Olson[27] théorise ce biais très particulier en faveur des « lobbies » : d’abord seuls des groupes relativement restreints sont capables de s’organiser de manière efficace, et d’influer sur le gouvernement pour en tirer des avantages certains. Les organisations les plus puissantes dominent en partie les gouvernements et donc en tirent un avantage relatif d’autant plus important. Comme il est impossible d’organiser tous les intérêts, ce biais conduit « à une exploitation persistante des inorganisés et inorganisables ».

Jean-Jacques Rousseau définissait la volonté générale comme une décision collective quant à ce qui est bien pour la société entière, par opposition à la “volonté de tous” qui ne serait que l’addition des préférences individuelles.

La volonté générale « mondiale » pourrait en ce cas incarner ce que la communauté mondiale estime être dans l’intérêt de l’humanité, et non pas seulement dans l’intérêt de certains états-nations ou groupes de pression, qui ont une influence considérable sur la marche des affaires, sur la mise en place des politiques publiques, sur les principes régissant la mise à disposition des biens publics, ou leur usage.

Les « intérêts primordiaux de la collectivité mondiale»

Face à la « tragédie » du bien commun et à « l’exploitation persistante des inorganisés et inorganisables », et suivant Rousseau, on pourrait introduire la notion « d’intérêts primordiaux de la collectivité mondiale». Cette notion transcende le droit des gens (« jus inter gentes ») ainsi que le droit international classique. Elle mériterait de recevoir les bénéfices d’un vaste débat, en particulier pour son extension à l’échelle mondiale dans le cadre des institutions chargées de réguler la mondialisation, comme les organisations dites « mondiales », chargées du commerce ou de la propriété intellectuelle.

Il y a par exemple un enjeu fondamental à définir positivement la notion de « service d’intérêt général » en matière de télécommunications, à l’heure d’Internet et de la mondialisation (cette notion pourrait s’adosser par exemple sur des principes éprouvés comme la continuité du service, l’universalité, l’obligation de desserte, l’égalité de traitement, la cohésion interrégionale…).

Il faut donc mondialiser la réflexion sur la notion d’utilité publique et la notion de service d’intérêt économique général, de façon à aboutir à une définition positive de la notion d’utilité publique mondiale.

La logique de la construction de l’Europe a permis la transition progressive du libre-échange à l’espace économique, puis de l’espace économique à sa régulation (lois anti-trust), et enfin de la régulation à l’émergence d’un pouvoir politique encadrant les finalités de la régulation.

Il faut mettre en place une réflexion équivalente au niveau mondial, et le système des Nations unies est un des lieux possibles où pourrait s’amorcer cette réflexion.

De même qu’en droit communautaire, on définit la notion d’un service public européen, comme étant représenté par « les entreprises – publiques ou privées — chargées de la gestion de services économiques d’intérêt général », de même on pourrait se rapprocher progressivement de la définition d’un service public mondial, constitué par des entreprises chargées de la gestion de services économiques d’intérêt mondial.

Mais cette idée sous-entend-elle la création d’entités de régulation mondiale, ou de formes primitives d’un « état mondial » ?

Elle nous incite aussi à nous interroger sur le rôle de l’Etat par rapport à la question du bien commun, et ce que serait le rôle des Etats dans l’élaboration d’une théorie et d’une pratique du bien commun mondial.

Le bien commun et le rôle de l’Etat

Dans un contexte démocratique, il peut être convenu que c’est l’Etat qui donne une forme tangible au bien commun. Ses institutions, notamment grâce au système de contrôle et de balance garanti par la représentation démocratique, incarnent la meilleure (ou la moins mauvaise) manière d’atteindre le « bien commun ».

Les élus sont ainsi fondés à revendiquer le droit de « dire » le bien commun, dans leur fonction législatrice.

Contre cette idée même, des critiques radicales n’ont cependant pas manqué. L’Etat « bourgeois », pour les marxistes, ne fait que représenter les intérêts d’une classe aux dépens d’une autre.

Plus récemment, Deleuze et Guattari, offrent une interprétation plus radicale encore. Pour eux, l’Etat, sa police et son armée forment « une gigantesque entreprise d’anti-production » capable d’absorber la plus grande partie de la plus-value produite. Cette anti-production permet « de réaliser le but suprême du capitalisme, qui est de produire le manque dans de grands ensembles, d’introduire le manque là où il y a toujours trop, par l’absorption qu’elle opère de ressources surabondantes. »

Mais surtout, selon Deleuze et Guattari, l’Etat est en mesure d’ajouter au capital et au flux de connaissance « un capital et un flux équivalent de connerie, qui en opèrent aussi l’absorption ou la réalisation, et qui assurent l’intégration des groupes et des individus au système. Non seulement le manque au sein du trop, mais la connerie dans la connaissance et la science ». [28]

Au lieu d’une société de l’information et de la connaissance, ces deux auteurs verraient donc plutôt se profiler une société de la désinformation et de l’abrutissement des masses.

Quel que soit le jugement que l’on peut faire à propos du rôle de l’Etat dans la construction idéologique du « bien commun », et dans la mobilisation des moyens pour y tendre, il reste que dans un contexte de mondialisation accéléré, la question du rôle de l’Etat change de nature. Faut-il un consensus des Etats nationaux pour faire émerger un bien commun mondial ? Ce consensus est-il possible ? Ou, au contraire, faut-il un Etat mondial pour garantir l’intégrité d’un domaine public mondial ?

Cette idée d’Etat mondial, ce nouveau Léviathan imposant sa loi à l’ensemble des peuples du monde a de quoi inquiéter. Deleuze et Guattari, poursuivant leur réflexion, estiment que si « l’Etat moderne forme une véritable coupure en avant, par rapport à l’Etat despotique », en réalité « il n’y a jamais eu et il n’y a qu’un seul Etat, l’Urstaat, la formation despotique asiatique ». Même l’Etat moderne, donc, rêve selon eux de ce « modèle inégalable » : « Même l’axiomatique sociale moderne ne peut fonctionner qu’en la ressuscitant (…) Démocratie, fascisme ou socialisme, lequel n’est hanté par l’Urstaat comme modèle inégalable ? »[29]

Mais où se trouve donc le despote asiatique dans nos sociétés « modernes » ? Eh bien, comme le disait déjà Hobbes, le despote c’est l’argent, qui écrase tout de son « immanence ». « La machine moderne immanente, qui consiste à décoder les flux sur le corps plein du capital-argent, a réalisé l’immanence, elle a rendu concret l’abstrait ». Et « l’axiomatique moderne au fond de son immanence reproduit l’Urstaat transcendant, comme sa limite devenue intérieure. »[30]

La modernité serait devenue profondément immanente, par le « décodage général des flux », et se serait livrée à la transcendance despotique (de l’argent), qui correspond en gros au « complexe politico-militaire-économique ».

Bien commun et modernité

Si la modernité est « immanente », la notion de « bien commun mondial » peut-elle être compatible avec cette immanence ? Si l’on observe que les Temps modernes ont été particulièrement propices à la généralisation d’un nominalisme de plus en plus extrême, on peut en douter.

Le néo-nominalisme moderne réactive le vieux débat scolastique entre nominalisme et réalisme, et s’applique aux grands mythes, aux « grands récits » désormais décrédibilisés. Jeremy Bentham avait fait dès le 18ème siècle une critique féroce des « chimères » et autres « entités fictives » de la pensée. Ses héritiers, comme F. Hayek, considèrent que la justice sociale est une « inepte incantation », un « vocable vide de sens, malhonnête, cause de perpétuelle confusion en politique, facteur de dégradation de notre sensibilité morale ».

Plus aiguë encore, est la critique de penseurs qui ont associé l’Occident à un type de pensée tyrannique. « La logique occidentale, qui passe pour pensée et raison, est tyrannique by definition ». [31]

Le nominalisme se trouve aussi chez les structuralistes, qui tentent de montrer, comme Claude Lévi-Strauss, que l’homme n’est plus que le jouet de machineries structurales, impersonnelles, résultant d’un monde de symboles, ou qui pensent comme Michel Foucault qu’il ne s’agit plus désormais de « constituer l’homme mais de le dissoudre ».

On peut enfin s’interroger sur les liens entre la notion de « société (ou de capitalisme) de la connaissance » et l’ancien « désenchantement » du monde qu’avait déjà diagnostiqué Max Weber. Le développement de l’abstraction moderne, qui implique la réduction de la diversité et de l’altérité (par la normalisation des codes) s’accompagne de l’émergence d’une sorte de néo-gnosticisme[32]. On pourrait alors interpréter des concepts comme celui de société de la « connaissance » comme des transpositions « modernes » des visions gnostiques du monde, telles qu’elles ont proliféré  lors de la décadence puis de la chute de l’Empire romain. C’est une autre façon de comprendre l’idée sous-jacente que le progrès de la connaissance au sens moderne du mot n’a rien à voir avec celui de la sagesse.

 

Le « bien commun mondial » est-il donc une idée compatible avec la modernité ?

Je ne le pense pas : la modernité est beaucoup plus immanente et nominaliste, qu’utopique et idéaliste. Elle est aussi plus schizoïde qu’universaliste et « communautaire ».

Le bien commun mondial est à la fois une idée pré-moderne (c’est-à-dire classique) et radicalement postmoderne, si l’on entend par là un contexte idéologique qui reste encore à inventer, et qui exigera peut-être une rupture plus radicale, comme la nécessaire migration vers un âge de la « noosphère » ?

La modernité affronte en fait plusieurs crises, liées entre elles, et qui sont toutes révélatrices de son incapacité à définir le bien commun mondial, et à le mettre en œuvre :

–          une crise économique accompagnant la fin d’un modèle industriel et de consommation, et un déplacement des pôles économiques dû à la « mondialisation », avec pour effet des formes de « dumping social » à grande échelle.

–          une crise du « politique » et une incapacité à affirmer des valeurs discréditées, d’une part par la fin du Rideau de fer, d’autre part par les excès trop visibles du néo-libéralisme. D’où des questions non tranchées sur la régulation et le laissez-faire, et la gouvernance mondiale dans un système très hétérogène d’Etats nationaux.

–          une crise du « sens », comme en témoignent les débats sur la « fin de l’histoire » et de manière récurrente, la question du « désenchantement » moderne qui a pris de multiples noms : la « décadence » (Frédéric Nietzsche), le « malaise dans la civilisation » (Sigmund Freud), le « déclin de l’Occident » (Oswald Spengler), la « crise de l’esprit » (Paul Valéry), la « maladie spirituelle de l’humanité » (C.G. Jung), la «crise de la culture» (Hannah Arendt), la « crise du sens » (Jean Paul II)[33].

Ces crises accréditent l’idée d’une « fatigue psychique » des peuples, et d’un possible « procès des Lumières », qui pourrait déboucher sur une « guerre civile mondiale des idées. » [34]

Une nouvelle Renaissance

Alors, guerre civile mondiale en perspective, ou nouvelle Renaissance en vue?

Je penche pour cette dernière option, un peu par analogie. Trois dates fondatrices caractérisent bien l’essence de la Renaissance européenne: 1454, 1492, 1517. Trois noms la ponctuent: Gutenberg, Colomb, Luther. Trois inventions la résument: l’imprimerie, l’Amérique, la Réforme.

J’aimerais affirmer que nous sommes à l’aube d’une nouvelle Renaissance, une renaissance mondiale, car, comme il y a plus de cinq siècles, nous assistons à l’invention quasi simultanée d’une nouvelle imprimerie, d’une nouvelle Amérique, et d’une nouvelle Réforme.

La nouvelle imprimerie, c’est le numérique et le virtuel.

La nouvelle Amérique, c’est le cyberespace et le « nouveau monde » de l’abstraction financière et technologique.

La nouvelle Réforme émerge. Mais au lieu d’un Luther, c’est peut-être un Teilhard de Chardin qui pourrait l’incarner.

Mais même l’idée d’une nouvelle Renaissance ne résout pas la question plus générale du « progrès » de l’humanité. Au 20ème siècle s’est d’ailleurs imposé un doute radical quant à l’idée même de « progrès ». Le développement extrême de la rationalité instrumentale s’est alors accompagné d’un « désenchantement » du monde et d’une « perte du sens », initiés par les « maîtres du soupçon ».

L’idée de société « mondiale » de l’information occupe une position originale dans ce débat. D’un côté, elle fournit une nouvelle utopie : la création d’un outil pour la formation d’une communauté mondiale. D’un autre côté, elle contribue à sa manière au désenchantement du monde en nous imposant un modèle mental, à base d’abstraction cognitive, d’efficacité économique, d’homogénéisation culturelle et de différenciation sociale accrue entre info-riches et info-pauvres. La mondialisation s’appuie sur l’abstraction inhérente aux modèles véhiculés par la société de l’information. Mais en retour, l’abstraction croissante des mécanismes économiques et financiers globaux ne doit plus cacher la frustration du « bon sens » devant les incohérences globales que ces mécanismes exacerbent. Les bulles financières et conceptuelles ne font que souligner l’inconsistance du politique, ou même sa « schizophrénie », au niveau mondial, méta-national.

La civilisation de la mondialisation, ce que l’on pourrait appeler la “civilisation-monde”, est-elle donc réellement “en progrès”?

 

Dans un petit livre écrit en 1929, un peu avant le naufrage de Wall Street, un certain Sigmund Freud s’efforça d’appliquer à l’échelle de l’humanité tout entière les leçons qu’il avait apprises dans l’observation des pulsions et des névroses des personnes. Il y décèle un grand mouvement traversant le monde: la montée de l’Eros. “La culture est un procès au service de l’Eros, procès qui veut regrouper des individus humains isolés, plus tard des familles, des peuples, des nations, en une grande unité, l’humanité.”[35]

Le problème, souligne aussitôt Freud, est qu’un tel “procès” est un jeu à somme nulle. Ce que l’on gagne d’un côté on le perd de l’autre.

“Le prix à payer pour le progrès de la culture est une perte de bonheur, de par l’élévation du sentiment de culpabilité.”[36] Et il cite à l’appui de cette thèse Shakespeare, dans le monologue d’Hamlet: “C’est ainsi que la conscience morale fait de nous des lâches…”[37]

Ce que veut l’homme, c’est être heureux.

Or pour Freud le progrès ne rend pas heureux.

La raison? Elle est simple. Cela vient du sentiment de culpabilité que le progrès nous impose en nous obligeant à refouler toujours plus nos pulsions fondamentales d’agression et de mort.

Le progrès ne nous rend pas heureux: il diminue notre bonheur.

Le problème est ainsi clairement posé.

Premièrement, “le progrès de la culture” peut-il survivre à cette diminution du bonheur qu’il impose aux hommes, à ce refoulement de nos pulsions, à cette augmentation de la culpabilité et à ce sentiment de faute?

Deuxièmement,  si nous renonçons collectivement à ce progrès de la culture, pour nous livrer à nos pulsions de mort, l’humanité peut-elle survivre alors au déchaînement prévisible de la violence?

Freud ne barguigne pas, c’est une question de vie ou de mort. “La question décisive pour le destin de l’espèce humaine me semble être de savoir si et dans quelle mesure son développement culturel réussira à se rendre maître de la perturbation apportée à la vie en commun par l’humaine pulsion d’agression et d’auto-anéantissement.”

Serions-nous pris à l’échelle mondiale entre le marteau d’un progrès malheureux et coupable et l’enclume d’une violence irrémédiable?

Y a-t-il une troisième voie? Une échappatoire à l’infernal pessimisme freudien?

Evoquons, par symétrie, l’optimisme teilhardien. Pour le philosophe Pierre Teilhard de Chardin, le progrès est une “montée” de conscience. Pour lui, il y a “progrès” si la conscience globale augmente. Il n’y a pas “progrès” si la conscience n’augmente pas, s’il n’y a pas mutation psychique, apparition de nouveaux paliers de conscience. Teilhard nomme ce phénomène de conscientisation la “Noogénèse”, ou genèse de l’Esprit, ou l’appelle encore convergence vers “le point Oméga”. Le progrès, selon Teilhard, est une synthèse de l’esprit, qui doit s’incarner dans le monde, dans le multiple, dans le divers et l’imprévisible.

Cette vision est indéniablement plus optimiste que celle de Freud, puisqu’elle propose au moins une fin non-contradictoire. Alors que pour Freud le progrès ne rend pas heureux, pour Teilhard il est la condition même du bonheur…

Il est vrai que le progrès se paye fort cher, dans les deux cas.

Pour Freud, il se paye du prix le plus élevé qui soit, la fin du bonheur, du fait du refoulement.

Pour Teilhard aussi, le progrès a un prix. Chaque progrès dans l’organisation de la noosphère, tout en relâchant momentanément la compression humaine, rend plus sensible et plus rapidement transmise dans le milieu humain – et donc plus douloureuse, plus dangereuse — chaque nouvelle compression planétaire.

Le progrès, parce qu’il augmente l’intégration humaine, augmente aussi la sensibilité générale et exige un surcroît d’effort.

Mais aujourd’hui, peut-on dire si le monde est en progrès?

Si l’on mesure le progrès d’une civilisation-monde par son degré croissant d’abstraction, comme le faisait par exemple André Leroi-Gourhan[38], alors on pourrait affirmer que la civilisation moderne est en progrès rapide. Si nous suivons cette voie, alors indéniablement la civilisation du virtuel, plus abstraite que jamais, représente un grand bond en avant.

Mais la réponse est moins évidente si on mesure dans le monde la place faite à l’esprit, à la personne, au multiple, à l’autre — comme Teilhard le demande.

Si la véritable mesure du progrès d’une civilisation est sa capacité à l’altérité, au multiple, au personnel, au spirituel, la mondialisation apporte-t-elle quelque chose de positif? Si le progrès se jauge à la capacité à appréhender, comprendre et préserver l’autre, est-ce que la civilisation de la « connaissance » représente un pas en avant?

Nous savons bien que l’un des risques d’une soi-disant « civilisation mondiale » est plutôt de limiter la diversité et de réduire la possibilité d’altérité, en imposant des normes puissantes de conduite et de codification. Le prix à payer de la transparence et de la circulation mondiale est l’uniformité et la réduction au même, sans parler de l’atteinte aux libertés.

Quel est la place de de « l’étranger », de « l’autre », dans le virtuel, dans le cyberespace, et dans l’abstraction spéculative et financière ?

Il y a d’ailleurs toutes sortes « d’autres ». L’avenir même est « autre », par nature. « Ce qui arrive en fin de compte ce n’est pas l’inévitable mais l’imprévisible»[39].

On pourrait ainsi conclure que la véritable mesure du progrès d’une civilisation serait sa capacité à favoriser l’imprévisible, à parier sur l’avenir, à préparer l’impensable, à guetter l’inouï.

La Noosphère

 

Pour vivre, il faut une aptitude à la “mentalité élargie”, il faut sans cesse agrandir le cercle de la pensée, s’exposer au feu de la critique, et passer à l’action dans le monde.

C’est notamment grâce aux autres, à la relation avec “l’autre”, que nous pouvons avancer. Il faut se rendre autre à soi-même pour mieux penser.

Alors qu’il était ambulancier dans les tranchées de la première Guerre mondiale, Teilhard de Chardin, confronté en permanence à la présence et à la pression mortifère de l’autre, comme ennemi, a renversé le sens de cet événement mondial, et il s’est mis à penser que c’était précisément « la montée de l’Autre » qui était le phénomène le plus profond de la genèse de l’esprit, qu’il appelait « noogénèse », et qui était “l’irremplaçable marée cosmique qui, après avoir soulevé chacun de nous jusqu’à soi-même, travaille maintenant, au cours d’une pulsation nouvelle, à nous chasser hors de nous-mêmes: l’éternelle “montée de l’Autre” au sein de la masse humaine.” L’Autre, c’est aussi le non-humain et l’inhumain.

C’est un phénomène personnel mais aussi social : il y a une impossibilité croissante d’agir, de penser seuls. Pour être pleinement nous-mêmes, nous nous trouvons forcés d’élargir la base de notre être, et de nous augmenter d’une plus grande conscience de “l’Autre”. Refuser l’Autre – au moment de la compression planétaire — reviendrait à sombrer dans la nausée. “L’enfer c’est les autres” disait Sartre. Mais peut-on être encore sartrien dans une planète rétrécie ?

Pour Teilhard, l’allongement du rayon d’action individuelle réduit l’espace libre et augmente le sentiment de la  compression planétaire. Cette compression est à première vue inquiétante, mais en réalité positive car il y a une montée corrélative de la complexité et de la conscience. La compression est la douleur de l’enfantement, de la genèse. D’abord physique, la compression induit une compression psychique, qui exige une montée de la conscience.

L’espace vital se met à manquer. Nous étouffons. Nous nous heurtons les uns aux autres. Un être nouveau apparaît, émerge de cette friction, de ce heurt permanent, un “être nouveau”, “animé d’une vie propre”, qui est “l’Humanité partout en contact avec elle-même.”

C’est alors qu’émerge l’idée d’une possible “synthèse avec l’autre”. C’est l’idée que l’autre représente non une menace mais bien une chance, une porte de sortie face à l’impasse de l’individu autocentré. La conscience personnelle se met à combiner les grains de conscience de plusieurs personnes, de plusieurs consciences. La personne se dépasse et s’achève en synthèse, en communion.

Teilhard émet l’hypothèse de la formation d’un cerveau “entre tous les cerveaux humains”: “Ces cerveaux réunis entre eux forment une sorte de voûte, chaque cerveau devenant capable de percevoir avec les autres ce qui lui est échapperait s’il était réduit à sa seule capacité. Et la vision ainsi obtenue dépasse l’individu et ne peut être dépassée par lui.” [40]

Enfin, il faut s’attendre à une véritable “révolution mentale”, qui nous sépare des générations passées et nous relie au lointain avenir. Il s’agit bien de se prendre d’une sympathie authentique pour l’Autre, d’une véritable “chaleur” pour tous les autres, en tant que passagers du destin planétaire, mais aussi en tant que composantes de notre propre montée personnelle, et collective. Une autre Humanité surgit, dotée d’une vision commune.

Mais l’Autre, en tant qu’il peut être inhumain on non-humain, représente aussi un danger pour le soi. Danger de l’uniformité dans l’unification, et monstrueuses forces du “collectif”, “multiplicité” sans visage ni cœur. Moloch mondial des forces anonymes, irresponsables.

 

Il faut surmonter ce sentiment de danger, et il reste à donner du sens à ces forces immenses qui sont à l’œuvre, il reste à les “réguler”, à les “orienter”. Mais selon quelles valeurs ? Nous n’avons pas la morale qu’il nous faudrait. Nous sommes en retard d’une vision. Nous avons peur de la masse immense de l’humanité, laissée à elle-même, inquiétante, menaçante, sans direction.

La première réaction des individus et des peuples aux forces de compression et de friction est de tenter de se replier, de se rétracter sur un sanctuaire inattaquable, de garder les autres et les étrangers à distance.

Nous résistons à l’idée de la montée de l’Autre parce qu’elle semble nous chasser hors de nous-mêmes pour nous enfermer dans un cercle plus large et toujours plus vide, le cercle du “collectif”.

Simone Weil, en 1934, assimilait le collectif à un “Gros Animal”, de façon prémonitoire, lors de la montée du totalitarisme. Le collectif, multiple par nature, n’a ni pensée, ni cœur, ni visage.

Nous avons aujourd’hui particulièrement besoin d’une meilleure compréhension de ce que représente le “collectif mondial”. L’assemblée quantitative, numérique, de plus de six milliards d’individus est le plus “Gros Animal” planétaire possible. Personne ne peut dire ce dont cet « Animal » serait capable, et par exemple s’il pourrait engendrer un néo-totalitarisme mondial.

L’unité rêvée de l’humanité ne sera sans doute pas fondée sur une unique religion, une seule philosophie ou sur un seul gouvernement. Elle sera plutôt bâtie sur la diversité, le pluralisme. Mais la multiplicité, la diversité sont difficiles à garantir à l’âge de l’abstraction numérique, de l’abstraction dévorante du marché planétaire et du totalitarisme des « logiques » économiques et financières.

Le défi que nous devons relever est le suivant. Face à la mondialisation de l’abstraction, il faut réussir à préserver l’altérité et la diversité. Il faut en particulier surmonter le paradoxe qui consiste à mettre les techniques de l’information, porteuses de standardisation,  au service de la différence.

Mais la diversité et le pluralisme ne suffisent pas. Nous assistons à un phénomène colossal, la “compression” accélérée de la planète. Nous vivons dans un monde qui se resserre et se rétrécit, sous des cieux balisés de satellites, et dans des espaces quadrillés de capteurs et de réalités augmentées.

Le monde se comprime, il s’échauffe et se densifie. Le brassage humain n’est pas en soi un phénomène nouveau. Ce qui est nouveau, c’est la rapidité, l’intensité de ce serrage planétaire, la puissance de la mise en contact, l’intensité de la chaleur[41] dégagée par la friction des peuples.

Cette compression ne provoque pas seulement une sensation d’étouffement. C’est aussi un facteur déclencheur de complexification, de convergence, d’unification.

Il s’agit d’une “compression de la couche pensante” selon l’expression de Teilhard de Chardin.

La compression planétaire augmente l’angoisse, la peur de sombrer dans la masse informe, de disparaître dans la laideur et l’uniformité. Mais elle produit aussi un sentiment d’exaltation, pour ceux qui ressentent dans toutes leurs fibres qu’ils participent à la poussée, à la montée de l’Histoire.

Moment-clé, où l’on pourrait prophétiser l’amorce d’une convergence des esprits, et même le réticent début d’une lente convergence des religions.

La notion teilhardienne de “compression planétaire” ne recouvre pas le concept de “mondialisation”. La mondialisation est d’essence spatiale, elle est faite d’expansion territoriale: il suffit d’évoquer les diverses formes de mondialisation que furent les impérialismes, les colonialismes et aujourd’hui la conquête des marchés et des réseaux.

La compression planétaire, porteuse de “convergence”, implique quant à elle une élévation de “température psychique”, et par là contribue à la genèse de la noosphère, au sein de la biosphère. Il s’agit bien d’une mondialisation, mais d’essence psychique, et même spirituelle, qui s’accompagne d’un accroissement de complexité et de conscience.

La complexité résulte d’une concentration, d’une densification de la matière psychique. Elle résulte de la mise en présence et de la concentration de multiples niveaux de réalité.

La conscience résulte aussi d’une tension psychique accrue. Toute conscience peut avoir foi en l’avenir, elle peut avoir ardeur à croître ou au contraire renoncer à croître. Elle peut résister plus ou moins à son propre désenchantement, à une sorte de nausée ontologique, un ennui ou une fatigue de soi. C’est la conscience qui peut décider de prendre “goût” au Monde, ou au contraire peut se laisser étouffer par lui. Lorsque, à certains moments de l’évolution, la tension de conscience croît dangereusement, ce sont cette foi, cette ardeur, ce goût de vivre et de grandir, qui font presque toute la différence.

La compression psychique n’est pas un phénomène individuel, c’est un phénomène social et même mondial. On ne peut converger seul. On ne peut converger qu’avec les autres. Nous sommes de plus en plus confrontés non seulement à la montée mondiale de l’autre, mais aussi à la perspective inévitable de nous “unifier” avec le monde des autres. Il vaudrait mieux que ce soit de bon gré, et que cette unification ne nous uniformise pas, par abstraction, par homogénéisation et par réduction au plus petit commun dénominateur,

La mondialisation actuelle est surtout d’ordre économique et technologique, et elle favorise une unification abstraite, numérique et numéraire, unidimensionnelle. La mondialisation culturelle, politique ou éthique, se fait encore attendre, car il y a toujours un retard de l’esprit sur l’événement. L’esprit est de nos jours particulièrement en retard, car les événements se précipitent. La mondialisation des esprits est bien moins avancée que la mondialisation des marchés et des procédures.

Mais la compression de la couche pensante commence à produire des effets.

La “noosphère” commence à prendre des formes tangibles, comme le cyberespace ou la naissance d’une sorte d’opinion publique mondiale. Teilhard rêvait d’une « sphère de consciences arc-boutées », et d’un « organe de super-vision » et de « super-idées » d’un « organisme pan-terrestre », muni d’un système propre de connexions et d’échanges internes, et d’un « réseau serré de liaisons planétaires ».

La montée psychique de la noosphère devait se traduire aussi pour lui par l’apparition d’une « mémoire collective » de l’humanité, par le développement d’un « réseau nerveux » enveloppant la Terre, et par l’émergence d’une « vision commune. »

Si on peut admettre qu’Internet est une préfiguration des grands réseaux nerveux dont nous aurons de plus en plus besoin pour gérer la planète, il faut cependant reconnaître que la vie du monde exige bien plus que cela, il lui faut une “vision commune”, un consensus planétaire. Il nous faut prendre conscience de notre destin collectif, de notre destin de convergence.

Qu’est-ce que la réalité de cette convergence implique pour notre compréhension du monde et pour nos perspectives d’action, qu’est-ce qu’elle entraîne comme conséquences politiques et philosophiques?

D’abord, elle signifie que l’humanité n’est plus une “abstraction”, la « chimère » que ridiculisaient les nominalistes. Par le moyen de la noosphère, l’humanité « sait » et « voit » qu’elle est un “Tout”, et une œuvre à accomplir. Elle possède enfin, au-dessus du “push” économique, le “pull” d’une puissance psychique, d’une vision rassurante. Nous entrons dans “l’âge de la Recherche”, la recherche d’une vision commune, d’un élan moral.

Pour conclure, je dirai qu’il y a certainement des idées qui peuvent mener le monde.

Le bien commun mondial est une idée abstraite, et même doublement abstraite — en tant que bien « commun » et en tant que bien « mondial ». Mais c’est aussi une idée efficace, capable de mobiliser politiquement les esprits. Contre les nominalismes, il faut croire à la force de ce type d’idées, à la puissance d’analyse qu’on peut leur associer, mais aussi à leur valeur de proposition, et de réveil des volontés.

L’humanité est en devenir, en genèse. Elle a besoin de comprendre son bien commun et de forger sa volonté générale. Rousseau ouvrit jadis son Contrat social  d’une phrase limpide: « L’homme est né libre et partout il est dans les fers ».[42] Aujourd’hui, l’homme est à nouveau dans les fers. Ce sont des fers mondiaux et abstraits, et l’humanité a besoin d’un nouveau contrat mondial.

Il n’est plus possible de reculer. Il nous faut bâtir la « grande ville du monde ».[43]

La « grande ville du monde »? Pour quelle fin ? « La fin de la cité c’est la vie heureuse » disait Aristote, ajoutant « que la vie heureuse est celle qui est menée sans entrave, selon la vertu. »[44] Tout un programme !


[1] Cf . L’anti-Œdipe. Capitalisme et schizophrénie. Gilles Deleuze et Félix Guattari. 1972

[2] Il faisait la chasse aux « entités fictives », aux « chimères »,aux « fallaces » et autres « instruments de tromperie » portés par des mots ou expressions qui ne veulent rien dire – comme celle de « bien commun ».

[3] La justice sociale est par exemple, selon Friedrich Hayek, une « inepte incantation » , un « vocable vide de sens, malhonnête, cause de perpétuelle confusion en politique, facteur de dégradation de notre sensibilité morale ».

[4] L’article 2 du Traité de l’espace signé le 27 janvier 1967 interdit toute appropriation nationale par proclamation de souveraineté. Il est néanmoins envisageable qu’à l’avenir, si le progrès technique permet une appropriation effective des objets célestes, la notion de terra nullius retrouve un usage actuel et permette l’acquisition de la souveraineté par un État sur des corps célestes. (Wikipédia)

[5] Deux critères caractérisent en théorie la notion de domaine public, qu’il soit mondial ou pas: la non-exclusivité (“non-excludability”) et la non-rivalité dans l’usage (“non-rivality”).

La non-exclusivité, c’est-à-dire l’“universalité” de l’accès aux domaines publics est un critère essentiel. Un bien est universellement accessible s’il est disponible pour l’humanité entière, y compris les générations futures. Tout le monde en profite effectivement ou peut en profiter théoriquement. La non-rivalité dans l’usage des biens publics se réfère à leur caractère « inépuisable » ou non. Un bien public “infiniment” abondant permet en théorie à tous d’en tirer profit sans jamais l’épuiser. La consommation d’un bien public inépuisable par un consommateur particulier ne se traduit pas par un manque pour les autres consommateurs potentiels. Il n’y a pas de “rivalité” ou de concurrence dans l’usage.

Les biens qui sont inépuisables mais non-universels, c’est-à-dire qui peuvent être socialement ou techniquement réservés à la consommation d’un groupe particulier sont appelés parfois des “biens de club” (“club goods”). Ce sont des biens pouvant être exclusifs (par exemple, la faculté d’avoir accès à un réseau public comme Internet est un bien public inépuisable mais cependant exclusivement réservé à ceux qui ont les moyens de se raccorder). Les biens universels mais épuisables sont considérées comme des fonds communs, aux ressources limitées (“pool goods”). Par exemple, les places disponibles pour le positionnement des satellites sur une orbite géostationnaire.

[6] Cf. Conference on Disarmament Ad Hoc Committee on Outer Space.

[7] Selon la Convention du Conseil de l’Europe sur l’accès aux documents publics adoptée par le Comité des ministres le 27 novembre 2008, et adoptée par plusieurs pays le 18 juin 2009, « on entend par « documents publics » toutes informations enregistrées sous quelque forme que ce soit, rédigées ou reçues et détenues par les autorités publiques. » (Art.1. alinéa 2.b) La Convention « garantit à toute personne, sans discrimination aucune, le droit d’accéder, à sa demande, à des documents publics, détenus par des autorités publiques. » (Art.2 alinéa 1)

[8] Google indique le 23 février 2010, par une note sur le blog officiel de l’entreprise, que la Commission européenne veut en savoir plus sur le fonctionnement de son moteur de recherche. Foundem, un comparateur de prix britannique, eJustice, moteur de recherche juridique français, et Ciao, guide d’achat sur Internet et comparateur de prix, ont porté plainte contre le moteur de recherche. Foundem et eJustice affirment que l’algorithme de recherche de Google rétrograde leurs sites dans ses résultats parce qu’ils sont en concurrence avec lui, précise Google sur l’un de ses blogs. Le site de comparatifs de prix Ciao, propriété de Microsoft, a également saisi la Commission européenne au sujet des conditions et termes de Google, ajoute ce dernier. Le premier moteur de recherches mondial a dit qu’il fournirait plus d’informations concernant ces plaintes et s’est dit certain d’être en conformité avec le droit de la concurrence européen. Google se défend en indiquant que Foundem et Ciao sont plus ou moins liés à Bing, le moteur de recherche Microsoft. A l’heure actuelle, l’UE n’en serait qu’au stade de l’enquête préliminaire, affirme le Wall Street Journal. Google fait l’objet d’une surveillance réglementaire de plus en plus étroite à mesure qu’il croît. Le département américain de la justice conteste ainsi le règlement qu’il a passé avec des éditeurs et des groupes d’auteurs en vue de créer des archives numériques en ligne. La Commission fédérale du commerce veut elle en savoir plus sur les répercussions en termes de concurrence du projet de Google d’acheter la société de publicité mobile AdMob pour 750 millions de dollars. Google contrôle 90 % du marché de la recherche sur Internet contre 7,4 % pour Bing, le moteur de recherche commun de Microsoft et de Yahoo, selon des données de novembre publiées par la société StatCounter.

[9] Le phénomène des “rendements croissants” dans le domaine technique ou économique équivaut à une prime croissante donnée aux gagnants, se traduisant par une éradication de toute concurrence, conduisant à un monopole de facto. La prime aux positions dominantes, la valeur exponentielle des réseaux, sont d’autres facettes de ce phénomène. C’est ainsi que des normes, des standards ou des logiciels s’imposent. La compétition tend à “tuer” la compétition, puisqu’elle tend à éliminer les “plus faibles” pour ne garder que les “plus forts”.

Ce phénomène des rendements croissants induit deux effets contradictoires. D’un côté, il permet et encourage la constitution de très grands empires postindustriels (vagues d’alliances trans-sectorielles, monopoles structurels, effets du type “the winner takes all”).

D’un autre côté, des rendements croissants sur le plan technique n’impliquent pas nécessairement des rendements croissants du point de vue capitalistique. Exemple: la production des circuits intégrés est d’autant moins rentable qu’on les produit en plus grande quantité. La diffusion de plus en plus rapide et peu coûteuse de données, d’images, de logiciels, sape la profitabilité du fait de l’augmentation de l’offre générale de biens immatériels. Mais on peut arriver cependant à limiter cette “baisse tendancielle du taux de profit” de deux manières:

–          soit en tirant parti des positions de monopole mondial sur un segment clé pour imposer des pratiques hégémoniques (cas des systèmes d’exploitation, se généralisant aux navigateurs, puis aux portails, et enfin au commerce électronique…)

–          soit en recréant artificiellement de la rareté là où l’abondance menace le profit. Par exemple, on assistera à des tentatives de privatiser des biens appartenant au domaine public (brevetage du vivant, interdiction de réutiliser des semences sous “copyright”, allongement sans contrepartie pour “l’intérêt général” de la durée du copyright d’œuvres qui devraient être tombées dans le domaine public, création de nouveaux “droits d’auteur” comme le droit “sui generis” sur les bases de données, permettant de privatiser indéfiniment l’accès à des données même d’origine publique, obtention de concession exclusive de services publics essentiels, comme le service de l’eau,…)

[10] “Schizophrenia may be a necessary consequence of literacy. Carothers stresses that until phonetic writing split apart thought and action, there was no alternative but to hold all men responsible for their thoughts as much as their actions. His great contribution has been to point to the breaking apart of the magical world of ear and the neutral world of the eye, and to the emergence of the detribalized individual from this split. It follows, of course, that literate man, when we meet him in the Greek world, is a split man, a schizophrenic, as all literate men have been since the invention of the phonetic alphabet.” Marshall McLuhan, The Gutenberg Galaxy. 1962,  p22.

[11] “Command means that the US gets vastly more military use out of the sea, space and air than do others, that it can credibly threaten to deny their use to others, and that others would lose a military contest for the commons if they attempted to deny them to the US.” Barry Posen,  The Military Foundations of US Hegemony, International Security, Summer 2003, pp. 5-46

[13] The Contested Commons. Michele Fournoy and Shawn Brimley. USNI. July 2009

[14] Karl Polanyi. La grande transformation. 1983. pp. 60 seq. « La clôture des champs ouverts et la conversion des terres arables en pâturages dans l’Angleterre de la première période Tudor, au cours de laquelle champs et communaux furent entourés de haies par les seigneurs (lords), des comtés entiers se voyant ainsi menacés de dépopulation. (…)  On a dit des enclosures qu’elles étaient une révolution des riches contre les pauvres (…) Ils volaient littéralement leur part de communaux aux pauvres, et abattaient les maisons que ceux-ci, grâce à la force jusque-là inébranlable de la coutume, avaient longtemps considérées comme leur appartenant, à eux et à leurs héritiers. Le tissu de la société se déchirait.  (…) Des années 1490 aux années 1640, ils luttèrent contre la dépopulation. La contre-révolution fit périr le Lord protecteur Somerset, effaça du code les lois sur les enclosures et établit la dictature des seigneurs éleveurs (grazier lords), après la défaite de la rébellion de Kett et le massacre de plusieurs milliers de paysans. (…) Bientôt la marée de la guerre civile engloutit pour toujours la politique des Tudors et des premiers Stuarts.  La Révolution industrielle fut simplement le début d’une révolution aussi extrême, et aussi radicale (…) mais le nouveau credo était entièrement matérialiste. (…) La dislocation provoquée par un pareil dispositif doit briser les relations humaines et menacer d’anéantir l’habitat naturel de l’homme.  »

[15] Cf. James Boyle. The Second enclosure Movement and the construction of the Public Domain: “The big point about the enclosure movement is that it worked; this gave incentive for large scale investment. By transferring inefficiently managed common land into the hands of a single owner, enclosure escaped the “tragedy of the commons”.”

[16] Le Monde, 2 avril 2010

[17] John Rawls, Théorie de la justice, 1971

[18] Résolution 38/80 du 15 décembre 1983.

[19] Art. III du Traité sur les principes régissant les activités des Etats en matière d’exploration et d’utilisation de l’espace extra-atmosphérique y compris la Lune et les autres corps célestes du 27 janvier 1967.

[20] Art. 1er, alinéa 1er.

[21] Art. 11, §7. Le régime prévu pour la Lune a en effet pour but:

“a) d’assurer la mise en valeur méthodique et sans danger des ressources naturelles de la Lune;

b) d’assurer la gestion rationnelle de ces ressources;

c) de développer les possibilités d’utilisation de ces ressources;

d) de ménager une répartition équitable entre tous les Etats parties des avantages qui résulteront de ces ressources, une attention spéciale étant accordée aux intérêts et aux besoins des pays en développement, ainsi qu’aux efforts des pays qui ont contribué, soit directement, soit indirectement, à l’exploration de la Lune”

[22] Droit international public, 3ème édition, Nguyen Quoc Dinh, Patrick Daillier, Alain Pellet, LGDJ, Paris 1987

[23] Riccardo Petrella, Le bien commun, Eloge de la solidarité, Ed. Labor, Bruxelles 1996

[24] cf Jacques Decornoy, « Travail, capital… pour qui chantent les lendemains ? » Le Monde diplomatique, septembre 1995, cité par R.Petrella in op.cit.

[25] Friedrich A. Hayek, Droit , législation et liberté, t.3 L’ordre politique d’un peuple libre, p.92, Ed. PUF, 1983

[26] Ibid. p.96

[27] Mancur Olson Jr, The Logic of Collective Action, Harvard University Press, 1965

[28] Gilles Deleuze et Félix Guattari. L’anti-Œdipe. Capitalisme et schizophrénie. 1972. pp 279-280 : « Le rôle de l’Etat, dans l’axiomatique capitaliste, apparaît d’autant mieux que ce qu’il absorbe ne se retranche pas de la plus-value des entreprises, mais s’y ajoute (…) surtout dans un ordre de dépenses militaires qui ne font nulle concurrence à l’entreprise privée, au contraire (seule la guerre a réussi ce que le New deal avait manqué). Le rôle d’un complexe politico-militaire-économique est d’autant plus important qu’il garantit l’extraction de la plus-value humaine à la périphérie et dans les zones appropriées du centre, mais qu’il engendre lui-même une énorme plus-value machinique en mobilisant les ressources du capital de connaissance et d’information, et qu’il absorbe enfin la plus grande partie de la plus-value produite. L’Etat, sa police et son armée forment une gigantesque entreprise d’anti-production, mais au sein de la production même, et la conditionnant. (…)

[L’anti-production] seule est capable de réaliser le but suprême du capitalisme, qui est de produire le manque dans de grands ensembles, d’introduire le manque là où il y a toujours trop, par l’absorption qu’elle opère de ressources surabondantes. D’autre part, elle seule double le capital et le flux de connaissance, d’un capital et d’un flux équivalent de connerie, qui en opèrent aussi l’absorption ou la réalisation, et qui assurent l’intégration des groupes et des individus au système. Non seulement le manque au sein du trop, mais la connerie dans la connaissance et la science : on verra notamment comment c’est au niveau de l’Etat et de l’armée que se conjuguent les secteurs les plus progressifs de la connaissance scientifique ou technologique, et les archaïsmes débiles les mieux chargés de fonctions actuelles. »

[29] Ibid. pp. 310-311

[30] Ibid.

[31] « J’ai lu Platon et beaucoup réfléchi sur l’affinité entre philosophe et tyrannie, ou la préférence des philosophes pour la tyrannie […] l’affinité entre le philosophe et le tyran depuis Platon, quelle naïveté de l’expliquer par le manque de temps du philosophe. La logique occidentale, qui passe pour pensée et raison, est tyrannique by definition. » Hannah Arendt, Karl Jaspers, Correspondance (1926-1969), 25 décembre 1950, Paris, 1995.

[32] Eric Voegelin dit que le totalitarisme repose sur  une hérésie, la gnose. Il fait une distinction entre des révolutions « gnostiques » (anglaise/puritaine, française, russe, « allemande » nazie) et des révolutions « traditionnelles (Glorious Revolution anglaise, révolution américaine). La laïcité française elle-même est marquée par un héritage gnostique. Il fait le procès des « trois R » : Réforme, Révolution, Romantisme.

[33] Encyclique Fides et Ratio.

[34] Daniel Lindenberg. Le procès des Lumières.

[35] Sigmund Freud, Le  malaise dans la culture. 1929

[36] Ibid.

[37] Shakespeare, Hamlet III,1 : « Thus conscience does make cowards of us. »

[38] André Leroi-Gourhan, Le geste et la parole. Selon lui, l’outil ou la parole sont des « abstractions » par rapport à la griffe ou au cri.

[39] Selon la formule de Keynes.

[40] in L’activation de l’énergie

[41] Selon l’expression de Teilhard de Chardin, l’humanité est comme un “gaz qui se comprime” et qui “s’échauffe”.

[42] Jean-Jacques Rousseau. Du contrat social. Livre I, ch. 1

[43] « La grande ville du monde devient le corps politique dont la loi de nature est toujours la volonté générale et dont les états et peuples divers ne sont que des membres individuels. » Jean-Jacques Rousseau. Sur l’économie politique.

[44] Aristote, Les politiques, Livre IV, ch. 11, 1295-b

La dialectique des triades


Dumézil a démontré que des schèmes triadiques et trinitaires informaient en profondeur la mythologie et la théologie indo-européennes.
En sanscrit, le nombre 3 se dit tri, त्रि, et ce mot a donné l’anglais three, l’allemand drei et le français trois.

La culture védique abonde en références trines et triadiques. Les trividya sont les trois Védas. Les triloka sont les trois mondes, le Ciel, la Terre et l’Enfer. Les triratna sont les trois joyaux de la doctrine, Bouddha, sa Loi (dharma) et sa Communauté (saigha). La Trinatha est la trinité hindoue : Brahma, Vishnou, Shiva. La trijuna est la triade des essences : la conscience (sattva = pureté, vérité), la passion (rajas = force, désir) et la ténèbre (tamas = ignorance, inertie). La trimarga est la triple voie de la réalisation spirituelle (karmayoga, bhaktiyoga, jnanayoga), etc.

On trouve même que les trois bourrelets au-dessus du nombril d’une femme sont considérés comme un signe de beauté, et ont pour nom trivali.

Il est intéressant de replonger dans ces schèmes triadiques, spécialement dans nos Temps modernes, qui semblent avoir consacré le retour en force du monisme et du dualisme gnostiques en se passant presque entièrement de toute référence religieuse, anthropologique ou culturelle basée sur des structures ternaires, à l’exception bien sûr du christianisme. Il serait d’ailleurs intéressant de se demander si la perte relative de crédibilité du christianisme dans la culture de notre temps, moniste ou dichotomique et dualiste, n’est pas due à cet attachement ancien à la trinité.

Le ternaire, le triadique, le trinitaire s’opposent à l’évidence aux schèmes monistes et dualistes. Notons d’emblée que la dialectique des triades semble plus souple et plus riche que les ressorts trop mécaniques, trop rigides, de la dialectique dualiste.

De plus, ils parlent richement à l’intuition. L’enfance, la maturité et la vieillesse, le passé, le présent et l’avenir, ne sont-ils pas des métaphores plus réalistes que les sèches oppositions vie/mort, avant/après, début/fin ? Les triades du savoir, du pouvoir et du vouloir (dans l’ordre de la pensée humaine) ou de la Sagesse, de la Puissance et de la Bonté (dans l’ordre divin) ne sont-elles pas plus évocatrices que les divers antagonismes binaires que l’on pourrait leur substituer? Augustin n’utilisa-t-il pas avec bonheur la  triade de l’être, du connaître et du vouloir que nous pouvons observer au sein de notre propre esprit, pour éclairer indirectement, mais analogiquement, le mystère de la Trinité ?

En fait, les triades et les ensembles trinitaires abondent dans l’histoire de la pensée. Les Egyptiens honoraient trois dieux primitifs, le Feu éthéré, dieu suprême (Phtha), sa Pensée (Neith), et l’Ame du monde (Kneph), qui correspondent exactement à la triade grecque de Zeus, de sa Pensée (Athéna) et de sa Parole (Apollon).

Platon distinguait trois degrés de réalité : le Bien, l’Intelligence et l’Être. Fort prolixe  en constructions triadiques, il proposait aussi la triade de l’Un qui est, l’Un qui est un et multiple, et l’Un qui se sépare et se réunit.

Aristote, citant les Pythagoriciens, affirmait que c’est le nombre 3 qui définit le Tout. Le néoplatonicien Plotin réinterprétait Hésiode et faisait correspondre l’Un, l’Intelligence et l’Ame du monde respectivement à Ouranos, Kronos et Zeus.

Quant à Rome, Georges Dumézil a établi que Jupiter, Mars et Quirinus représentaient une triade archaïque, emblématique de l’esprit indo-européen, et correspondant aux trois piliers d’un type d’ordre social: le prêtre, le guerrier, l’agriculteur.