Des États désunis face à l’IA


« État désuni » ©Philippe Quéau (Art Κέω) 2025

Une série d’organismes tels que l’Union internationale des télécommunications, la Commission électrotechnique internationale, l’Organisation internationale de normalisation et l’Internet Engineering Task Force, pour la plupart basés à Genève, négocient des normes techniques et jouent un rôle majeur dans la définition des règles de la concurrence à l’échelle mondiale, dans les domaines de la communication, de l’information et du numérique. Les membres de ces institutions votent les normes à la majorité. Jusqu’à présent, ces forums ont été dominés par des fonctionnaires et des entreprises des États-Unis et de l’Europe. Mais la situation est en train de changer. Au cours des deux dernières décennies, la Chine a joué un rôle de plus en plus important au sein des comités techniques de plusieurs de ces organismes, où elle n’a cessé de promouvoir ses normes préférées. Depuis 2015, elle a intégré ses propres normes techniques dans son programme mondial d’investissement dans les infrastructures (« Belt and Road Initiative »). En mars 2018, la Chine a lancé une autre stratégie, « China Standard 2035 », visant à un rôle encore plus prégnant dans l’établissement des normes internationales. Certains analystes industriels américains ont réagi en appelant Washington à combattre l’influence chinoise dans les organismes de normalisation. Ce n’est pas la première fois que les normes techniques sont mêlées à des tensions géopolitiques. En août 2019, les sanctions américaines contre le géant chinois des télécommunications Huawei ont conduit la Chine à établir ses propres normes d’efficacité énergétique, incompatibles avec les normes occidentales. Il en a résulté une fragmentation des normes techniques de gestion du fonctionnement des grands centres de données, qui sont au cœur de l’économie numérique. Dans le contexte du développement de l’IA, des marchés séparés par des normes techniques différentes ralentiraient la diffusion de nouveaux outils. Il serait également plus difficile de mettre au point des solutions techniques susceptibles d’être appliquées à l’échelle mondiale à des problèmes tels que la désinformation ou les manipulations d’images (« deepfake »).

Des divergences sur les normes techniques liées à l’IA sont déjà apparues. La loi européenne sur l’IA, par exemple, impose l’utilisation de « mesures appropriées de gestion des risques ». Mais, pour définir cette notion, la loi s’en remet à trois organisations indépendantes chargées d’élaborer et de promulguer des normes spécifiques au contexte concernant les risques liés à la sécurité de l’IA. Il est révélateur que les trois organismes spécifiés dans la législation à ce jour soient européens, et non les organismes internationaux mentionnés ci-dessus. Cela semble être un effort tout à fait conscient pour distinguer la réglementation européenne de ses homologues américains et chinois. En soi, cela annonce la future balkanisation des normes relatives à l’IA.

Les conflits géopolitiques ne façonnent pas seulement un nouveau paysage réglementaire international pour les matières premières liées à la fabrication des systèmes d’IA. Ils accentuent également les divisions concernant les actifs immatériels nécessaires à cette technologie. Là encore, le régime juridique émergent consacre un ordre mondial divisé dans lequel les solutions collectives ont de moins en moins de chance de prévaloir. L’intrant immatériel le plus important de l’IA est la donnée. Des programmes d’IA tels que ChatGPT s’appuient sur d’énormes banques de données. Les outils d’IA générative, qui sont capables de produire des textes ou des vidéos à partir de brèves invites, sont incroyablement puissants. Mais ils sont souvent inadaptés pour des tâches très spécifiques, plus pointues. Ils doivent alors être affinés à l’aide d’ensembles de données plus ciblés dépendants des contextes particuliers. Une entreprise qui utilise un outil d’IA générative pour son robot de service à la clientèle, par exemple, pourrait former un tel instrument sur ses propres transcriptions d’interactions avec les consommateurs. En bref, l’IA a besoin à la fois de grands réservoirs de données et de pools de données plus petits et plus personnalisés. Les entreprises et les pays seront donc invariablement en concurrence pour l’accès à différents types de données. Ces conflits internationaux sur les flux de données ne sont pas nouveaux : les États-Unis et l’UE se sont opposés à plusieurs reprises sur les conditions dans lesquelles les données peuvent traverser l’Atlantique après que la Cour de justice de l’UE a annulé, en 2015, un accord qui avait permis aux entreprises de transférer des données entre des serveurs situés aux États-Unis et en Europe. L’ampleur de ces désaccords est aujourd’hui en augmentation, rendant plus difficile le franchissement des frontières nationales par les données. Jusqu’à récemment, les États-Unis promouvaient un modèle de libre transfert des données à l’échelle mondiale en raison d’un engagement en faveur de l’ouverture des marchés et d’un impératif de sécurité nationale : un monde plus intégré, selon l’idéologie alors en vogue, serait plus sûr. Washington a utilisé de manière agressive les accords commerciaux bilatéraux pour promouvoir cette vision. À l’inverse, le droit européen fait depuis longtemps preuve d’une plus grande prudence en matière de confidentialité des données. Pour leur part, la Chine et l’Inde ont adopté des législations nationales qui imposent, de différentes manières, la « localisation des données », avec des restrictions plus importantes sur la circulation des données à travers les frontières.

Depuis que l’IA occupe le devant de la scène, ces points de vue ont évolué. L’Inde a récemment assoupli son interdiction, laissant entendre qu’elle autoriserait des flux de données plus importants vers d’autres pays, ce qui lui donnerait une plus grande influence sur les conditions du commerce numérique mondial. La Chine semble également assouplir ses règles de localisation alors que son économie bat de l’aile, permettant ainsi à un plus grand nombre d’entreprises de stocker des données en dehors des frontières chinoises. Mais il est surprenant de constater que les États-Unis évoluent dans la direction opposée. Des hommes politiques américains, inquiets des relations entre l’application de médias sociaux TikTok et le gouvernement chinois, ont fait pression sur l’entreprise pour qu’elle s’engage à limiter les flux de données à destination de la Chine. En octobre 2023, le représentant américain au commerce a annoncé que le gouvernement fédéral abandonnait les demandes de longue date du pays à l’OMC concernant la protection des flux de données transfrontaliers et l’interdiction de la localisation forcée des données. Si Washington poursuit dans cette voie, le monde aura perdu son principal défenseur de la libre circulation des données. Il s’ensuivra probablement une plus grande « balkanisation » des données à l’échelle mondiale.

Une concurrence mondiale commence à se faire jour sur la question de savoir si et quand les États peuvent exiger la divulgation des algorithmes qui sous-tendent les systèmes d’IA. La loi sur l’IA proposée par l’UE, par exemple, exige des grandes entreprises qu’elles permettent aux agences gouvernementales d’accéder au fonctionnement interne de certains modèles afin de s’assurer qu’ils ne sont pas potentiellement préjudiciables aux individus. De même, les récentes réglementations chinoises concernant l’IA utilisée pour créer du contenu (y compris l’IA générative) obligent les entreprises à s’enregistrer auprès des autorités et limitent les utilisations de leur technologie. L’approche américaine est plus complexe mais n’est pas très cohérente. D’une part, le décret de l’Administration Biden d’octobre 2023 exige un catalogue de divulgations sur les modèles d’IA qui peuvent avoir des utilisations à la fois commerciales et liées à la sécurité. D’autre part, les accords commerciaux conclus par les administrations Trump et Biden comprennent de nombreuses dispositions interdisant aux autres pays d’exiger dans leurs lois la divulgation du « code source et des algorithmes exclusifs ». En fait, la position des États-Unis semble exiger la divulgation chez eux de ce type d’informations, tout en l’interdisant à l’étranger. Même si ce type de réglementation concernant les algorithmes n’en est qu’à ses débuts, il est probable que les pays suivront la voie tracée par la réglementation mondiale sur les données, à savoir de plus en plus de fragmentation. À mesure que l’importance des décisions de conception technique et algorithmique des systèmes d’ IA sera mieux comprise, les États essaieront probablement de forcer les entreprises à les divulguer, mais aussi d’interdire à ces entreprises de partager ces informations avec d’autres gouvernements.

À une époque où s’essouffle la détermination mondiale à s’unir et à coopérer face à d’autres défis majeurs, les grandes puissances avaient initialement adopté une attitude coopérative face à l’IA. À Pékin, Bruxelles et Washington, il semblait y avoir un large consensus sur le fait que l’IA pouvait causer des dommages potentiellement graves et qu’une action transnationale concertée était nécessaire. Toutefois, on voit clairement qu’aujourd’hui les pays ne s’engagent pas dans cette voie. Plutôt que d’encourager un effort collectif visant à établir un cadre juridique clair pour gérer l’IA comme un bien commun mondial, les États se sont déjà engagés dans des conflits subtils et obscurs sur les fondements matériels et immatériels de l’IA. L’ordre juridique qui en résultera sera caractérisé par la fragmentation et la confrontation, et non par l’imbrication et la solidarité. Les États se méfient les uns des autres. Il sera de plus en plus difficile de faire avancer des propositions pour une meilleure gouvernance mondiale de l’IA. Au minimum, le régime juridique émergent rendra plus difficile la collecte d’informations et l’évaluation des risques liés à la nouvelle technologie. Plus dangereux encore, les obstacles techniques soulevés par la balkanisation croissante de la réglementation de l’IA pourraient rendre impossibles un début de solution globale, telles que la création d’un groupe d’experts intergouvernemental sur l’IA. Dans le contexte d’un ordre juridique fragmenté, des modèles d’IA réellement dangereux pourront être développés et diffusés en toute impunité pour servir d’instruments de subversion et de conflit géopolitique. Les efforts d’un pays pour gérer l’IA selon ses propres normes pourraient facilement être sapés par d’autres intérêts à l’extérieur de ses frontières. Les autocraties pourraient être libres de manipuler leurs propres populations à l’aide de l’IA mais aussi d’exploiter la libre circulation de l’information dans les démocraties pour affaiblir celles-ci de l’intérieur. Il y a donc beaucoup à perdre à l’effondrement progressif de la possibilité même d’un ordre réglementaire mondial des systèmes d’IAi.

____________________

iAziz Huq. A World Divided Over Artificial Intelligence. Geopolitics Gets in the Way of Global Regulation of a Powerful Technology. Foreign Affairs, Mars 2024