
78 ans se sont écoulés depuis les bombardements atomiques sur Hiroshima et Nagasaky . Nous ne savons pas avec certitude si le temps qui s'est écoulé depuis cette horreur a servi à une plus grande prise de conscience des limites à ne pas dépasser dans l'utilisation et l'application des résultats de la recherche scientifique et technologique.
L'enchaînement des décisions politiques qui ont conduit au développement, à la fabrication et à l'utilisation de la bombe atomique doit être une référence pour évaluer ce qui se passe avec l'Intelligence Artificielle qui, selon ce qu'a déclaré le Secrétaire général de l'ONU devant le Conseil de sécurité, « a un énorme potentiel de bien et de mal à grande échelle. Ses propres créateurs ont averti que des dangers bien plus grands, potentiellement catastrophiques et existentiels nous guettent. »
Un parallèle entre l'énergie nucléaire et l'Intelligence Artificielle est inévitable , pour en tirer des enseignements, si en tant que communauté internationale et système multilatéral nous sommes encore capables d'apprendre et de rectifier.
Depuis les deux dates fatidiques d'août 1945, les armes nucléaires n'ont plus été utilisées, pas même au pire moment de la guerre froide, car il est clair que leur utilisation conduirait immédiatement à des destructions massives, et à moyen terme à l' extinction . de l'humanité . Mais nous continuons à vivre dans un équilibre de terreur, c'est une certaine menace existentielle. Selon la Fédération des scientifiques américains, il y a 12 500 ogives ou têtes nucléaires entre les mains de neuf pays, à commencer par la Russie et les États-Unis, qui représentent près de 90 % du total, et le reste se situe entre la France, le Royaume-Uni , Israël, Inde. Pakistan, Chine et Corée du Nord. Une guerre nucléaire , que ce soit avec des armes "tactiques" ou "stratégiques", signifierait sans aucun doute la fin de toute vie . Ce qui rend totalement incompréhensible que les arsenaux nucléaires continuent à être maintenus, et qu'il y ait des pays qui cherchent à les avoir.
Nous savons que toute découverte scientifique a deux potentialités, l'une qui contribuerait au progrès de l'humanité et l'autre qui lui nuirait. C'est un domaine dans lequel le pouvoir politique, qu'il soit local ou multilatéral, doit prendre les meilleures décisions pour la gouvernance des résultats et l'application de la recherche scientifique, avec toutes les informations, certitudes et conseils, à l'écoute des scientifiques, des universitaires et de la société.
Par exemple, l'énergie nucléaire a des applications bénéfiques dans la production d'électricité, la médecine, l'agriculture, l'industrie, l'imagerie, l'archéologie, la science des matériaux, la conservation des aliments, etc. Mais la bombe atomique et les développements ultérieurs de l'énergie nucléaire appliquée à la création d'armes de destruction massive, mettent en lumière la relation difficile entre science et politique. Ou, en d'autres termes, entre progrès scientifique et gouvernance . C'est aussi le cas d' Internet , du décryptage du génome humain, de la génétique, de la biologie synthétique, de l'informatique quantique et en général de la révolution scientifique et technologique. Tout cela est difficile à réglementer, ce qui nous manque au niveau multilatéral.
En matière nucléaire, il y a l'Organisation internationale de l'énergie atomique (AIEA), à laquelle appartiennent 176 États membres de l'ONU, et bien qu'elle remplisse une fonction très importante, c'est une organisation de coopération et d'information qui promeut l'utilisation pacifique de l'énergie nucléaire. , mais pas de pouvoir réglementaire. Mais, plus précisément, il n'y a pas d'organisme multilatéral qui réglemente le développement scientifique et technologique .

Concernant l'Intelligence Artificielle , qui a évolué de façon exponentielle ces deux dernières années, on peut dire, sans exagération, qu'elle a le potentiel positif et négatif de l'énergie nucléaire . Elle pourrait être la bombe atomique du 21ème siècle, si une décision politique n'est pas adoptée au niveau multilatéral pour sa régulation, évitant qu'elle dégénère, et que des dirigeants enthousiastes, mégalomanes et irresponsables tombent dans la tentation de l'utiliser pour fins de guerre.
Les avantages de l'IA sont incontestables , et il ne convient pas d'arrêter son développement, mais de l'orienter et de le réguler. Son application s'inscrit dans la sécurité des citoyens, la médecine, les transports sûrs, les services personnels moins chers, l'accès à l'information, l'éducation et les opportunités pour les entreprises dans la génération de produits et services nouveaux et meilleurs, l'agriculture, l'alimentation, le service client, les économies d'énergie et bien d'autres.
L'Union européenne, qui prépare une loi de régulation, estime que d'ici 2035 la productivité du travail pourrait croître entre 11 et 37 %. De son côté, l'OCDE considère également les aspects positifs de l'IA dans l'économie et dans la gestion publique. Et selon Goldman Sachs, même si quelque 300 millions d'emplois dans le monde pourraient être affectés par son introduction, cela ne signifierait pas nécessairement des remplacements massifs, mais un soutien pour stimuler la productivité et créer plus d'emplois à long terme. Son introduction généralisée pourrait générer une augmentation annuelle de 7% du PIB dans les dix prochaines années.
Mais il faut considérer qu'il y a déjà de nombreuses voix de personnalités et d'institutions accréditées du monde entier, alertant de manière plausible sur les risques de ce nouvel outil et appelant à sa gouvernance. Dans le cas de l'énergie nucléaire, nous savons déjà ce qui s'est passé, en raison d'une décision politique adoptée sans conséquences claires, qui a également déclenché la concurrence pour développer et stocker des armes nucléaires à ce jour.
Avec AI, nous sommes à temps pour répondre aux premières alertes de Stephen Hawking à la tête d'un groupe de scientifiques, auxquelles s'ajoute le rapport du Haut Commissaire des Nations Unies aux droits de l'homme ; la récente lettre de scientifiques et d'experts, dont Bill Gates, Elon Musk et les chefs de grandes plateformes technologiques appelant à une réglementation et à un moratoire, en raison des "risques profonds pour la société et l'humanité" ; les déclarations dans ce même sens du créateur d'OpenAI, responsable de ChatGPT, Sam Altman au Sénat américain, dont la sous-commission a déjà tenu deux auditions sur le sujet. Et beaucoup plus.
Selon le Center for Artificial Intelligence Security, son développement avancé "pourrait provoquer une catastrophe, enracinée dans quatre risques clés : l'utilisation malveillante, les courses à l'IA, les risques organisationnels et l'IA malveillante, qui, lorsqu'elles sont interconnectées, peuvent amplifier d'autres risques existentiels, tels que les pandémies. " conçus, guerres nucléaires, conflits entre grandes puissances, totalitarisme et cyberattaques contre des infrastructures critiques.
Issu du secteur des centres d'études et des associations d'experts et de scientifiques, le think tank mondial The Millennium Project considère, selon les mots de son directeur, Jerome Glenn, qu'il est urgent de prendre en charge en temps opportun, à l'échelle mondiale, à travers une Agence des Nations Unies, pour guider la transition de l'Intelligence Artificielle Étroite actuelle vers l'Intelligence Artificielle Générale (AGI), qui sans réglementation peut conduire à une Super Intelligence Artificielle incontrôlable en quelques années.
Dans une tentative d'autorégulation, Google, Microsoft et OpenAI viennent d'annoncer la création du Frontier Model Forum, un nouvel organisme de l'industrie axé sur le développement sûr et responsable des modèles d'IA de pointe, la recherche des meilleures pratiques, la coopération avec les gouvernements et la société et soutenir les efforts visant à faire face aux risques mondiaux tels que le changement climatique et autres. Mais encore faut-il que les gouvernements et les organisations multilatérales élaborent leurs cadres réglementaires .
La chose la plus significative au niveau multilatéral, à la suite de toutes ces alertes, est peut-être la session spéciale sur l'intelligence artificielle, récemment organisée par le Conseil de sécurité de l'ONU, qui reconnaît dans cet outil un risque pour la sécurité mondiale. Dans ce cas, le secrétaire général Antonio Guterres a exhorté explicitement le Conseil à "aborder cette technologie avec un sentiment d'urgence, une perspective globale et une mentalité d'apprentissage", acceptant en ce sens les appels de certains États membres à la création d'un nouveau entité de l'ONU "pour soutenir les efforts collectifs visant à gouverner cette technologie extraordinaire". Un groupe convoqué par António Guterres présentera quelques propositions à la fin de l'année.
En septembre, une réunion ministérielle aura lieu à New York pour faire le point sur l'ordre du jour et dans la préparation du Sommet du Futur 2024, au cours duquel les chefs d'État et de gouvernement des États membres doivent se prononcer sur ces questions, et assumer un « pacte pour l'avenir ». Dans ce pacte, l'ONU devrait être dotée de capacités suffisantes pour prendre en charge les menaces stratégiques et existentielles mondiales, telles que l'intelligence artificielle.
Continuer à lire: