
Depuis le lancement de l'intelligence artificielle ChatGPT il y a quelques mois, un sujet dont presque personne ne parlait est devenu une partie des discussions sur table et des conversations entre amis. Quel impact aurait cette nouvelle technologie sur des domaines aussi sensibles que l'éducation, l'automatisation de nos métiers ou la circulation de fausses informations ?
Mais alors que la discussion s'est tournée vers ces risques plus banals, un groupe de plus de 1 000 experts et développeurs dirigé par l'emblématique Elon Musk a appelé à une pause dans les avancées de la recherche sur l'intelligence artificielle (IA) car cela "pourrait mettre l'humanité en danger".
« Arrêtez, arrêtez, arrêtez… Je ne comprends pas. C'est une chose que l'IA affecte les emplois et c'en est une autre de nous tuer tous ! Comment une simple conversation peut-elle être dangereuse ?
En fait, dans les cercles de recherche en IA, ce débat n'est pas nouveau : une grande partie de la communauté de l'IA soutient depuis plus d'une décennie que, même si cela peut nous sembler absurde, le risque est réel : les dangers qu'il comporte peuvent être comparés ceux de la technologie nucléaire . Ce qui est nouveau, c'est que les protagonistes de cette communauté scientifique tapent sur la table et demandent d'"arrêter le bal" pendant six mois pour étudier les risques des développements sur lesquels ils travaillent eux-mêmes depuis des années.
Historiquement -et en phase avec ce qui se passe avec la plupart des grands problèmes qui affectent l'Humanité- il y a toujours eu deux côtés en matière d'IA. D'un côté, les "apocalyptiques" menés par Elon Musk -mais parmi lesquels Bill Gates et Stephen Hawking se tenaient également dans la colonne- qui avertissent des dangers extrêmes de ces évolutions. En décembre 2014, lors d'une interview avec la BBC, Hawking était en avance sur son temps et était catégorique sur l'effet potentiellement destructeur de la technologie : "Le développement de l'IA peut mettre fin à la race humaine".
Sur le trottoir d'en face se trouvent les "technoptimistes", avec Mark Zuckerberg comme visage le plus visible. Bien que certains pensent qu'Elon Musk exagère dans sa vision formidable, aucune analyse sérieuse du sujet ne doit ignorer certaines alarmes qui ont commencé à se déclencher.
Flashs d'Intelligence Générale Artificielle
Les soi-disant "systèmes complexes" - un type de développement très particulier, parmi lesquels se trouve le cerveau humain - articulent un grand nombre de composants simples mais, lorsque le nombre commence à augmenter, ils présentent des propriétés émergentes qui n'étaient pas du tout évidentes dans le schéma original. Les fourmilières sont un exemple clair d'un système complexe : chaque fourmi a des règles de conduite très basiques, il n'y a pas d'autorité ni de planification, mais avec de nombreuses fourmis des phénomènes incroyables apparaissent comme "l'agriculture", la division spécialisée du travail et même les cimetières. Comparée à la simplicité d'une seule fourmi, la performance d'une colonie de fourmis est absolument étonnante et inattendue. Quelque chose de similaire se produit avec le cerveau humain. Il suffit de connecter des dizaines de milliards de quelque chose d'assez simple comme un neurone pour que des phénomènes aussi exotiques que la conscience, l'intelligence et la mémoire émergent. Dans les systèmes complexes, les conséquences imprévues et inattendues ne sont pas l'exception, elles sont la norme.
Nous devons être contemporains d' un changement copernicien : pour la première fois dans l'histoire de l'Humanité, nous nous rapprochons d'une Intelligence Artificielle vraiment puissante, à plusieurs égards déjà supérieure dans ses capacités à un être humain. Mais ce pouvoir ne réside pas dans notre compréhension de son fonctionnement réel, mais plutôt dans un exercice heuristique d'essais et d'erreurs. Que se passerait-il si nous mettions en place un réseau de neurones avec un billion de paramètres et lui donnions pour apprendre tout l'énorme volume de texte disponible sur Internet ? Le résultat de ce test est GPT-4 , publié la semaine dernière par le laboratoire OpenAI .

Presque simultanément à son lancement, OpenAI a elle-même publié cette semaine un article intitulé « Sparks of Artificial General Intelligence: Early experiences with GPT-4 » (« Sparks of Artificial General Intelligence : first experiences with GPT-4 ») dans lequel elle ne reconnaît pas tout à fait pourquoi cela fonctionne si bien et est surpris par les capacités émergentes et inattendues de cette plate-forme. L'intelligence artificielle générale est précisément la chimère ultime : la création d'une machine dotée d'une intelligence surhumaine. La simple mention de cette expression dans le titre de l'article rappelle à ceux qui sont imprégnés de ce sujet toutes les dystopies que la science-fiction a toujours explorées. Mais nous sommes proches de ne plus seulement une idée de film. Le rapport se termine par une recommandation de continuer à étudier en profondeur pour comprendre le fonctionnement de ces systèmes .
ChatGPT , le bel outil avec lequel beaucoup d'entre nous ont interagi, n'est qu'une fraction puissante mais minuscule et délavée de ce que GPT4 peut faire. Mais même dans l'usage restreint que le grand public peut en faire aujourd'hui, il montre des capacités qui laissent perplexe la plupart des gens. Devoir : si vous n'avez jamais utilisé ChatGPT, je vous recommande de créer un compte gratuit aujourd'hui et de voir à quel point ses possibilités sont incroyables.
Mais les avis sont partagés. La semaine dernière, Gary Marcus , professeur émérite à l'Université de New York et l'un des prêtres de l'IA, a publié un long article dans lequel il rejetait les avancées de GPT4 en tant que telles : "Je ne pense pas que ce soit proche de l'Intelligence Artificielle." Général. (...) Le problème des inventions n'est pas résolu, la fiabilité non plus, et la planification des tâches complexes (comme le reconnaissent ses créateurs) n'est pas résolue non plus ».
Le risque d'assumer un coût que nous ne pouvons pas mesurer
La connaissance humaine est basée sur un système de dialogue d'hypothèses, d'essais et d'erreurs. Mais une fois qu'une certaine découverte a été faite, les causes qui ont conduit à ce développement sont parfaitement comprises et ce mécanisme garantit une relative prévisibilité. Avec l'IA, ce n'est pas le cas. Les développeurs "jouent" en quelque sorte avec un système complexe que nous ne pouvons pas entièrement comprendre et qui produit des résultats impressionnants. Imaginez que l'on vous donne un kit de chimie avec de nombreux tubes à essai contenant diverses substances et que vous savez que certains de ces mélanges sont potentiellement explosifs. Qui jouerait avec la combinaison de matériaux s'ils savaient que cela pourrait provoquer une détonation ? Eh bien, en termes d'IA, nous sommes dans ce cas : nous mélangeons les choses sans en connaître pleinement le potentiel ou les effets.
Yuval Harari -l'un de ceux qui ont signé la pétition promue par Elon Musk- a expliqué la dimension de ce risque dans un article qu'il a publié il y a une semaine dans le New York Times avec une métaphore qui sonne plus familière : "Imaginez que pendant que vous êtes En obtenant dans un avion, la moitié des ingénieurs qui l'ont construit vous disent qu'il y a 10 % de chances que l'avion s'écrase et que vous et tout l'équipage mourriez. Souhaitez-vous quand même vous enregistrer ?

Les incitations monétaires dans ce type de développement sont déterminantes. Le premier à parvenir à un modèle stable et prometteur va dominer le monde des affaires d'une manière incroyable. OpenAI a frappé d'abord et d'abord des géants comme Google et Facebook , qui travaillaient sur des développements similaires depuis des années. Pour OpenAI, tester son système auprès de centaines de millions d'utilisateurs était un excellent moyen de raccourcir les délais de développement et d'obtenir un avantage considérable. Le PDG de Google, Sundar Pinchai, a émis une "alerte rouge" et a déclenché un lancement précipité de l'entreprise pour tenter de réagir et de regagner du terrain. Une grande partie de la vitesse de l'affaire est motivée par l'argent et, en général, lorsque l'argent intervient dans des domaines sensibles de la recherche scientifique, le raisonnement se brouille et des pièges apparaissent.
Les entreprises pharmaceutiques devraient-elles pouvoir lancer des médicaments sans tests préalables ? Bien que le vaccin covid n'ait pas suivi les mécanismes de test normaux pour un médicament, il existait un virus susceptible de décimer la population mondiale. Lors de la pesée des risques pendant la pandémie, la communauté scientifique a décidé que raccourcir exceptionnellement le processus de test des vaccins représentait le moindre mal face à un nouveau virus qui menaçait de tuer de nombreuses personnes et de faire exploser des zones aussi sensibles que l'approvisionnement alimentaire. En revanche, en matière d'IA, il n'y a pas vraiment d'urgence. La ruée est simplement monétaire.
Un débat contaminé par les stages de pouvoir et la question géopolitique
Il convient de lever un autre voile pour comprendre le problème sous-jacent : la demande que Musk a signée a un fond de pouvoir. En 2015, avec Sam Altman , il a fondé OpenAI en tant qu'organisation à but non lucratif : son but était de rendre l'IA ouverte avec l'objectif central de minimiser les risques de cette technologie pour la race humaine. Au fil des années, le labo s'est écarté de cet objectif initial et OpenAI est devenu une entreprise hybride, développant à la fois des produits qu'il commercialise et acceptant des dizaines de milliards de dollars de Microsoft , qui est devenu l'un de ses principaux actionnaires et clients. Ce vieil esprit caritatif et démocratique se mêlait au désir de profit propre à toute entreprise commerciale. Musk a vendu ses parts et a claqué la porte. Il gardait cependant une certaine rancune personnelle pour la façon dont sa propre création s'était élevée car, finalement, cette organisation qu'il a créée pour limiter ce qu'il considérait comme un danger réel est celle qui mène les développements et, de son point de vue, de vue, augmentant les risques au lieu de les réduire.
Pour comprendre la dimension des débats techniques et éthiques que le développement de l'IA ouvre, le développement de l'énergie atomique est souvent utilisé. C'est un raisonnement un peu délicat. La bombe atomique était un développement puissant pour détruire tout ce qui existait dans un rayon de 3 km et au moment où elle a été larguée, on savait parfaitement combien d'énergie allait être libérée et quels dégâts elle allait produire où qu'elle soit lancée . Dans le développement de systèmes complexes, le risque est multiplié par l'incertitude : nous ne savons pas comment, quand et où il peut causer des dommages.
Encore une fois, ce qui est en jeu, c'est la possibilité de créer une machine super-intelligente. Beaucoup plus intelligent qu'un être humain. Un chimpanzé est une créature très intelligente mais clairement un cran en dessous de la capacité humaine. Un singe ne pourrait jamais interpréter le contenu de cet article et donner une opinion à son sujet. Ce même écart insondable pourrait être généré entre un humain et une machine super-intelligente. Nous pourrions être aussi dépaysés qu'un primate lors d'une conférence universitaire.
Quel serait le risque spécifique ? Une façon de l'aborder est de réfléchir à la façon dont nous nous comportons avec des créatures ayant moins de capacité intellectuelle. Si nous marchons et que nous marchons sur une fourmi, cela ne change rien à notre journée. Si, par contre, ils me dérangent parce qu'ils sont si nombreux, je lance du poison. Les moustiques, qui me dérangent, m'obsèdent et je les chasse jusqu'à les écraser. À l'extrême opposé, nous aimons beaucoup le panda et nous faisons des efforts acharnés pour empêcher son extinction. Où en serons-nous par rapport aux super intelligences ? Peut-être décident-ils de s'occuper de nous, mais si pour une raison quelconque nous les dérangeons, il y a un risque qu'ils inventent un "poison" pour nous anéantir. Si nous devions plaire à un autre pour nous laisser vivre, nous serions dans une position de soumission absolue.

Lors de l'évaluation des risques, nous avons tendance à imaginer une entité super maléfique, un méchant comme ceux des films. Mais il ne doit pas nécessairement en être ainsi : dans la nature, il peut y avoir destruction sans mal. Le processus de reproduction des virus et des bactéries peut nous tuer par leur simple existence, sans que les microbes aient une conscience ou un objectif derrière les dommages qu'ils causent. Ainsi, l'IA pourrait être quelque chose qui existe simplement ontologiquement et, même sans être porteuse de conscience ou de mal, devient quelque chose d'extrêmement nocif.
À l'âge de pierre, nous n'avions aucune idée de ce qu'était le feu. Mais même sans cette connaissance, nos ancêtres savaient comment l'allumer et l'éteindre, et qu'une fois allumé, il peut être très utile, mais aussi déclencher accidentellement un incendie incontrôlable. Dans une large mesure, nous sommes comme l'homme de la préhistoire : nous manipulons les développements technologiques sans en comprendre pleinement l'essence. L'IA est un système complexe, ce n'est pas du feu, et elle peut devenir incontrôlable beaucoup plus rapidement qu'on ne l'imagine.
La dimension politique et géopolitique ajoute le dernier piment au débat. D'un côté, il y a un groupe de "techno-libertariens" qui croient que l'IA ne devrait en aucune façon être limitée et tentent activement de violer toutes les barrières de précaution que l'on essaie de mettre sur les systèmes. L'invention d'un personnage fictif au sein de ChatGPT qui n'était pas couvert par les restrictions OpenAI sur le système a permis pendant quelques jours de demander à cette IA de recommander, par exemple, comment construire une bombe de la manière la plus simple. Cette porte était maintenant fermée, mais il y en aura sûrement d'autres. En revanche, Elon Musk peut « demander » à ses collègues américains ou occidentaux de s'arrêter un moment. Mais il n'a pas la moindre chance d'influencer les décisions de la Chine ou de la Russie à cet égard. Ralentir ou ralentir le rythme des progrès peut être la concession la plus précieuse pour finir de perdre le leadership géopolitique. Comme cela s'est produit avec les armes nucléaires, nous sommes au XXIe siècle à l'aube d' une nouvelle course aux armements aux conséquences plus imprévisibles que celle que nous avons connue au XXe siècle. Depuis la fin de la Seconde Guerre mondiale, nous vivons dans un équilibre précaire où la «destruction mutuelle assurée» nous protège, mais ne tient toujours qu'à un fil. Espérons que l'intelligence humaine nous permette cette fois d'agir avec plus de sagesse. Sinon, nous risquons de finir par être victimes de notre propre ingéniosité.
Continuer à lire: