
Les États-Unis doivent réagir « rapidement et de manière décisive » pour éviter les risques importants pour la sécurité nationale liés à l’intelligence artificielle (IA) qui pourraient constituer une « menace d’extinction pour l’espèce humaine », selon un rapport commandé par la Maison Blanche.
« Le développement actuel de l’IA aux frontières présente des risques urgents et croissants pour la sécurité nationale », indique le rapport obtenu par TIME avant sa publication.
« L’essor de l’IA avancée et de l’AGI (intelligence artificielle générale) a le potentiel de déstabiliser la sécurité mondiale d’une manière qui rappelle l’introduction des armes nucléaires », affirme l’étude.
L’AGI apparaît comme l’évolution future de cette technologie, qui pourrait même imiter les capacités cognitives humaines. Contrairement à l'intelligence artificielle traditionnelle, conçue pour des tâches spécifiques et nécessitant une programmation préalable, l'AGI a le potentiel de développer des machines capables d'apprendre et de résoudre des problèmes de manière autonome et généralisée.

L’étude financée par le Département d’État américain appelle à une interdiction temporaire de la création d’IA avancées dépassant un certain seuil de puissance de calcul.
De même, le rapport, commandé dans le cadre d'un contrat fédéral de 250 000 $, appelle également à « définir des pouvoirs d'urgence » pour le gouvernement « pour répondre aux incidents dangereux et rapides liés à l'IA », tels que la « robotique en essaim ».
Traiter les puces informatiques haut de gamme comme une contrebande internationale, et même surveiller la manière dont le matériel est utilisé, ne sont que quelques-unes des mesures importantes préconisées par la nouvelle étude.
Les auteurs de l'étude, les frères Jérémie et Edouard Harris du cabinet de conseil Gladstone , ont déclaré au TIME que leurs précédentes présentations sur les risques de l'intelligence artificielle avaient été entendues par des responsables gouvernementaux sans pouvoir agir. Cependant, cela a changé parce que son Bureau de la sécurité internationale et de la non-prolifération est spécifiquement chargé de contenir la propagation de nouvelles armes cataclysmiques.

Le mois dernier, les dirigeants de la Chambre ont franchi une étape clé vers l'élaboration d'un plan d'action sur l'intelligence artificielle avec la création d'un nouveau groupe de travail bipartisan, qui publiera des recommandations sur la manière dont le Congrès pourrait faire progresser l'innovation en matière d'intelligence artificielle tout en gardant les outils sous contrôle.
Cependant, les législateurs qui dirigent le groupe ont déclaré au Washington Post dans une interview conjointe que « mettre en œuvre une réponse complète sera probablement une tâche longue », car ils considèrent l'impact considérable de la technologie sur les élections, la sécurité nationale, l'économie et bien plus encore.
Le représentant républicain de Californie, Jay Obernolte, choisi par les dirigeants de la Chambre pour présider le groupe, a cité les efforts de l'Europe pour s'entendre sur une loi « globale » sur l'IA comme un exemple de mise en garde. "Si vous regardez les tentatives européennes visant à créer une loi générale pour réglementer l'IA, vous verrez certaines de leurs erreurs", a déclaré Obernolte, l'un des rares législateurs possédant une expertise en informatique. "Ils ont dû réécrire ce projet de loi à plusieurs reprises à mesure que le visage de l'IA changeait."
"Nous ne pouvons pas imaginer un projet de loi de 5 000 pages qui aborde 57 problèmes et tue l'IA", a déclaré le représentant démocrate Ted Lieu de Californie, coprésident du groupe de travail. "Cela va être un processus pluriannuel, et il y aura une variété de projets de loi différents qui tenteront d'aborder différents aspects de l'IA."