
Dans un rapport commandé par le gouvernement américain , des experts mettent en garde contre les risques pour la sécurité nationale posés par les progrès actuels de l'intelligence artificielle (IA), suggérant même qu'ils pourraient constituer une menace d'extinction pour l'espèce humaine si aucune action n'est menée « rapidement et efficacement ». décisif."
Selon le document, obtenu exclusivement par Time Magazine avant sa publication, le développement d' une IA de pointe présente des risques urgents et croissants, comparant son potentiel de déstabilisation de la sécurité mondiale à l'introduction d' armes nucléaires .
Le rapport, intitulé « Un plan d'action pour accroître la sûreté et la sécurité de l'IA avancée », a été commandé par le Département d'État américain en novembre 2022 dans le cadre d'un contrat fédéral de 250 000 $, selon les archives publiques.

Il a été développé par Gladstone AI , une petite entreprise dédiée à proposer des sessions techniques sur l'IA aux employés du gouvernement, après plus d'un an de recherche et de dialogue avec plus de 200 employés du gouvernement, experts et travailleurs d'entreprises d'IA de pointe telles que OpenAI , Google DeepMind , Anthropic et Meta .
Parmi les recommandations du rapport figure la proposition visant à rendre illégal l'entraînement de modèles d'IA en utilisant plus d'un certain niveau de puissance de calcul, suggérant qu'un tel seuil soit établi par une nouvelle agence fédérale d'IA. Cette agence devrait également exiger que les entreprises d’IA situées à la « frontière » de l’industrie obtiennent l’autorisation du gouvernement pour former et déployer de nouveaux modèles au-dessus d’un certain seuil inférieur.
Le document suggère également d'envisager de toute urgence d'interdire la publication des « poids » (configurations internes) des modèles d'IA puissants , dont les violations pourraient être punies d'une peine de prison, et recommande un plus grand contrôle dans la fabrication et l'exportation des puces d'IA , ainsi qu'une augmentation dans le financement fédéral de la recherche « d’alignement » pour rendre l’IA avancée plus sûre.

Des conversations avec des spécialistes de la sécurité de l'IA dans des laboratoires de pointe révèlent une inquiétude quant aux incitations perverses qui guident la prise de décision des dirigeants qui contrôlent leurs entreprises. « L’essor de l’IA avancée et de l’IA artificielle générale a le potentiel de déstabiliser la sécurité mondiale d’une manière qui rappelle l’introduction des armes nucléaires », note le rapport.
Cet avertissement intervient à une époque de développement technologique rapide, largement visible depuis le lancement du chatbot ChatGPT en novembre 2022, qui a conduit beaucoup à s'interroger sur les risques existentiels potentiels de l'IA future.
Depuis lors, de nouveaux outils, dotés de fonctionnalités accrues, ont continué à être publiés à un rythme accéléré. Alors que les gouvernements du monde entier discutent de la manière de mieux réglementer l'IA, les grandes entreprises technologiques construisent déjà l'infrastructure nécessaire pour former la prochaine génération de systèmes plus puissants, prévoyant dans certains cas d'utiliser 10 ou 100 fois plus de puissance de calcul.

Selon une enquête récemment menée par l' AI Policy Institute , plus de 80 % du public américain estime que l'IA pourrait accidentellement provoquer un événement catastrophique, et 77 % des électeurs pensent que le gouvernement devrait faire davantage pour réglementer l'IA .
Le Département d'État n'a pas répondu aux multiples demandes de commentaires sur le rapport du Time Magazine. Notamment, la première page du rapport précise que les recommandations « ne reflètent pas les opinions du Département d'État américain ou du gouvernement américain », montrant une distinction claire entre les conclusions du rapport et la position officielle du gouvernement.