Programmeur.chprogrammeur.ch
  • Intelligence artificielle

L'intelligence artificielle pourrait déclencher une catastrophe pour l'humanité, selon une nouvelle étude

Publié le 13.03.2024
Le gouvernement américain doit agir « rapidement et de manière décisive » pour éviter les risques importants pour la sécurité nationale liés à l'IA, révèle un nouveau rapport. (Informations sur l'image illustrative)

Dans un rapport commandé par le gouvernement américain , des experts mettent en garde contre les risques pour la sécurité nationale posés par les progrès actuels de l'intelligence artificielle (IA), suggérant même qu'ils pourraient constituer une menace d'extinction pour l'espèce humaine si aucune action n'est menée « rapidement et efficacement ». décisif."

Selon le document, obtenu exclusivement par Time Magazine avant sa publication, le développement d' une IA de pointe présente des risques urgents et croissants, comparant son potentiel de déstabilisation de la sécurité mondiale à l'introduction d' armes nucléaires .

Le rapport, intitulé « Un plan d'action pour accroître la sûreté et la sécurité de l'IA avancée », a été commandé par le Département d'État américain en novembre 2022 dans le cadre d'un contrat fédéral de 250 000 $, selon les archives publiques.

Les développements actuels en matière d’IA présentent des risques urgents et croissants pour la sécurité nationale. (Informations sur l'image illustrative)

Il a été développé par Gladstone AI , une petite entreprise dédiée à proposer des sessions techniques sur l'IA aux employés du gouvernement, après plus d'un an de recherche et de dialogue avec plus de 200 employés du gouvernement, experts et travailleurs d'entreprises d'IA de pointe telles que OpenAI , Google DeepMind , Anthropic et Meta .

Parmi les recommandations du rapport figure la proposition visant à rendre illégal l'entraînement de modèles d'IA en utilisant plus d'un certain niveau de puissance de calcul, suggérant qu'un tel seuil soit établi par une nouvelle agence fédérale d'IA. Cette agence devrait également exiger que les entreprises d’IA situées à la « frontière » de l’industrie obtiennent l’autorisation du gouvernement pour former et déployer de nouveaux modèles au-dessus d’un certain seuil inférieur.

Le document suggère également d'envisager de toute urgence d'interdire la publication des « poids » (configurations internes) des modèles d'IA puissants , dont les violations pourraient être punies d'une peine de prison, et recommande un plus grand contrôle dans la fabrication et l'exportation des puces d'IA , ainsi qu'une augmentation dans le financement fédéral de la recherche « d’alignement » pour rendre l’IA avancée plus sûre.

La proposition intervient dans un contexte d'inquiétude croissante du public quant aux capacités et à l'impact potentiel des systèmes intelligents plus avancés, comme en témoigne l'adoption rapide d'outils tels que ChatGPT. (EFE/EPA/Wu Hao)

Des conversations avec des spécialistes de la sécurité de l'IA dans des laboratoires de pointe révèlent une inquiétude quant aux incitations perverses qui guident la prise de décision des dirigeants qui contrôlent leurs entreprises. « L’essor de l’IA avancée et de l’IA artificielle générale a le potentiel de déstabiliser la sécurité mondiale d’une manière qui rappelle l’introduction des armes nucléaires », note le rapport.

Cet avertissement intervient à une époque de développement technologique rapide, largement visible depuis le lancement du chatbot ChatGPT en novembre 2022, qui a conduit beaucoup à s'interroger sur les risques existentiels potentiels de l'IA future.

Depuis lors, de nouveaux outils, dotés de fonctionnalités accrues, ont continué à être publiés à un rythme accéléré. Alors que les gouvernements du monde entier discutent de la manière de mieux réglementer l'IA, les grandes entreprises technologiques construisent déjà l'infrastructure nécessaire pour former la prochaine génération de systèmes plus puissants, prévoyant dans certains cas d'utiliser 10 ou 100 fois plus de puissance de calcul.

Alors que les gouvernements discutent de la réglementation de l’IA, les grandes entreprises technologiques vont de l’avant pour développer des systèmes plus puissants. (Informations sur l'image illustrative)

Selon une enquête récemment menée par l' AI Policy Institute , plus de 80 % du public américain estime que l'IA pourrait accidentellement provoquer un événement catastrophique, et 77 % des électeurs pensent que le gouvernement devrait faire davantage pour réglementer l'IA .

Le Département d'État n'a pas répondu aux multiples demandes de commentaires sur le rapport du Time Magazine. Notamment, la première page du rapport précise que les recommandations « ne reflètent pas les opinions du Département d'État américain ou du gouvernement américain », montrant une distinction claire entre les conclusions du rapport et la position officielle du gouvernement.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.