Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Joe Biden promeut des normes pour une utilisation éthique de l’intelligence artificielle générative

Publié le 20.12.2023
L'administration de Joe Biden fixe la première date limite pour la participation du public à la réglementation sur l'IA. (Informations sur l'image illustrative)

L'administration de Joe Biden a récemment lancé des processus d'élaboration de normes et de lignes directrices clés qui garantiront le déploiement sûr de l'intelligence artificielle générative , ainsi que l'évaluation et la protection de ces systèmes avancés. La demande de contribution du public, annoncée par le ministère américain du Commerce par l'intermédiaire du National Institute of Standards and Technology (NIST) , a une date limite fixée au 2 février .

L’intelligence artificielle générative déclenche le débat sur son impact sur la main-d’œuvre et la stabilité politique. (Informations sur l'image illustrative)

Le NIST travaille à l'élaboration de lignes directrices d'évaluation, à la promotion du développement de normes et à la fourniture d'environnements de test pour les systèmes d'IA. L'agence sollicite les commentaires des deux sociétés spécialisées dans l'IA et du grand public. Ces contributions se concentreront sur la gestion des risques de l’IA générative et sur la réduction des risques de tromperie générée par l’IA.

La technologie de l’IA générative est capable de créer du texte, des photos et des vidéos en réponse à des invites ouvertes et a suscité à la fois enthousiasme et inquiétude quant à son impact potentiel sur l’obsolescence des emplois, l’instabilité électorale et les effets potentiellement catastrophiques des superpuissances humaines.

L'ordonnance de Biden demande aux agences d'établir des normes de test et de traiter les risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité associés. Le NIST est en train de définir des lignes directrices en matière de tests qui incluent le « red teaming », là où cela est le plus bénéfique pour l'évaluation et la gestion des risques liés à l'IA, et d'établir les meilleures pratiques pour ce faire.

Le « red-teaming » externe est utilisé depuis des années en cybersécurité pour identifier de nouveaux risques, un terme qui fait référence aux simulations de la guerre froide où l'ennemi était appelé « équipe rouge ».

Les secteurs spécialisés et les citoyens sont appelés à définir l'avenir de l'intelligence artificielle aux États-Unis (Illustrative Image Infobae)

En août, le premier événement d'évaluation publique « équipe rouge » a eu lieu lors d'une grande conférence sur la cybersécurité, organisée par AI Village, SeedAI et Humane Intelligence. Des milliers de participants ont tenté de provoquer des pannes de systèmes afin de « mieux comprendre les risques que présentent ces systèmes », selon la Maison Blanche. L’événement « a démontré comment les réseaux externes peuvent être un outil efficace pour identifier les nouveaux risques liés à l’IA ».

(Avec des informations de Reuters)

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.