
L'administration de Joe Biden a récemment lancé des processus d'élaboration de normes et de lignes directrices clés qui garantiront le déploiement sûr de l'intelligence artificielle générative , ainsi que l'évaluation et la protection de ces systèmes avancés. La demande de contribution du public, annoncée par le ministère américain du Commerce par l'intermédiaire du National Institute of Standards and Technology (NIST) , a une date limite fixée au 2 février .

Le NIST travaille à l'élaboration de lignes directrices d'évaluation, à la promotion du développement de normes et à la fourniture d'environnements de test pour les systèmes d'IA. L'agence sollicite les commentaires des deux sociétés spécialisées dans l'IA et du grand public. Ces contributions se concentreront sur la gestion des risques de l’IA générative et sur la réduction des risques de tromperie générée par l’IA.
La technologie de l’IA générative est capable de créer du texte, des photos et des vidéos en réponse à des invites ouvertes et a suscité à la fois enthousiasme et inquiétude quant à son impact potentiel sur l’obsolescence des emplois, l’instabilité électorale et les effets potentiellement catastrophiques des superpuissances humaines.
L'ordonnance de Biden demande aux agences d'établir des normes de test et de traiter les risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité associés. Le NIST est en train de définir des lignes directrices en matière de tests qui incluent le « red teaming », là où cela est le plus bénéfique pour l'évaluation et la gestion des risques liés à l'IA, et d'établir les meilleures pratiques pour ce faire.
Le « red-teaming » externe est utilisé depuis des années en cybersécurité pour identifier de nouveaux risques, un terme qui fait référence aux simulations de la guerre froide où l'ennemi était appelé « équipe rouge ».

En août, le premier événement d'évaluation publique « équipe rouge » a eu lieu lors d'une grande conférence sur la cybersécurité, organisée par AI Village, SeedAI et Humane Intelligence. Des milliers de participants ont tenté de provoquer des pannes de systèmes afin de « mieux comprendre les risques que présentent ces systèmes », selon la Maison Blanche. L’événement « a démontré comment les réseaux externes peuvent être un outil efficace pour identifier les nouveaux risques liés à l’IA ».
(Avec des informations de Reuters)