
De grandes sociétés américaines d'intelligence artificielle participeront à une initiative gouvernementale visant à élaborer une réglementation fédérale sur cette technologie afin de garantir qu'elle soit déployée de manière sûre et responsable, a annoncé jeudi le département du Commerce .
OpenAI, Anthropic, Microsoft Corp., Meta Platforms Inc. et Google d' Alphabet Inc. font partie des plus de 200 membres du nouveau Consortium de l'Institut de sécurité de l'intelligence artificielle du ministère, a déclaré la secrétaire au Commerce, Gina Raimondo . Sont également sur la liste Apple Inc, Amazon Inc, Hugging Face Inc et IBM .
Les principaux acteurs de l'industrie travailleront avec l' Institut national des normes et de la technologie , une agence relevant du commerce, ainsi qu'avec d'autres entreprises technologiques, des groupes de la société civile, des universitaires et des représentants des gouvernements étatiques et locaux pour établir des normes de sécurité liées à l' IA .

« Le président Biden nous a demandé de faire tout notre possible pour atteindre deux objectifs clés : établir des normes de sécurité et protéger notre écosystème d’innovation », a déclaré Raimondo .
Les grandes entreprises technologiques ont convenu avec l’administration Biden et les décideurs politiques de Washington de réglementer l’intelligence artificielle à un moment où la technologie progresse rapidement et est sur le point de perturber les industries.
Les responsables fédéraux visent à maintenir le leadership de l'Amérique dans le développement de l'IA , en cherchant à établir des normes qui protègent les Américains contre les dangers tels que la désinformation et les violations de la vie privée, mais en même temps promouvoir le potentiel de la technologie de l'IA pour stimuler le progrès dans les soins de santé, l'éducation. et d'autres secteurs.

« Le progrès et la responsabilité doivent aller de pair. Travailler ensemble entre l'industrie, le gouvernement et la société civile est essentiel si nous voulons développer des normes communes autour d' une IA sûre et digne de confiance », a déclaré Nick Clegg , président des affaires mondiales chez Meta , dans un communiqué. "Nous sommes ravis de faire partie de ce consortium et de collaborer étroitement avec l'AI Safety Institute."
L'initiative de jeudi fait partie du vaste décret signé par le président Joe Biden l'automne dernier, qui charge le ministère du Commerce de faciliter l'élaboration de normes pour la sûreté, la sécurité et les tests des modèles d'IA , ainsi que de normes pour le filigrane de l'IA . contenu généré.
Des startups de premier plan du secteur, notamment Scale AI , qui fournit des données de formation pour les modèles d'IA génératifs, et Altana AI , qui cartographie les chaînes d'approvisionnement mondiales à l'aide de l'IA , participeront également à l'établissement de normes de sécurité .

"Avec cela, nous contribuons non seulement à une utilisation responsable de l'IA , mais nous renforçons la position des États-Unis en tant que leader mondial dans le domaine de l'intelligence artificielle", a déclaré John Brennan , directeur général du secteur public de Scale AI , dans un communiqué. .
©2024 Bloomberg