Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Le débat s'intensifie autour du projet de loi sur l'intelligence artificielle promulgué par la Californie.

Publié le 17.08.2024
Le projet de loi exige que les entreprises d'IA mettent en œuvre des protocoles de sécurité et disposent d'un bouton d'arrêt d'urgence (Image illustrative Infobae)

Le média technologique, TechCrunch, a souligné les modifications significatives apportées pour apaiser les critiques. L'un des changements les plus remarquables est la suppression de la peine pour parjure et la création d'une nouvelle entité gouvernementale, initialement prévue comme la Division des Modèles Frontaliers. Désormais, les développeurs devront soumettre leurs mesures de sécurité directement au procureur général.

“Les amendements récents semblent davantage concerner l'apparence que la substance”, a déclaré Russell Wald de l'Université de Stanford, suggérant que les changements n'affectent pas le projet central en tant que tel.

Le sénateur Scott Wiener a conçu la Loi sur l'Innovation Securisée et Protégée pour les Modèles de l'Intelligence Artificielle de Frontière de Californie (AP)

Qu'est-ce que le projet de loi SB 1047

La loi vise à établir des régulations pour les grands modèles d'intelligence artificielle (IA) développés dans l'État. Son objectif principal est de prévenir que ces puissants systèmes d'IA ne causent des dommages critiques, tels que des cyberattaques entraînant des pertes de millions de dollars ou le développement d'armes létales.

Les principales mesures proposées sont :

  • Obliger les entreprises développant de grands modèles d'IA (coûtant plus de 100 millions USD à former) à mettre en place des protocoles de sécurité pour éviter les abus.
  • Exiger que ces systèmes disposent d'un “bouton d'arrêt d'urgence” permettant de les désactiver complètement s'ils échappent à tout contrôle.
  • Interdire la distribution de modèles d'IA pouvant causer des “dommages critiques” tels que définis par la loi.
  • Exiger des audits externes annuels pour vérifier la conformité aux protocoles de sécurité.
  • Créer un conseil de surveillance pour ces modèles avancés d'IA au sein d'une nouvelle agence d'État.
  • Permettre des amendes de millions de dollars aux entreprises qui enfreignent la loi.

Le projet de loi SB 1047 vise à éviter des “dommages critiques” dus à une mauvaise utilisation de grands modèles d'IA, comme la création d'armes ou des cyberattaques causant des pertes significatives. Ces dommages pourraient inclure “l'utilisation par un acteur malveillant d'un modèle d'IA pour créer une arme causant de nombreuses victimes” ou des cyberattaques générant plus de 500 millions de dollars de dommages.

La législation propose des audits externes annuels pour vérifier la conformité aux protocoles de sécurité en IA REUTERS

Bien que le projet ait été critiqué pour son approche des scénarios dystopiques, il bénéficie également d'un certain soutien. Dan Hendrycks, du Centre pour la Sécurité de l'IA, a déclaré à TechCrunch que ces sauvegardes sont nécessaires pour éviter des incidents graves qui pourraient entraver de futurs progrès dans l'industrie.

Malgré ce soutien, une lettre signée par huit membres de la Chambre des Représentants de Californie a appelé le gouverneur Gavin Newsom à opposer son veto au projet si celui-ci parvient sur son bureau. Ils soutiennent que ce projet de loi pourrait freiner l'innovation technologique et entrepreneuriale dans l'État.

Certaines voix éminentes, comme Andrew Ng de Stanford, ont indiqué que la loi constitue “une attaque contre le code ouvert”. Un article du magazine américain Fortune a également souligné l'opinion de Fei-Fei Li, qui soutenait que la loi nuirait à l'écosystème naissant de l'IA en Californie.

Pendant ce temps, le sénateur Wiener soutient que, bien que la loi ait subi d'importants changements, elle reste une mesure cruciale pour anticiper d'éventuels dommages technologiques. Le sénateur a déclaré que “nous ne devons pas attendre que quelque chose de mauvais se produise. Il faut simplement agir avant cela”.

Une lettre de huit membres de la Chambre des Représentants de Californie appelle le gouverneur Gavin Newsom à opposer son veto au projet - (Image illustrative Infobae)

L'industrie technologique observe de près comment les événements vont se dérouler. Si elle est approuvée, la loi pourrait établir un cadre réglementaire obligeant les entreprises à mettre en œuvre des protocoles de sécurité et à avoir des audits externes annuels pour évaluer leurs pratiques.

L'équilibre entre réglementation et innovation reste un sujet important. Buffy Wicks, membre de l'Assemblée de l'État de Californie, a affirmé après la réunion du comité : “L'objectif est d'obtenir une réglementation qui offre des protections, mais sans freiner l'innovation ni le développement économique lié à l'intelligence artificielle.”

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.