Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Créer des armes avec l'intelligence artificielle, le nouveau débat mondial sur la destruction massive.

Publié le 17.08.2024
L'IA pourrait avoir le potentiel d'être une menace pour l'intégrité des personnes. (Image illustrative Infobae)

Le but de la loi est de réduire le risque que l'IA soit utilisée pour créer de nouvelles menaces à la sécurité publique. Cela inclut la possibilité de développer des armes de destruction massive, telles que des armes biologiques, chimiques et nucléaires, ainsi que des armes avec des capacités cybernétiques offensives.

Le projet de « loi sur l'innovation sécurisée pour les modèles d'intelligence artificielle de pointe », présenté par le sénateur Scott Wiener, classe l'IA comme une « menace persistante avancée » possible.

Cette désignation fait référence à des adversaires hautement sophistiqués qui possèdent des ressources significatives et peuvent utiliser divers moyens d'attaque, tels que cybernétiques, physiques et de tromperie, pour menacer la sécurité.

Le projet de loi cherche à établir certaines mesures pour que les développeurs soient responsables si leur IA échoue. (California Legislative Information)

Ce que vise ce projet de loi

Le projet de loi propose des exigences pour que les développeurs mettent en œuvre des protocoles de sécurité et la capacité d'éteindre complètement les modèles s'ils représentent un risque critique.

Il crée également une nouvelle division au sein de l'Agence des opérations gouvernementales, chargée de superviser la conformité et d'émettre des orientations. De plus, des sanctions civiles et des protections pour les dénonciateurs sont établies.

Le projet de loi SB 1047 propose plusieurs sanctions pour les développeurs de modèles d'intelligence artificielle qui ne respectent pas ses dispositions. Celles-ci incluent :

Les modèles d'IA pourraient avoir la capacité de créer des armes biologiques qui mettraient l'humanité en danger. (Image illustrative Infobae)
  • Amendes civiles : Jusqu'à 10 % du coût de la puissance de calcul utilisée pour entraîner le modèle lors de la première infraction, et jusqu'à 30 % pour les infractions suivantes.
  • Actions civiles : Des mesures telles que la suppression du modèle et la suspension de son utilisation peuvent être imposées s'il représente une menace.
  • Dommages monétaires et punitifs : Pour les personnes affectées par des non-conformités.

De plus, des protections pour les employés dénonciateurs sont établies et la possibilité d'intervention judiciaire est prévue pour garantir la conformité aux normes.

L'IA pourrait avoir le potentiel d'être une menace pour la cybersécurité, selon le projet de loi. (Image illustrative Infobae)

Il convient de noter qu'un projet de loi est une proposition législative formelle présentée devant une entité législative dans le but de devenir loi.

Bien qu'il propose de nouvelles règles ou modifications, ce n'est pas encore une loi en soi. Le projet doit passer par un processus de révision, de débat et d'approbation par les législateurs. Ce n'est qu'après ce processus, et s'il reçoit le feu vert final, que le projet devient loi et entre en vigueur.

Quelle est la prochaine étape pour ce projet de loi

Le projet de loi SB 1047 est désormais prêt à être voté par l'ensemble de l'Assemblée de Californie. S'il est approuvé là-bas, il devra revenir au Sénat de Californie pour un autre vote. Si le projet est approuvé dans les deux chambres, il sera envoyé au gouverneur de Californie, Gavin Newsom, qui décidera s'il le signe et le transforme en loi ou s'il le veto.

Google et d'autres entreprises leaders dans le développement de modèles d'IA ont signé un accord volontaire pour créer des technologies sûres. REUTERS/Steve Marcus/File Photo

Apple, Google et d'autres entreprises s'engagent à créer des IA sûres

Apple, Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI ont signé un engagement volontaire pour promouvoir le développement de modèles d'intelligence artificielle sûrs pour l'humanité. Les points clés de l'accord incluent :

  • Effectuer des évaluations internes et externes des modèles et systèmes, abordant l'utilisation abusive, les risques sociaux et les préoccupations de sécurité nationale, telles que la bio-sécurité et la cybersécurité.
  • Interdire la création de modèles ayant la capacité de s'auto-répliquer ou de faire des copies d'eux-mêmes.
  • Développer des mécanismes permettant aux utilisateurs d'identifier si le contenu audio ou visuel a été généré par l'IA.
  • Informer publiquement sur les capacités des modèles ou systèmes.

Cet accord volontaire fait partie d'un décret exécutif émis par le président des États-Unis, Joe Biden. Le document établit des mesures pour atténuer les risques de sécurité associés à l'intelligence artificielle, protéger la vie privée des Américains, promouvoir l'équité et les droits civils, défendre les consommateurs et les travailleurs, et encourager l'innovation et la concurrence.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.