
Un récent rapport publié par l'Artificial Intelligence Policy Institute (IAPI) met en lumière la façon dont les propositions législatives sur l'intelligence artificielle ( IA ) s'alignent sur l'opinion publique aux États-Unis , à une époque où la réglementation de l'IA est devenue une question pertinente dans la politique du pays.
Pour l'établir, l'IAPI s'est basée sur une enquête menée auprès de 1.118 électeurs au cours de la période du 2 au 6 septembre de cette année.
Les résultats de l’enquête suggèrent un fort soutien à la réglementation de l’IA et à la responsabilité des entreprises technologiques en cas de préjudice causé par leurs modèles d’IA .
Selon Daniel Colson, directeur exécutif de l' Artificial Intelligence Policy Institute, « les électeurs sont préoccupés par les progrès de l'IA , mais pas par le retard des États-Unis sur la Chine ; « Ils s’inquiètent de sa puissance, de la rapidité avec laquelle il peut le faire et du nombre de personnes qui y ont accès. »

Principales conclusions de l'enquête
Responsabilité d'entreprise : 73 % des personnes interrogées estiment que les entreprises d'IA devraient être tenues responsables des dommages causés par la technologie qu'elles créent, tandis que seulement 11 % pensent le contraire.
Transparence dans les publicités politiques : 77 % des électeurs soutiennent une loi exigeant que les publicités politiques divulguent leur utilisation de l'IA , avec un solide 64 % qui la soutiennent fortement. En revanche, seuls 10 % s'opposent à cette législation, ce qui témoigne d'une volonté claire de transparence dans la publicité politique .
Audit gouvernemental : 64% des électeurs soutiennent la création d'un organisme gouvernemental chargé de l'audit de l'IA , alors que seulement 14% s'opposent à cette mesure.

Faire face aux menaces inconnues : concernant cet aspect, 46 % des votants préfèrent que les politiques en matière d’IA se concentrent sur la lutte contre les menaces inconnues, tandis que seulement 22 % se concentrent sur les menaces à court terme.
Gardez l’IA hors des mains des mauvais acteurs : 65 % des électeurs donnent la priorité à garder l’IA hors des mains des mauvais acteurs, contre 22 % qui donnent la priorité à apporter les avantages de l’IA à tout le monde.
Restreindre l'accès aux entreprises chinoises : 73 % des électeurs souhaitent restreindre l'accès des entreprises chinoises au cloud computing des entreprises américaines , tandis que seulement 9 % estiment que les États-Unis devraient continuer à leur en permettre l'accès.

Les propositions ne correspondent pas
Même si les politiciens et les candidats à la présidence avancent de plus en plus de propositions pour réglementer l'IA , elles ne correspondent pas toujours à ce que veulent réellement les électeurs , selon l'IAPI.
À ce sujet, le premier à présenter un plan politique en matière d’IA a été le candidat républicain à la primaire présidentielle , Will Hurd.
Dans son plan, Hurd présente des propositions telles qu'une réglementation stricte pour les exportations d'IA , le déploiement de l'IA le long de la frontière américaine et une compensation pour les créateurs d'IA ; ainsi que l'introduction de matières connexes à l'école secondaire.
Cependant, dans le cas de Hurd, une seule des quatre propositions correspondrait aux préoccupations à long terme des répondants.

Certaines, comme la loi américaine Bipartisan AI Framework Act, incluent des régimes de licences et d’audit qui pourraient limiter le déploiement et la prolifération de systèmes à risque, mais aucune de ces politiques ne traite explicitement des capacités de mise à l’échelle ou de la superintelligence.
Le cadre SAFE Innovation AI , proposé par le sénateur Chuck Schumer, se concentre sur la sécurité contre les adversaires mais pas sur les abus ou la négligence aux États-Unis .
Le projet de charte des droits de l'IA de la Maison Blanche , quant à lui, se concentre sur les méfaits actuels des consommateurs, mais pourrait constituer la base de futures politiques traitant d'applications plus dangereuses de l'IA .
La loi sur la divulgation de l'IA introduite par le représentant Ritchie Torres exige que le contenu généré par l'IA divulgue son origine artificielle , mais elle ne traite pas de la nature transformatrice de l'IA.
La Real Political Advertising Act des sénateurs Amy Klobuchar, Cory Booker et Michael Bennet cible les publicités politiques générées par l’IA , les obligeant à révéler leurs origines.