
Le géant technologique Microsoft exhorte le Congrès à adopter des lois qui rendent illégal l'utilisation de voix et d'images générées par IA pour escroquer, et qui exigent que les entreprises d'IA développent des technologies pour identifier les images falsifiées créées avec leurs produits.
Ces recommandations font partie d'un document de 50 pages que Microsoft a publié mardi, dans lequel il expose sa vision globale sur la manière dont les gouvernements devraient aborder l'IA.
Alors que les législateurs et les régulateurs à travers le pays débattent de la manière de réguler l'IA, les entreprises derrière cette nouvelle technologie ont lancé une pléthore de suggestions sur la manière dont elles pensent que les politiciens devraient traiter l'industrie.
Microsoft, habitué depuis longtemps à faire pression sur les gouvernements concernant des sujets qui affectent son activité, essaie de se positionner comme proactif et utile, cherchant à façonner la conversation et le résultat final de la législation, tout en appelant activement à la réglementation.
Les petites entreprises technologiques et les investisseurs en capital-risque ont été sceptiques à l'égard de cette approche, accusant de grandes entreprises d'IA comme Microsoft, Google et OpenAI d'essayer de faire adopter des lois qui compliquent la concurrence pour les nouvelles entreprises. Les partisans de la législation, y compris des politiciens de Californie qui mènent le pays dans la tentative d'approuver un large éventail de lois sur IA, ont souligné comment les gouvernements n'ont pas régulé l'utilisation des réseaux sociaux à temps, permettant potentiellement à des problèmes tels que le cyberharcèlement et la désinformation de proliférer sans contrôle.
“En fin de compte, le danger n'est pas d'avancer trop vite, mais d'avancer trop lentement ou de ne pas avancer du tout,” a écrit le président de Microsoft, Brad Smith, dans le document de politiques.
Dans le document, Microsoft a demandé un "statut de fraude de deepfake" qui rende spécifiquement illégal l'utilisation d'IA pour escroquer les gens.

Alors que l'IA générative de voix et d'images s'améliore, les escrocs ont déjà commencé à l'utiliser pour se faire passer pour des membres de la famille et essayer d'amener des personnes à leur envoyer de l'argent. D'autres groupes de pression technologique ont soutenu que les lois antifraude existantes sont suffisantes pour surveiller l'IA et que le gouvernement n'a pas besoin de législation supplémentaire.
L'année dernière, Microsoft s'est distincte d'autres entreprises technologiques sur un autre sujet, lorsque la société a suggéré que le gouvernement devrait créer une agence indépendante pour réguler l'IA, tandis que d'autres ont déclaré que la FTC et le DOJ étaient capables de réguler l'IA.
Microsoft a également demandé au Congrès d'obliger les entreprises d'IA à construire des outils de "provenance" dans leurs produits d'IA.
Les images et les audios générés par IA ont déjà été utilisés dans la propagande et pour tromper les électeurs à travers le monde. Les entreprises d'IA ont travaillé sur des technologies pour intégrer des signatures cachées dans des images et des vidéos générées par IA pouvant être utilisées pour identifier si le contenu est généré par IA. Cependant, la détection des deepfakes est notoirement peu fiable, et certains experts remettent en question la possibilité de séparer de manière fiable le contenu IA des images et audios réels.
Les gouvernements des États et le Congrès devraient également mettre à jour les lois concernant l'exploitation sexuelle des enfants et la création et distribution d'images intimes de personnes sans leur consentement, a déclaré Microsoft. Les outils d'IA ont déjà été utilisés pour créer des images sexuelles de personnes contre leur volonté et pour créer des images sexuelles d'enfants.
(c) 2024 , The Washington Post
Nouveau