
Brand Smith, président de Microsoft , a proposé cinq points qui pourraient améliorer l'utilisation qui est donnée à l'intelligence artificielle aujourd'hui, du point de vue de l'utilisateur aux gouvernements.
En fait, il s'agit d'un débat mondial car les conséquences que son application pourrait avoir sur le développement de la communauté sont inconnues.
La réglementation de cette technologie est l'un des points à discuter et diverses entreprises et personnalités se sont prononcées en faveur de ces mesures, comme Sam Altman, fondateur d' OpenAI et créateur de modèles tels que ChatGPT , GPT-3.5 et GPT-4.
Règlement gouvernemental sur la sécurité de l'intelligence artificielle
Selon Smith, il est possible d'utiliser un cadre de gestion des risques pour l'intelligence artificielle dans tous les gouvernements afin d'améliorer la capacité à réagir aux dangers potentiels qui peuvent survenir.

Microsoft affirme avoir utilisé des équipes de prévention des risques de cybersécurité pour identifier le potentiel nocif de l'intelligence artificielle, il est donc disposé à travailler avec d'autres leaders de l'industrie du développement de l'IA pour élever les normes de protection pour l'avenir.
Exiger des «freins de sécurité» pour les systèmes d'IA qui contrôlent les infrastructures critiques
"Les inventeurs ont conclu que la meilleure voie à suivre est d'exploiter la puissance des nouvelles technologies en les maîtrisant", a déclaré Smith lors de sa conférence de presse. Dans lequel il a ajouté que dans le cas de l'intelligence artificielle, il n'y a pas de différence. Pour l'exécutif, il faut que ces avancées puissent disposer d'un " système de sécurité efficace" installé.
L'objectif de cette fonctionnalité est que les gens puissent l'utiliser au cas où il y aurait un besoin ou un besoin de ralentir ou de suspendre complètement cette progression, même si cela ne signifie pas qu'il y aura un risque potentiel.
Microsoft assure que ce sont les gouvernements qui doivent établir les normes de sécurité qu'ils jugent nécessaires, établir une méthode pour détecter les risques à temps et avoir la capacité d'activer le "frein" lorsqu'un risque est perçu.

Développer un cadre légal et réglementaire
Pour le représentant de Microsoft , il faut établir une norme applicable aux nouveaux modèles génératifs d'intelligence artificielle afin que les organisations qui les fabriquent aient certaines responsabilités concernant les différentes étapes de développement de l'IA .
L'une des propositions qu'il inclut est la possibilité que l'intelligence artificielle puisse établir des étiquettes lorsqu'elle génère des fichiers photo ou vidéo, afin que n'importe qui sache que le contenu qu'il visualise a été créé par une IA, en plus d'identifier la génération de contenu " deep fake » qui pourrait être utilisé pour diffuser de fausses informations .
Promouvoir la transparence et offrir un accès académique à but non lucratif
L'entreprise a également assuré qu'elle s'engage à établir des principes de transparence concernant l'utilisation de ses outils d'intelligence artificielle, car elle considère que les logiciels de ce type sont idéaux pour pouvoir le faire de manière responsable.
"Il est essentiel d'élargir l'accès aux ressources de l'IA pour la recherche universitaire et la communauté à but non lucratif", a déclaré Smith, qui a également assuré que son entreprise a adopté un guide éthique depuis 2018 et qu'il facilitera un accès transparent aux informations lorsqu'ils interagissent avec un modèle d'intelligence artificielle .

La proposition de Microsoft comprend également la création d'un registre public des systèmes d'intelligence artificielle à haut risque qui peut être librement visité par tous les utilisateurs dans le but de leur faire savoir quelles mesures sont prises pour protéger leur sécurité .
Utiliser l'IA comme outil pour relever les défis sociétaux
"Nous pensons qu'il s'agit d'une excellente opportunité d'attirer le public et le secteur privé à l'aide d'outils d'intelligence artificielle ", a déclaré Smith, qui a également assuré qu'il était nécessaire de se concentrer sur des problèmes spécifiques que l'intelligence artificielle peut aider à résoudre, surtout s'il s'agit de des menaces.
Smith a assuré qu'il est important que l'intelligence artificielle puisse être utilisée pour protéger la démocratie , les droits fondamentaux et aider à progresser vers la durabilité sur la planète.