Programmeur.chprogrammeur.ch
  • Intelligence artificielle

L'IA suscite des doutes : Microsoft révèle des stratégies pour minimiser la désinformation.

Publié le 16.07.2024
L'utilisation de cette technologie avancée est présente dans différents secteurs sociaux. (Image illustrative Infobae)

Pour cette raison, Microsoft travaille sur des stratégies pour minimiser la désinformation diffusée par l'IA, qui n'a pas encore une crédibilité totale dans certains domaines d'étude.

Pourquoi l'intelligence artificielle se trompe et crée de la méfiance

Pour le moment, il n'existe pas de chatbots totalement fiables. (Image illustrative Infobae)

L'intelligence artificielle se trompe souvent, par exemple lorsqu'on lui demande un article sur un sujet spécifique et qu'elle fournit finalement un résultat qui ne correspond pas. Un fait qui suscite la méfiance des humains.

Ces erreurs sont appelées hallucinations, qui se produisent lorsque les modèles d'IA, malgré un entraînement avec de grandes quantités de données, produisent des réponses qui s'écartent de la réalité.

Ainsi, Microsoft a décidé pour éviter ces contretemps de soumettre ses modèles d'IA à des tests rigoureux, conçus pour induire la création de fausses informations.

Cette stratégie, similaire à un entraînement d'endurance pour l'IA, permet aux chercheurs d'identifier les vulnérabilités des modèles et de développer des solutions pour y remédier.

Comment éviter que l'intelligence artificielle offre des réponses fausses

Dans le cas de Microsoft, plusieurs stratégies sont proposées pour atténuer les erreurs. (Photo : REUTERS/Gonzalo Fuentes/File Photo)

Pour éviter que l'intelligence artificielle offre des réponses fausses, plusieurs entreprises travaillent sur des plans d'action pour optimiser la véracité de l'IA.

« Microsoft veut s'assurer que chaque système d'IA qu'elle construit offre la confiance nécessaire afin de pouvoir l'utiliser efficacement », a déclaré Sarah Bird, directrice de produit pour l'IA responsable chez Microsoft, dans un communiqué officiel émis par l'entreprise.

Dans cet esprit, Microsoft a concentré ses efforts pour enrichir ses modèles avec des informations précises et à jour. Cette approche, fondée sur des données de qualité, vise à minimiser les possibilités que l'IA génère des informations erronées ou inventées, et à réduire les conséquences malheureuses potentielles.

Comment contrer le phénomène d'hallucination de l'IA

Éviter les réponses fausses est nécessaire pour aider dans divers secteurs académiques et professionnels. (Image illustrative Infobae)

Pour contrecarrer les différentes hallucinations des assistants utilisant l'IA, Microsoft, a intégré une série d'outils avancés dans les services Azure OpenAI et Azure AI.

  • Services d'évaluation : permettent aux développeurs d'évaluer les performances de leurs modèles d'IA et de détecter d'éventuels signaux ou inexactitudes.
  • Modèles de messages de sécurité : fournissent un cadre pour la création de messages et de réponses qui minimisent le risque de générer un contenu inapproprié ou trompeur.
  • Mécanismes de détection en temps réel : surveillent le fonctionnement des applications d'IA et alertent sur toute activité suspecte ou potentiellement nuisible.

Être à la pointe de l'IA générative implique responsabilité et opportunité de rendre nos produits plus sûrs et fiables », a déclaré Ken Archer, responsable des produits de l'IA responsable chez Microsoft.

Quelles sont les implications d'une IA ne fournissant pas de réponses fiables

Avec des formes de prévention des erreurs de l'IA, il sera plus facile qu'elle s'adapte aux défis modernes. (Image illustrative Infobae)

Les implications d'une réponse erronée de l'IA peuvent représenter un risque dans des domaines exigeants comme la science ou la gestion des risques.

Que ce soit à partir de recherches contenant des informations erronées ou d'un simple travail académique, l'utilisation de l'IA peut finir par nuire à l'utilisateur, limitant ainsi la capacité de l'intelligence artificielle à s'adapter à l'époque actuelle.

Tout cela souligne l'engagement que doivent prendre les grandes entreprises dans la construction d'une IA responsable et fiable, afin de relever les défis tels que les hallucinations pour garantir que cette technologie soit utilisée de manière éthique et bénéfique pour la société.

Partager cette note :
Enregistrer

Nouveau

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.