
Depuis que les intelligences artificielles génératives comme ChatGPT ont gagné en popularité, l’un des problèmes courants signalés à plusieurs reprises par les utilisateurs était le manque de fiabilité de certaines de leurs affirmations, qui étaient inexactes, complètement fausses et même avec des sources inexistantes.
C'est pourquoi Google a incorporé une nouvelle fonction dans Bard , sa propre intelligence artificielle , afin qu'il vérifie automatiquement si le texte qu'il a généré contient des informations réelles et peut être retracé jusqu'à la source à partir de laquelle il a extrait des données, en particulier une phrase ou paragraphe. Vous avez essentiellement donné à ce programme la possibilité de douter de ses propres réponses pour en fournir une meilleure lorsque l'utilisateur le demande.
Bard disposait auparavant d'une fonction similaire appelée « Googléit » dans laquelle une donnée générée dans le cadre d'un texte était mise en évidence et transférée sous la forme d'une requête au moteur de recherche Google , afin que l'utilisateur puisse vérifier le résultat. son propre compte. Cependant, la nouvelle version de l’intelligence artificielle porte cette fonctionnalité à un nouveau niveau.
À partir de septembre 2023 , les utilisateurs disposeront d'un outil supplémentaire appelé « double vérification » qui sera présenté sous la forme d'un bouton avec une icône en forme de « G » et permettra à l'IA de Google d'effectuer automatiquement la recherche sur la plateforme de recherche de l'entreprise.

Selon Google , « lorsque vous cliquez sur l'icône G, Bard lira la réponse générée et évaluera s'il existe sur Internet un contenu offrant davantage d'assistance. Lorsqu'une déclaration est évaluée, vous pouvez cliquer sur la phrase en surbrillance et les données qui la soutiennent ou la contredisent trouvées dans le moteur de recherche seront affichées.
Dans les deux cas, l'intelligence artificielle de Google présentera deux formes de contenu après avoir corroboré les données : la première sera mise en évidence par un texte vert qui indiquera l'existence de sources sur le web qui soutiennent cette affirmation, tandis que l'autre type sera orange. texte en surbrillance. Ce dernier indiquera que Google n'a pas trouvé de source pour vérifier les informations , il pourrait donc s'agir d'informations incorrectes.
Alors que Bard pourrait avoir la possibilité d'effectuer cette vérification avant de générer le résultat (ce qui rendrait inutile l'existence d'une "double vérification"), Jack Krawczyk , directeur principal des produits chez Google , a indiqué à The Verge qu'en raison de la grande variété de usages que l’on donne à Bard, il serait inutile que tous types de textes soient corroborés par l’intelligence artificielle.
Par exemple, si la double vérification était une fonctionnalité par défaut au lieu d'être facultative, si les utilisateurs écrivaient des histoires, des poèmes ou des e-mails, Bard les vérifierait automatiquement, rendant cet outil improductif.

"Nous avons peut-être créé le premier modèle de langage qui admet qu'il a commis une erreur", a déclaré Krawczyk . Ainsi, en incorporant ces nouvelles informations dans les textes finaux, les utilisateurs savent ce qui leur est vraiment utile et quelles données ne peuvent pas être ajoutées. car cela n'a pas été corroboré.
Cela ne veut pas dire que la « double vérification » est une fonction qui ne fait pas d'erreurs. Bien qu'il s'agisse d'un support permettant aux utilisateurs d'effectuer des vérifications de manière rapide et pratique, il appartiendra à chaque utilisateur de déterminer si ce qui est fait par l'intelligence artificielle est suffisant ou s'il préfère effectuer une nouvelle corroboration manuellement.
Pour le moment, l'outil de vérification n'est disponible que pour les comptes Google personnels ayant accès à Bard , mais cela pourrait changer à l'avenir pour l'activer également pour les comptes institutionnels .