
Les entreprises sont désireuses de capitaliser sur la puissance de l'IA générative , mais sont confrontées à la question de la confiance : comment créer une application d'IA générative qui fournit des réponses précises et ne vous époustoufle pas ? Cette question tourmente l'industrie depuis un an, mais il s'avère que nous pouvons apprendre beaucoup d'une technologie existante : la recherche.
En examinant ce que les moteurs de recherche font bien (et ce qu’ils ne font pas), nous pouvons apprendre à créer des applications d’IA générative plus fiables. Ceci est important car l’IA générative peut apporter d’immenses améliorations en termes d’efficacité, de productivité et de service client, mais seulement lorsque les entreprises peuvent être sûres que leurs applications d’IA générative fournissent des informations fiables et précises .
Dans certains contextes, le niveau de précision requis de l’IA est moindre. Si vous créez un programme qui décide quelle annonce afficher ensuite sur une page Web, un programme d'IA généralement précis est toujours utile . Mais si un client demande à votre chatbot IA quel est le montant de sa facture ce mois-ci ou si un employé demande combien de jours de prise de force il lui reste, il n'y a pas de place à l'erreur.
Les moteurs de recherche tentent depuis longtemps de fournir des réponses précises à partir de grandes quantités de données, avec succès dans certains domaines et plus faibles dans d’autres. En prenant les meilleurs aspects de la recherche et en les combinant avec de nouvelles approches mieux adaptées à l'IA générative en entreprise , nous pouvons résoudre le problème de confiance et libérer la puissance de l'IA générative sur le lieu de travail.
Séparez le bon grain de l'ivraie

Un domaine dans lequel les moteurs de recherche fonctionnent bien consiste à passer au crible de grands volumes d'informations et à identifier les sources de la plus haute qualité . Par exemple, en examinant le nombre et la qualité des liens vers une page Web, les moteurs de recherche renvoient les pages Web les plus susceptibles d'être dignes de confiance . Les moteurs de recherche privilégient également les domaines réputés fiables, tels que les sites Web du gouvernement fédéral, ou les sources d’information établies, comme la BBC.
En entreprise, les applications d’IA générative peuvent émuler ces techniques de classification pour fournir des résultats fiables. Ils doivent privilégier les sources de données d’entreprise qui ont été consultées, recherchées ou partagées le plus fréquemment. Et ils devraient privilégier les sources réputées fiables, comme les manuels de formation des entreprises ou une base de données des ressources humaines, tout en défavorisant les sources moins fiables.
Les LLM sont un interlocuteur, pas un oracle
De nombreux grands modèles de langage (LLM) ont été formés sur Internet qui, comme nous le savons tous, contient des informations fiables et peu fiables. Cela signifie qu’ils sont capables de répondre à des questions sur une grande variété de sujets, mais qu’ils n’ont pas encore développé les méthodes de classement plus matures et sophistiquées que les moteurs de recherche utilisent pour affiner leurs résultats. C'est l'une des raisons pour lesquelles de nombreux LLM réputés peuvent halluciner et donner de mauvaises réponses.
L’un des enseignements tirés ici est que les développeurs devraient considérer les LLM comme un interlocuteur linguistique plutôt que comme une source de vérité. En d’autres termes, les LLM sont doués pour comprendre le langage et formuler des réponses, mais ne doivent pas être utilisés comme source canonique de connaissances. Pour résoudre ce problème, de nombreuses entreprises forment leurs LLM avec leurs propres données d'entreprise et des ensembles de données tiers vérifiés, minimisant ainsi la présence de données erronées. En adoptant des techniques de classement dans les moteurs de recherche et en privilégiant des sources de données de haute qualité, les applications métiers basées sur l’IA deviennent beaucoup plus fiables.
L'humilité de dire « je ne sais pas »

La recherche est également devenue très efficace dans la compréhension du contexte pour résoudre les requêtes ambiguës. Par exemple, un terme de recherche comme « swift » peut avoir plusieurs significations : l'auteur, le langage de programmation, le système bancaire, la sensation pop, etc. Les moteurs de recherche prennent en compte des facteurs tels que l'emplacement géographique et d'autres termes de la requête pour déterminer l'intention de l'utilisateur et fournir la réponse la plus pertinente.
Cependant, lorsqu'un moteur de recherche ne peut pas fournir la bonne réponse, parce qu'il manque de contexte ou qu'il n'y a pas de page avec la réponse, il essaiera quand même de le faire. Par exemple, si vous demandez à un moteur de recherche : « À quoi ressemblera l’économie dans 100 ans ? ou "Comment les Chiefs de Kansas City se comporteront-ils la saison prochaine ?", il n'y a peut-être pas de réponse fiable disponible. Mais les moteurs de recherche reposent sur la philosophie selon laquelle ils doivent fournir une réponse dans presque tous les cas, même s’ils manquent d’un haut degré de fiabilité.
Ceci est inacceptable pour de nombreux cas d'utilisation commerciale, c'est pourquoi les applications d'IA générative ont besoin d'une couche entre l'interface de recherche (ou de requête) et le LLM qui étudie les contextes possibles et détermine si elle peut fournir ou non une réponse précise. Si cette couche détermine qu’elle ne peut pas fournir la réponse avec un degré de confiance élevé, elle doit le communiquer à l’utilisateur.
Cela réduit considérablement la probabilité d'une réponse erronée, contribue à établir la confiance avec l'utilisateur et peut offrir à l'utilisateur la possibilité de fournir un contexte supplémentaire afin que l'application gen AI puisse produire un résultat fiable.
Cette couche entre l'interface utilisateur et le LLM peut également utiliser une technique appelée Retrieval Augmented Generation, ou RAG, pour interroger une source de données externe fiable qui existe en dehors du LLM.
Montre ton travail

L'explicabilité est un autre point faible des moteurs de recherche , mais que les applications d'IA générative doivent utiliser pour instaurer une plus grande confiance. Tout comme les professeurs du secondaire demandent à leurs élèves de montrer leurs travaux et de citer leurs sources, les applications d’IA générative doivent faire de même. En révélant les sources d’informations, les utilisateurs peuvent voir d’où proviennent les informations et pourquoi ils devraient leur faire confiance. Certains LLM publics ont commencé à offrir cette transparence et cela devrait être un élément fondamental des outils d'IA générative utilisés en entreprise.
Avec les yeux grands ouverts
Malgré tous les efforts, il sera difficile de créer des applications d’IA qui commettent très peu d’erreurs. Et pourtant, les bénéfices sont trop importants pour rester sur la touche et espérer que les concurrents ne prennent pas de l'avance. Cela oblige les utilisateurs professionnels à aborder les outils d’IA les yeux grands ouverts. Tout comme Internet a changé la façon dont les gens interagissent avec l’information et les sources d’information, les utilisateurs professionnels doivent développer un scepticisme éclairé et apprendre à rechercher les signes d’une IA digne de confiance. Cela signifie exiger de la transparence dans les applications d’IA que nous utilisons, rechercher des explications et être conscient des biais potentiels.
Nous sommes engagés dans un voyage passionnant vers une nouvelle classe d’applications qui transformeront notre travail et nos carrières d’une manière que nous ne pouvons pas encore prévoir. Mais pour être utiles en entreprise , ces applications doivent être fiables et dignes de confiance. Les moteurs de recherche ont jeté les bases d’une réponse précise à partir de gros volumes de données, mais ils ont été conçus en tenant compte de différents cas d’utilisation. En tirant le meilleur parti de la recherche et en ajoutant de nouvelles techniques pour garantir une plus grande précision, nous pouvons libérer tout le potentiel de l’IA générative en entreprise.