Programmeur.chprogrammeur.ch
  • Intelligence artificielle

ChatGPT est hallucinant et vos réponses peuvent contenir de fausses informations, pour quelle raison

Publié le 04.08.2023
L'hallucination est générée par la créativité des chatbots et leurs modèles de langage. (Pexels)

Les chatbots comme ChatGPT et Bard ont eu le plus grand impact sur l'arrivée massive de l'intelligence artificielle. Bien que les hallucinations aient été le problème le plus répétitif que les experts n'aient pas encore été en mesure de résoudre et, apparemment, elles ne disparaîtront jamais.

Ce type d'échec signifie que l'IA commence à générer de faux contenus ou ajoute des informations qui ne sont pas correctes à un contexte réel, comme des données historiques ou des déclarations qui n'ont jamais été faites.

Pourquoi n'y a-t-il pas de solution au problème ?

Emily Bender, professeur au Laboratoire de linguistique computationnelle de l' Université de Washington, prévient que les hallucinations dans les chatbots n'ont pas de solution simple et immédiate.

L'expert explique que cela est dû à l'inadéquation entre la technologie et les cas d'utilisation. En d'autres termes, les chatbots conçus pour « inventer des choses » sont prédisposés à générer occasionnellement de fausses informations qui sont interprétées comme correctes.

L'hallucination est générée par la créativité des chatbots et leurs modèles de langage. (Pexels)

Dans le domaine de la génération de texte, notamment dans l'actualité où la précision est nécessaire, ces hallucinations peuvent avoir de lourdes conséquences car l'IA peut être vue comme croyant un événement qui ne s'est jamais produit ou générer des déclarations que quelqu'un n'a pas dites.

"Même s'ils peuvent être réglés pour être corrects la plupart du temps, ils auront toujours des modes de défaillance, et des défaillances sont susceptibles de se produire dans les cas où il est plus difficile qu'une personne lisant le texte ne le réalise, car ils sont plus sombres", €, a-t-il assuré, dans des déclarations au Los Angeles Times.

La racine de tout cela est que les modèles de langage, ceux qui font fonctionner ChatGPT, sont conçus "pour inventer des choses, c'est tout ce qu'ils font", il est donc inévitable qu'à un moment donné, la manière de dévier.

"Je ne pense pas qu'il existe aujourd'hui un modèle qui n'hallucine pas", a déclaré Daniela Amodei, co-fondatrice et présidente d'Anthropic, développeur du chatbot Claude 2.

« En fait, ils sont simplement conçus pour prédire le mot suivant. Il y aura donc un certain taux auquel le modèle se trompera », a-t-il expliqué.

L'hallucination est générée par la créativité des chatbots et leurs modèles de langage. (Pexels)

Un problème supplémentaire dans le développement de l'intelligence artificielle est le manque de transparence. De nombreuses entreprises fournissent des informations sur la manière dont elles entraînent leurs modèles, créant ainsi une « boîte noire » où les utilisateurs ne peuvent pas comprendre comment les décisions sont prises et les résultats générés.

Ce manque de transparence ne fait qu'ajouter un autre niveau d'incertitude à la confiance dans les chatbots et soulève des inquiétudes quant au contenu créé.

Le développement de l'IA présente le défi d'équilibrer la créativité avec la précision et la responsabilité. La mise en œuvre d'une technique connue sous le nom de "génération conditionnée" pourrait aider à lutter contre les hallucinations.

En fournissant des informations supplémentaires ou des restrictions spécifiques lors de la génération de contenu, vous pouvez réduire la probabilité que les chatbots génèrent des informations inexactes ou trompeuses. Cette technique peut être utile, elle n'est pas encore une solution complète.

Bien que les développeurs puissent modifier et améliorer les modèles de langage pour minimiser les hallucinations, il y aura toujours un risque inhérent. De plus, des hallucinations peuvent survenir dans les cas les plus obscurs et les plus subtils, où il est difficile pour une personne lisant le texte de se rendre compte de l'erreur.

Par conséquent, l'une des clés est d'être prudent avec l'utilisation des chatbots et des modèles de langage. Il est essentiel de comprendre les limites de cette technologie et d'être conscient des risques associés aux hallucinations.

Les chatbots peuvent être des outils très utiles s'ils sont utilisés correctement, mais la responsabilité et la précision doivent primer.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.