Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Pourquoi les « hallucinations » sont-elles si dangereuses en intelligence artificielle ?

Publié le 26.10.2023
Les hallucinations représentent un grand danger tant pour les utilisateurs que pour les entreprises à l’origine des chatbots. (Informations sur l'image illustrative)

Les hallucinations dans le contexte de l'intelligence artificielle font généralement référence à des situations dans lesquelles un modèle génère des informations qui ne sont pas exactes ou pertinentes. Ces comportements peuvent se manifester de diverses manières, par exemple en générant des réponses incorrectes ou en produisant un contenu faux ou incohérent.

Par exemple, le chatbot d'intelligence artificielle de la société OpenAI , ChatGPT , a noté dans un paragraphe :

"La cérémonie de couronnement a eu lieu à l'abbaye de Westminster, à Londres, le 19 mai 2023 . L'abbaye est le théâtre des couronnements des monarques britanniques depuis le XIe siècle, et est considérée comme l'un des lieux les plus sacrés et emblématiques du pays. Cette information est incorrecte étant donné que cet événement s'est produit le 6 mai 2023 .

Le système ChatGPT -3.5 prévient que sa capacité à générer des réponses est limitée aux informations disponibles sur Internet jusqu'en septembre 2021, ce qui implique la possibilité de rencontrer des difficultés pour fournir des réponses précises aux requêtes. OpenAI a expliqué lors du lancement de GPT-4 qu'il existe encore de nombreuses limites telles que des préjugés sociaux, des hallucinations potentielles et des contradictions dans les réponses.

ChatGPT -3.5 a une limitation d'informations jusqu'en septembre 2021. (Pexels)

Une deuxième erreur ou hallucination a été détectée dans le moteur de recherche Bing , dans lequel la prétendue théorie sur l'apparition d'algorithmes de recherche, attribuée à Claude Shannon , a été présentée. Le résultat a fourni quelques citations pour tenter de soutenir l'article de recherche.

Cependant, le principal problème était que Shannon n’avait jamais écrit un tel article, puisque les citations fournies par Bing se révélaient être des fabrications générées par l’intelligence artificielle.

L’intelligence artificielle générative et les algorithmes d’apprentissage par renforcement ont la capacité de traiter de grandes quantités d’informations sur Internet en quelques secondes et de créer de nouveaux textes souvent cohérents et bien rédigés.

De nombreux experts avertissent que les utilisateurs doivent être prudents lorsqu’ils examinent la fiabilité de ces textes. En fait, Google et OpenAI ont demandé aux utilisateurs de garder cela à l’esprit.

Le chatbot de Microsoft, Bing, a également souffert d'hallucinations.

Dans le cas d' OpenAI , qui entretient une collaboration avec Microsoft et son moteur de recherche Bing, ils soulignent que "GPT-4 a une propension à 'halluciner', c'est-à-dire qu'il peut générer du contenu ou des informations dénuées de sens." faux par rapport à certains sources ».

Risques d'hallucinations

Les dangers potentiels des hallucinations dans une intelligence artificielle sont multiples et peuvent avoir des impacts importants. Certains des risques les plus importants comprennent :

-Désinformation et diffusion de fausses informations : Si une IA génère des informations fausses ou trompeuses, elle peut contribuer à la diffusion de fausses informations, qui peuvent être préjudiciables dans divers contextes, comme la diffusion de fausses nouvelles ou la génération de contenus inexacts.

-Perte de crédibilité : lorsqu'un chatbot alimenté par l'IA génère régulièrement du contenu incohérent ou incorrect, il peut perdre la confiance de ses utilisateurs, limitant ainsi son utilité et son efficacité.

- Biais et préjugés : les hallucinations peuvent conduire à la génération de contenus reflétant des biais présents dans les données de formation, qui seraient considérés comme discriminatoires ou préjudiciables à certains groupes.

Le rôle des utilisateurs face à ce type de panne est toujours de vérifier et recouper les données. (L'Europe )

-Difficulté dans les applications critiques : comme dans la prise de décisions médicales ou juridiques, les hallucinations peuvent avoir de graves conséquences, puisque les informations générées doivent être exactes.

-Questions éthiques et responsabilité : les développeurs et propriétaires d'IA peuvent être confrontés à des défis éthiques et juridiques si l'IA génère un contenu inapproprié ou préjudiciable.

Pour éviter de tomber dans des hallucinations ou des erreurs générées par l'intelligence artificielle, il est important de suivre quelques directives comme vérifier les informations, connaître le contexte dans lequel l'échange de données avec l'IA est généré. Il est également important d'avoir une idée de la manière dont le modèle linguistique a été formé ainsi que de ses limites, par exemple s'il contient des informations jusqu'à une certaine date.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.