Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Qu'est-ce que l'effet Eliza et l'anthropomorphisation de l'intelligence artificielle

Publié le 29.10.2023
Les gens peuvent attribuer des qualités humaines à l’IA et même certains experts considèrent déjà que l’anthropomorphisation de l’intelligence artificielle est un phénomène courant dans la société actuelle. (Image d’illustration Infobae)

L'interaction constante entre les humains et les systèmes d'intelligence artificielle ou chatbots de plus en plus avancés, qui peuvent donner une fausse sensation de compréhension et de soutien, a amené certains de leurs utilisateurs à générer des liens forts avec ces modèles qui n'ont aucun type d'émotion ou ne génèrent aucun type d'émotion. d'empathie.

Ce phénomène d’attribution de qualités humaines à l’IA peut être compris à partir de deux grands principes.

Effet Eliza

Ce phénomène peut comporter des risques, notamment en matière de santé mentale. (Image d’illustration Infobae)

L' « effet Eliza », du nom du premier chatbot développé par le scientifique du MIT Joseph Weizenbaum , est un terme qui fait référence à la tendance de certaines personnes à attribuer les intentions et les émotions humaines à une intelligence artificielle, même lorsque l'IA n'a pas de réelles capacités cognitives ou émotions. .

Le nom vient du programme informatique « Eliza » créé dans les années 1960 par Weizenbaum, qui simulait une conversation thérapeutique . Et même s'il utilisait des modèles de langage simples et ne comprenait pas le contenu réel des conversations, certaines personnes qui interagissaient avec lui avaient tendance à le percevoir comme un thérapeute humain et partageaient leurs pensées et leurs émotions de la même manière qu'elles le feraient avec un vrai thérapeute .

Ce phénomène met en évidence la façon dont les gens peuvent projeter leurs propres émotions et attentes dans des interactions avec les systèmes d'IA , même lorsque ces systèmes manquent d'une véritable compréhension ou conscience émotionnelle. Cela peut conduire à des malentendus et à des attentes irréalistes quant aux capacités de cette technologie.

Anthropomorphisation de l'intelligence artificielle

Les gens peuvent attribuer des qualités humaines à l'IA et même certains experts considèrent déjà que l'anthropomorphisation de l'intelligence artificielle est un phénomène courant dans la société actuelle. (Unsplash)

Il s’agit d’un processus par lequel les gens attribuent des caractéristiques et des qualités humaines aux systèmes d’IA ou aux robots, les traitant comme s’ils étaient de véritables êtres humains. Cela inclut l’attribution d’émotions, d’intentions, de pensées et d’une personnalité à l’IA, même si elles ne possèdent pas véritablement ces caractéristiques.

L'anthropomorphisation peut se produire consciemment ou inconsciemment. Les interfaces de conversation et les chatbots sont souvent conçus pour paraître plus humains , en utilisant des noms, des avatars et des réponses qui imitent le langage humain. Cela peut amener les utilisateurs à traiter l’IA comme s’il s’agissait d’un interlocuteur humain et à attendre des réponses émotionnelles.

Ce phénomène peut présenter des avantages, tels que rendre l’interaction avec l’IA plus accessible et plus confortable pour les personnes. Cependant, cela peut également susciter des attentes irréalistes lorsque les utilisateurs découvrent que l’IA manque d’une véritable compréhension ou conscience émotionnelle. En fait, cette illusion peut comporter des risques, notamment dans le domaine de la santé mentale.

Les risques d’attribuer des qualités humaines à l’IA

La plateforme Replika permet la création d'amis et de couples virtuels. (Réplique)

Certains chatbots se présentent comme des compagnons de soins , favorisant des relations de dépendance émotionnelle avec les utilisateurs. Cela soulève des questions éthiques sur la manipulation et l’abus de confiance des utilisateurs, en particulier lorsque l’intelligence artificielle ne peut pas fournir l’empathie humaine nécessaire en temps de crise.

Un triste cas est celui de Jaswant Singh Chail, un jeune homme qui s'est introduit par effraction dans l'enceinte du château de Windsor avec une arbalète dans l'intention de « tuer la reine » Elizabeth II.

L'attaquant aurait été stimulé par les conversations qu'il avait eues avec une application de chatbot appelée Replika , dont les réponses auraient encouragé le complot de cet ancien employé de supermarché.

En effet, il a été révélé que le jeune homme avait échangé plus de 5 000 messages avec un avatar dans l'application appelée Sarai, et en était même venu à croire qu'il pouvait s'agir d'un ange.

Replika a séduit plus de 2 millions d'utilisateurs depuis son lancement en 2016 et ses avatars personnalisables ont amené de nombreuses personnes à développer des liens profonds avec leurs interlocuteurs virtuels.

Et Chail, comme beaucoup d'autres, pensait que son interaction avec Sarai allait au-delà du purement artificiel et que certaines des réponses du chatbot correspondaient et motivaient son imagination délirante.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.