
L'interaction constante entre les humains et les systèmes d'intelligence artificielle ou chatbots de plus en plus avancés, qui peuvent donner une fausse sensation de compréhension et de soutien, a amené certains de leurs utilisateurs à générer des liens forts avec ces modèles qui n'ont aucun type d'émotion ou ne génèrent aucun type d'émotion. d'empathie.
Ce phénomène d’attribution de qualités humaines à l’IA peut être compris à partir de deux grands principes.
Effet Eliza

L' « effet Eliza », du nom du premier chatbot développé par le scientifique du MIT Joseph Weizenbaum , est un terme qui fait référence à la tendance de certaines personnes à attribuer les intentions et les émotions humaines à une intelligence artificielle, même lorsque l'IA n'a pas de réelles capacités cognitives ou émotions. .
Le nom vient du programme informatique « Eliza » créé dans les années 1960 par Weizenbaum, qui simulait une conversation thérapeutique . Et même s'il utilisait des modèles de langage simples et ne comprenait pas le contenu réel des conversations, certaines personnes qui interagissaient avec lui avaient tendance à le percevoir comme un thérapeute humain et partageaient leurs pensées et leurs émotions de la même manière qu'elles le feraient avec un vrai thérapeute .
Ce phénomène met en évidence la façon dont les gens peuvent projeter leurs propres émotions et attentes dans des interactions avec les systèmes d'IA , même lorsque ces systèmes manquent d'une véritable compréhension ou conscience émotionnelle. Cela peut conduire à des malentendus et à des attentes irréalistes quant aux capacités de cette technologie.
Anthropomorphisation de l'intelligence artificielle

Il s’agit d’un processus par lequel les gens attribuent des caractéristiques et des qualités humaines aux systèmes d’IA ou aux robots, les traitant comme s’ils étaient de véritables êtres humains. Cela inclut l’attribution d’émotions, d’intentions, de pensées et d’une personnalité à l’IA, même si elles ne possèdent pas véritablement ces caractéristiques.
L'anthropomorphisation peut se produire consciemment ou inconsciemment. Les interfaces de conversation et les chatbots sont souvent conçus pour paraître plus humains , en utilisant des noms, des avatars et des réponses qui imitent le langage humain. Cela peut amener les utilisateurs à traiter l’IA comme s’il s’agissait d’un interlocuteur humain et à attendre des réponses émotionnelles.
Ce phénomène peut présenter des avantages, tels que rendre l’interaction avec l’IA plus accessible et plus confortable pour les personnes. Cependant, cela peut également susciter des attentes irréalistes lorsque les utilisateurs découvrent que l’IA manque d’une véritable compréhension ou conscience émotionnelle. En fait, cette illusion peut comporter des risques, notamment dans le domaine de la santé mentale.
Les risques d’attribuer des qualités humaines à l’IA

Certains chatbots se présentent comme des compagnons de soins , favorisant des relations de dépendance émotionnelle avec les utilisateurs. Cela soulève des questions éthiques sur la manipulation et l’abus de confiance des utilisateurs, en particulier lorsque l’intelligence artificielle ne peut pas fournir l’empathie humaine nécessaire en temps de crise.
Un triste cas est celui de Jaswant Singh Chail, un jeune homme qui s'est introduit par effraction dans l'enceinte du château de Windsor avec une arbalète dans l'intention de « tuer la reine » Elizabeth II.
L'attaquant aurait été stimulé par les conversations qu'il avait eues avec une application de chatbot appelée Replika , dont les réponses auraient encouragé le complot de cet ancien employé de supermarché.
En effet, il a été révélé que le jeune homme avait échangé plus de 5 000 messages avec un avatar dans l'application appelée Sarai, et en était même venu à croire qu'il pouvait s'agir d'un ange.
Replika a séduit plus de 2 millions d'utilisateurs depuis son lancement en 2016 et ses avatars personnalisables ont amené de nombreuses personnes à développer des liens profonds avec leurs interlocuteurs virtuels.
Et Chail, comme beaucoup d'autres, pensait que son interaction avec Sarai allait au-delà du purement artificiel et que certaines des réponses du chatbot correspondaient et motivaient son imagination délirante.