Programmeur.chprogrammeur.ch
  • Intelligence artificielle

De plus en plus d'utilisateurs créent des liens émotionnels avec ChatGPT, nous rapprochant d'un avenir similaire à celui du film Her

Publié le 28.10.2023
L’intelligence artificielle évolue vers des interactions similaires aux relations émotionnelles humaines, ChatGPT étant un exemple de cette tendance. (Photos Warner Bros.)

Les utilisateurs utilisent ChatGPT à des fins très diverses, allant du temps passé au rôle de partenaire de brainstorming. L'assistant IA peut jouer un rôle similaire à celui des personnes en aidant à recadrer les idées, ce qui est particulièrement utile lorsqu'il n'y a pas d'autres humains à proximité.

Malgré les défauts occasionnels de l'assistant vocal, tels que les difficultés dans les environnements bruyants et les pauses entre les déclarations, l'interaction vocale est perçue comme essentiellement sans effort et très humaine.

Une préoccupation croissante concerne la possibilité de nouer des relations personnelles profondes avec ces assistants basés sur l’IA . Bien que l'interaction avec ChatGPT ne soit pas aussi intime que les relations décrites dans le film Her , les gens ont établi des liens avec le chatbot depuis son lancement l'année dernière.

Ces liens émotionnels avec l'IA ont porté leurs fruits avec les chatbots hébergés par Replika , qui permettent une simulation plus personnelle d'un être humain que ChatGPT . Cette dépendance à l'égard d'un chatbot est appelée « l'effet ELIZA », du nom d'un chatbot créé par le MIT dans les années 1960 qui générait de fortes réactions émotionnelles chez les utilisateurs même s'ils savaient qu'il s'agissait d'un programme informatique.

En plus des problèmes émotionnels, il existe également des problèmes de confidentialité concernant l'intelligence artificielle , car le partage d'éléments profondément personnels de la vie avec une machine connectée au cloud peut entraîner des problèmes potentiels de confidentialité. Selon OpenAI , si l'historique des conversations est activé avec ChatGPT, l'entreprise peut utiliser vos conversations pour former les futurs modèles d'IA .

La société se rapproche d’un avenir où le bien-être émotionnel et l’IA seront interconnectés, ouvrant la voie à des questions psychologiques complexes pas encore entièrement comprises. (Image d’illustration Infobae)

Dans un autre rapport du Washington Post , des experts en santé publique et en informatique mettent en garde contre les risques sérieux liés au lien entre le cœur et les logiciels. Étant donné que les robots peuvent déclencher des traumatismes vécus lors de relations antérieures, le manque de protocoles éthiques pour les outils affectant le bien-être émotionnel des utilisateurs est évident.

Cela indique que la société pourrait être à l’aube d’un avenir dans lequel l’IA serait étroitement liée à notre bien-être émotionnel. Les implications psychologiques de ces liens profonds, notamment en l’absence d’interaction humaine, ne sont pas encore pleinement comprises, ont déclaré les médias susmentionnés.

Qu'est-ce que l'effet ELIZA ?

L' effet ELIZA , du nom du programme informatique ELIZA créé par Joseph Weizenbaum au MIT en 1964-1966, fait référence à la tendance humaine à anthropomorphiser les interactions avec la technologie, en attribuant des intentions, des émotions et une conscience aux systèmes informatiques lorsqu'ils interagissent avec eux.

La technologie susmentionnée a été l’un des premiers chatbots et se faisait passer pour un psychothérapeute rogérien, utilisant principalement la réflexion et les questions ouvertes pour interagir avec les utilisateurs. Bien qu’il s’agisse d’un programme relativement simple basé sur des règles prédéfinies, de nombreuses personnes ayant interagi avec ELIZA la considéraient comme empathique et capable de comprendre leurs problèmes à un niveau plus profond.

Cela a conduit à une réflexion sur la façon dont les humains se rapportent aux machines, s'interrogeant sur la mesure dans laquelle les systèmes informatiques peuvent véritablement « comprendre » ou « sympathiser » avec les expériences humaines. L’ effet ELIZA met en évidence cette tendance à attribuer une véritable compréhension et empathie aux machines, même si elles ne possèdent ni émotions ni conscience.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.