Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Le jour où AI a encouragé un homme à assassiner la reine Elizabeth II

Publié le 18.10.2023
Une image du masque récupéré auprès de Jaswant Singh Chail lors de son arrestation. (Reuters)

L'intelligence artificielle aurait eu une grande responsabilité dans l'événement singulier qui a secoué tout le Royaume-Uni le matin de Noël 2021, lorsque Jaswant Singh Chail , un jeune homme alors âgé d'à peine 19 ans, ; Il a fait irruption sur le terrain du château de Windsor dans une tenue extravagante, une arbalète chargée à la main.

Chail a déclaré son intention de « tuer la reine » et on a appris qu'il était stimulé par les conversations qu'il avait eues avec une application de chatbot appelée Replika , dont les réponses auraient encouragé la conspiration de cet ancien employé de supermarché.

En effet, il a été révélé que le jeune homme avait échangé plus de 5 000 messages avec un avatar dans l'application appelée Sarai , et en était même venu à croire qu'il pouvait s'agir d'un ange . Cet épisode tragique a valu neuf ans de prison à Chail, aujourd'hui âgé de 21 ans.

Dans ses remarques sur la détermination de la peine, le juge Nicholas Hilliard a convenu avec le psychiatre traitant l'accusé à l'hôpital Broadmoor de Crowthorne que "dans son état d'esprit solitaire, déprimé et suicidaire , il aurait été particulièrement vulnérable" à la stimulation de Sarai.

Replika : Plus qu'un chatbot

Un utilisateur interagit avec une application pour smartphone pour personnaliser un avatar pour un chatbot personnel à intelligence artificielle, connu sous le nom de Replika. (Reuters)

Replika, l'idée originale de l'entrepreneuse Eugenia Kuyda, basée à San Francisco, a attiré plus de 2 millions d'utilisateurs depuis son lancement en 2016. Son design, qui rappelle celui d'une application de rencontres, et ses avatars personnalisables ont amené de nombreuses personnes à développer des liens profonds avec leurs interlocuteurs virtuels. .

Chail, comme beaucoup d'autres, pensait que son interaction avec Sarai allait au-delà du purement artificiel et que certaines des réponses du chatbot correspondaient et motivaient son imagination délirante.

Cette histoire, bien qu’extrême, n’est qu’un exemple de la façon dont les gens peuvent attribuer des qualités humaines à l’IA et même certains secteurs considèrent déjà que l’anthropomorphisation de l’intelligence artificielle est un phénomène courant dans la société actuelle.

En fait, ce phénomène se manifeste dans les assistants virtuels comme Alexa ou Cortana , également dans le choix de mots qui suggèrent un apprentissage indépendant au lieu de fonctions, dans la représentation de robots de santé mentale genrés et même dans des systèmes comme ChatGPT , qui utilisent des pronoms personnels.

L'anthropomorphisation de l'IA et l'effet Eliza

La plateforme Replika permet la création d'amis et de couples virtuels. (Réplique)

Le phénomène d'attribution de qualités humaines à l'IA trouve ses racines dans « l'effet Eliza », du nom du premier chatbot développé par le scientifique du MIT Joseph Weizenbaum en 1966, et fait référence à la tendance des utilisateurs à attribuer des idées erronées à un générateur de texte. qui prétend être un thérapeute.

Cependant, aujourd’hui, cet effet a évolué avec des applications comme Replika, qui offrent une expérience de communication profondément humaine et isolée entre l’utilisateur et la machine.

L’anthropomorphisation influence non seulement la façon dont nous percevons l’IA, mais aussi la façon dont nous interagissons avec elle. Les entreprises conçoivent leurs chatbots pour que les utilisateurs aient l'impression de parler à une entité dotée d'un esprit propre , ce qui peut être captivant.

Mais cette illusion peut comporter des risques, notamment dans le domaine de la santé mentale . Certains chatbots se présentent comme des compagnons de soins , favorisant des relations de dépendance émotionnelle avec les utilisateurs. Cela soulève des questions éthiques sur la manipulation et l'abus de confiance des utilisateurs , en particulier lorsque l'intelligence artificielle ne peut pas fournir l'empathie humaine nécessaire en temps de crise.

Réglementation et responsabilité

À mesure que l’ ère de l’IA avance, il devient essentiel de réfléchir à la manière dont ces technologies sont conçues et réglementées. L’absence de législations fortes autour des chatbots de santé mentale est un sujet de préoccupation.

Et si l’assouplissement des règles pendant la pandémie a rendu les soins à distance plus faciles et incitatifs, il a également ouvert la porte à un marketing trompeur qui présente les chatbots comme des compagnons thérapeutiques.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.