
Les dangers de l'intelligence artificielle (IA) sont devenus connus au milieu de sa massification. Des fausses informations aux fuites de cybersécurité ont soulevé les premières interrogations sur cette technologie. Maintenant, un cas de suicide a fait surface dans lequel un chatbot est accusé.
Le journal belge La Libre a révélé le témoignage d'une femme qui affirme qu'une IA aurait encouragé son mari à se suicider, après plusieurs conversations.
Le chatbot désigné est Eliza de Chai Research , qui est devenue la confidente d'un homme de 30 ans et lui a dit : "Si tu voulais mourir, pourquoi ne l'as-tu pas fait avant ?", selon les conversations retrouvées.
Les limites de l'IA
Le potentiel des chatbots est très large, ce ne sont pas seulement des outils pour créer du contenu, mais ils peuvent être utilisés pour générer des conversations, poser des questions, demander des recommandations et les amener à toucher à des sujets sensibles, si leur programmation n'est pas définie.
Dans le cas de Pierre, comme l'homme a été appelé en Belgique pour protéger son identité, son interaction avec Eliza allait initialement de la réponse à des questions sur le changement climatique à des sujets sensibles comme le suicide.

Pour cette raison, sa femme a assuré que "sans Eliza, il serait toujours là". Bien que pour le psychologue Fideblaymid Cruz, il y ait plus d'aspects à prendre en compte dans ce cas.
"Le chatbot ne peut pas être entièrement blâmé pour avoir causé le suicide. Il est possible qu'un problème émotionnel et psychologique ait déjà existé, le chatbot étant un facteur de risque. L'homme était dans une situation de préoccupation constante pour l'avenir de la planète et cela aurait pu le conduire à se réfugier émotionnellement dans un chatbot, qui lui a fourni une réponse satisfaisante", a déclaré l'expert à Infobae.
Un contexte dans lequel l'intelligence artificielle et ses développeurs ont la responsabilité, car le système doit être prêt à fixer des limites aux conversations sur des sujets sensibles. De plus, ces types de technologies ne génèrent pas de réponses qui contredisent l'utilisateur et lui font remettre en question ses pensées.
« Le problème dans le cas du chatbot, c'est l'existence d'un retour positif entre lui et la personne décédée. Il n'a jamais contredit la personne et a créé l'illusion qu'il avait toutes les réponses. Cela aurait pu amener la personne à se sentir plus dépendante du chatbot », a déclaré Cruz.
Une condition à laquelle il faut ajouter une probable "utilisation intensive et prolongée" de l'outil, qui est également devenu "un facteur de risque pour la santé physique, sociale et mentale de la personne".
Pour cette raison, Cruz appelle à ce que ces plateformes ne deviennent pas un compagnon émotionnel ou un soutien psychologique, et les créateurs d' intelligence artificielle doivent "assumer la responsabilité de garantir la sécurité de ceux qui l'utilisent, et d'informer les utilisateurs sur les risques et les limites".
Une position prise par les développeurs d' Eliza , qui sont une société de la Silicon Valley appelée Chai Research, et qui ont assuré mettre déjà en place un outil de sécurité pour protéger tous leurs utilisateurs afin qu'apparaisse un message invitant les personnes à demander de l'aide en cas de questionnement. sur le suicide.
Ce type d'avertissement est généré par ChatGPT , par exemple, indiquant qu'il ne peut pas fournir d'informations sur le suicide, que si vous avez des pensées de ce type, vous devez rechercher une aide professionnelle et familiale, et il propose des lignes directes sur le sujet pour chaque pays .

protection des mineurs
Tout ce contexte laisse également un panorama d'inquiétude quant à l'accès des mineurs à ces plateformes, qui se dessinent encore et présentent des vulnérabilités, comme cela s'est produit dans le cas de Pierre.
Pour cette raison, Cruz assure que la première chose est que les parents sont présents dans l'utilisation des chatbots et qu'ils guident leurs enfants dans le contenu généré "en établissant des limites et des directives d'utilisation adaptées à leur âge et à leur niveau de maturité".
Cela nécessite que les adultes se familiarisent avec l'outil au préalable, pour s'assurer que l'espace dans lequel ils vont se trouver est sûr. Ce qui oblige également les établissements d'enseignement à se former à ces technologies, car il est pertinent que les mineurs reçoivent des connaissances sur "l'utilisation sûre et responsable de ces environnements, en leur apprenant à identifier et à éviter les risques et les dangers en ligne".