
On pourrait dire que l'intelligence artificielle (IA) est là pour rester. À travers des applications quotidiennes telles que Siri et Alexa d'abord, jusqu'à ChatGPT ces derniers temps, tout indique que la technologie s'est surpassée et aujourd'hui, elle peut effectuer des tâches que jusqu'à il n'y a pas si longtemps, seuls les gens pouvaient effectuer.
Et bien que l'IA ait certaines capacités supérieures aux humains dans des tâches spécifiques, elle a encore du mal à comprendre le monde de la même manière que nous.
C'est dans ce contexte que certains spécialistes s'inquiètent de la diffusion d'informations concernant des personnes qui ont recours à ChatGPT au lieu d'aller voir un psychologue , par exemple. C'est le cas d'un jeune parajuriste de Charleston, en Caroline du Sud, qui a manqué un rendez-vous avec son thérapeute début avril et a décidé de parler de ses problèmes à ChatGPT.

Fait intéressant, alors que Van Slyck écrivait, il a commencé à remarquer qu'il était à l'aise pour «discuter» d'une variété de sujets profondément personnels avec le chatbot. Il lui a parlé, par exemple, de ses peurs et de ses frustrations en tant qu'homme transgenre à un moment où les droits des transgenres sont attaqués dans une grande partie du pays. Elle a également parlé du conflit avec ses parents, qui ne soutiennent pas son identité de genre, et de ses préparatifs pour une prochaine visite.
"Lorsqu'il s'agit de revoir vos parents, il est important de donner la priorité à vos propres besoins et à votre bien-être", a répondu le chatbot. Pensez à ce dont vous avez besoin pour vous sentir à l'aise et en sécurité en sa présence. Vous pouvez fixer des limites sur le temps que vous passez avec eux, sur les sujets de conversation interdits et sur la manière dont ils s'adressent à vous et à votre identité."
Dans les jours qui ont suivi, selon le site Bloomberg , le jeune homme s'est habitué à écrire quelques messages lorsqu'il avait besoin de se défouler, et il a commencé à sentir que les réponses ChatGPT offraient une libération émotionnelle.
Tout cela se passe alors qu'on ne sait toujours pas quelle sera la portée de ce type d'outil, et à l'époque où l'on apprenait que l'informaticien de Google Geoffrey Hinton, qui a apporté d'importantes contributions au développement de l'intelligence artificielle, a quitté le géant technologique pour avertir le monde du "risque existentiel" que les systèmes d'IA posent aux humains.
Mais est-il possible d'utiliser ChatGPT comme une sorte de robot thérapeute ?

Il Le psychiatre Ricardo Corral (MN 67 653) est le président de l'Association argentine des psychiatres (AAP) et chef du département d'enseignement et de recherche de l'hôpital Borda, et consulté par Infobae a estimé que "c'est quelque chose de très nouveau et en cours de développement, et Il va clairement améliorer considérablement son efficacité et sa précision ».
« Si l'on pense à tout ce qui s'est passé depuis qu'on a commencé à utiliser Internet, en passant par exemple par l'émergence des réseaux sociaux et leur évolution, jusqu'à ce qu'une machine remporte une partie d'échecs contre un champion du monde de la discipline, on comprend que nous avons atteint un point d'accélération du développement supérieur à ce que nous aurions imaginé », analyse le spécialiste, qui, s'agissant notamment de ce qui a à voir avec le choix de ce type d'outil comme choix thérapeutique, ajoute son avis : « C'est vrai que des cas comme celui de l'article susmentionné se produisent, mais il y a un aspect lié au contact humain qui n'est pas mineur dans un processus de ce type ».
"Aujourd'hui, il se trouve qu'après la pandémie et la quarantaine, de nombreuses personnes ont commencé à faire des consultations de télémédecine par appels virtuels et de nombreux thérapeutes, psychiatres ou psychologues ont continué avec cette façon de travailler", a analysé Corral. Cependant, beaucoup de gens ne se sentent pas à l'aise. Il y a quelque chose qu'on appelle la relation médecin-malade ou relation thérapeutique ou alliance thérapeutique avec la personne, qui n'est pas facile à remplacer. En d'autres termes, avec tout cela, je veux dire qu'il y a clairement un aspect très important qui a à voir avec le lien humain et la relation elle-même, ce que nous appelons une question empathique, un lien empathique avec l'autre ».

Le docteur en psychologie, enseignant, animateur d'ateliers et auteur Flavio Calvo (MN 66 869) était d'accord avec lui, qui a souligné qu'« il existe deux types d'empathie : l'empathie émotionnelle et l'empathie cognitive ». L'empathie cognitive comprend les mécanismes par lesquels une émotion peut fonctionner, tandis que l'empathie émotionnelle partage également l'émotion avec l'autre", a-t-il expliqué tout en illustrant que cette dernière est ce qui se produit lorsque quelqu'un "pleure avec celui qui pleure, le deuil d'un autre fait mal, etc.
En ce sens, pour lui, « l'intelligence artificielle peut peut-être comprendre certains mécanismes, mais elle ne ressentira jamais d'émotions comme un être humain. Vous ne pourrez pas « vous mettre à la place de l'autre », ce qui finit par être essentiel pour une bonne thérapie ». Et il a ajouté: "S'il n'y a pas une âme humaine touchant une autre âme humaine, ce n'est pas une thérapie, cela se résume à une série de conseils et de probabilités sans cœur."
"L'intelligence artificielle peut être pratique, donner des réponses rapides, même peut-être, et je mets le peut-être entre guillemets, garder des secrets", a expliqué Calvo. Mais il ne remplit pas la fonction d'accompagner et d'aider avec empathie la personne à développer ses propres outils de changement, alors qu'il se contente de dire quoi faire sans développer son esprit critique ».
"Et au-delà de la thérapie spécifique, du traitement spécifique, qu'il soit biologique, par exemple avec un médicament ou un psychothérapeutique, le lien empathique est quelque chose qui aide à améliorer les symptômes et aide à améliorer l'état de la personne", a ajouté Corral, pour qui, s'il cherchait un aspect positif à l'avancement de l'IA dans cette sphère de la vie, il pensait : "C'est quelque chose qui pourrait potentiellement être utilisé et résoudre un problème critique, et c'est que la société et la communauté n'ont pas en ce moment de réponse pour problèmes de santé mentale, tant de problèmes de développement liés à l'intelligence artificielle peuvent être d'une grande aide pour les personnes qui souffrent, qui n'ont pas la possibilité d'accéder à une personne physique, un médecin, un thérapeute, un psychologue, un psychiatre ».
"C'est si vous voulez regarder le côté positif. Bien évidemment, toutes les alertes sont là ; car cela peut potentiellement être très dangereux », a-t-il déclaré.
risques possibles

De puissants chatbots à usage général, notamment ChatGPT, Bard de Google et Bing Chat alimenté par OpenAI de Microsoft Corp., s'appuient sur de grands modèles de langage, une technologie avec une tendance bien documentée à fabriquer simplement des informations convaincantes. Cependant, ils ne sont pas conçus pour la thérapie et n'ont pas été programmés pour répondre aux directives éthiques et légales observées par les thérapeutes humains. Dans leur forme actuelle, ils n'ont également aucun moyen de garder une trace de ce que les utilisateurs leur disent d'une session à l'autre, une lacune que la plupart des patients ne toléreraient probablement pas de la part de leurs thérapeutes humains.
"Si quelqu'un a une maladie mentale grave, ce n'est pas prêt de remplacer un professionnel de la santé mentale", a observé Stephen Ilardi, psychologue clinicien et professeur à l'Université du Kansas qui étudie les troubles de l'humeur. "Le risque est trop élevé", a-t-il estimé, tout en décrivant ChatGPT comme "un tour de passe-passe". Pourtant, il pense que c'est un partenaire de conversation suffisamment bon pour que de nombreuses personnes puissent le trouver utile.
Van Slyck, qui suit une thérapie en personne depuis des années, dit qu'il ne prévoit pas d'arrêter de voir sa thérapeute humaine et qu'il la consulterait sur toute décision que ChatGPT porterait à son attention avant d'agir. "Jusqu'à présent, pour moi, ce que vous avez suggéré a semblé être une rétroaction très raisonnable et très perspicace", a-t-il déclaré.
Ilardi a averti qu'avec les bonnes mesures de sécurité en place, il peut envisager que ChatGPT s'adapte pour compléter les soins professionnels à un moment où la demande de services de santé mentale dépasse l'offre.

Pour Margaret Mitchell, scientifique en chef de l'éthique chez Hugging Face, une entreprise qui fabrique et soutient des modèles d'IA, ces chatbots pourraient être utilisés pour aider les personnes qui travaillent sur des lignes d'assistance téléphonique en cas de crise à augmenter le nombre d'appels auxquels elles peuvent répondre.
Mais elle craignait néanmoins que les personnes cherchant une thérapie avec des chatbots puissent aggraver leurs souffrances sans se rendre compte de ce qu'elles faisaient à ce moment-là. "Même si quelqu'un trouve la technologie utile, cela ne signifie pas qu'elle les mène dans la bonne direction", a-t-il déclaré.
D'un autre côté, Mitchell a soulevé des implications potentiellement troublantes pour la vie privée. Il a expliqué qu'OpenAI examine les conversations des utilisateurs et les utilise pour la formation, ce qui peut ne pas plaire aux personnes qui souhaitent parler de sujets très personnels. "Les utilisateurs peuvent supprimer leurs comptes, bien que le processus puisse prendre jusqu'à quatre semaines", a-t-il déclaré. En mars, un problème technique a conduit OpenAI à fermer brièvement ChatGPT après avoir reçu des informations indiquant que certains utilisateurs pouvaient voir les titres des historiques de discussion d'autres utilisateurs.
Continuer à lire