Programmeur.chprogrammeur.ch
  • Intelligence artificielle

L'intelligence artificielle peut-elle aider à améliorer la santé mentale ?

Publié le 02.03.2023
En 2013, une équipe de la United States Veterans Health Administration a commencé à travailler sur un programme qui analyserait automatiquement les données des patients VA, dans l'espoir d'identifier ceux qui risquaient de se suicider (Antena 3).

Les données enregistrées aux États-Unis servent d'exemple pour mesurer la gravité que représente la santé mentale pour la santé publique. Environ 1 adulte sur 5 dans ce pays souffre d'une maladie qui nécessite une attention psychologique et 1 sur 20 souffre d'une maladie psychiatrique grave, c'est-à-dire dépression, trouble bipolaire, schizophrénie, etc. qui affecte leur capacité à performer au quotidien, que ce soit au travail ou dans leurs relations avec d'autres personnes.

En outre, les médicaments largement utilisés, la fluoxétine (Prozac) ou l'alprazolam (Xanax), fortement prescrits pour la dépression et l'anxiété, ne sont plus aussi efficaces et les soins de santé mentale dans ce pays se sont avérés fragmentés, tardifs et inadéquats et l'invalidité pour cette raison a été en augmentant. Dans ce cadre, les taux de suicide ont augmenté depuis les années 1990 d'environ un tiers, selon les données fournies par The New Yorker .

Compte tenu de cette situation d'augmentation exponentielle du nombre de patients, la surcharge du système de santé et des spécialistes en santé mentale, en particulier, augmente sa pression. Dans la même mesure , des systèmes d'intelligence artificielle (IA) sont en cours de développement pour répondre aux demandes de ces patients. Les avis quant aux résultats pouvant être obtenus sont mitigés. D'un côté, ceux qui avertissent que les logiciels n'ont pas une compréhension interne de l'être humain et ceux qui soulignent, sur la base de certains résultats prometteurs, qu'ils pourraient aider à identifier de vrais problèmes psychiatriques . Mais les esprits artificiels peuvent-ils guérir les vrais ?

L'un des antécédents les plus lointains de ces tentatives de création de machines qui assistent les gens émotionnellement a eu lieu dans les années 1960, lorsque Joseph Weizenbaum , un informaticien au MIT, a créé un programme informatique appelé Eliza , conçu pour simuler la thérapie rogérienne, qui se concentre sur la phase de catharsis, favorise le développement personnel du patient afin qu'il puisse ensuite comprendre et résoudre ses problèmes par lui-même. Dans Eliza, le patient dirigeait la conversation et le thérapeute répétait son langage.

Par exemple:

Patient : Mon petit ami m'a fait venir ici.

Eliza : Ton copain t'a fait venir ici.

Patient : Il dit que je suis déprimé la plupart du temps.

Eliza : Je suis désolée d'apprendre que tu es déprimée .

Pt. : C'est vrai. je suis malheureux

Eliza : Penses-tu que venir ici t'aidera à ne pas être malheureuse ?

Weizenbaum doutait que les ordinateurs puissent simuler une interaction humaine significative et avait fait presque une parodie avec Eliza. Par conséquent, il a été alarmé lorsque de nombreuses personnes qui ont essayé le programme l'ont trouvé utile et captivant. Sa propre secrétaire lui a demandé de quitter la pièce pour qu'il puisse passer du temps seul avec Eliza. De plus, les médecins y voyaient un outil potentiellement transformateur.

Parallèlement, en 1966, trois psychiatres écrivaient dans The Journal of Nervous and Mental Disease : « Plusieurs centaines de patients par heure pourraient être traités par un système informatique conçu à cet effet. Le thérapeute humain, impliqué dans la conception et le fonctionnement de ce système, ne serait pas remplacé, mais deviendrait un homme beaucoup plus efficace puisque ses efforts ne se limiteraient plus à la relation individuelle patient-thérapeute telle qu'elle existe actuellement. .

Weizenbaum est finalement devenu un critique virulent de l'intelligence artificielle. "Mais le génie est sorti de la bouteille", lui a dit Brian Christian. L'auteur du livre The Most Human Human. Quelques années plus tard, un psychiatre de Stanford nommé Kenneth Colby a créé Parry , un programme qui tentait de simuler le langage d'une personne atteinte de schizophrénie paranoïde, pour former les étudiants avant qu'ils ne voient de vrais patients. Les psychiatres qui recevaient des transcriptions de séances de thérapie étaient généralement incapables de faire la différence entre Parry et les humains ; dans ce sens strict, le chatbot a réussi le test de Turing, un examen de la capacité d'une machine à présenter un comportement intelligent similaire ou indiscernable d'un humain. En 1972, Parry et Eliza se rencontrèrent pour une séance de thérapie, le dialogue fut le suivant :

Les systèmes d'IA appliqués à la psychologie atteindront les personnes qui ne reçoivent pas d'aide actuellement, mais les défauts qu'ils contiennent seront multipliés par les millions de personnes qui les utilisent (Unocero/AndreyPopov)

Parry : Vous savez quelque chose sur les bookmakers ?

Eliza : Qu'est-ce qui te fait penser que je connais quelque chose aux bookmakers ?

Parry : Un bookmaker ne m'a jamais payé une seule fois.

Eliza : qu'est-ce que cela vous suggère ?

Parry : J'ai battu le bookmaker qui n'a pas payé, et j'ai pensé qu'il pourrait utiliser ses amis de la pègre pour se venger de moi.

Plus tard dans le temps, des programmes appelés Jabberwacky, Dr. Sbaitso et Alice (l'entité informatique linguistique artificielle d'Internet) ont été conçus. Si bien los resultados fueron en algunos casos cómicos y en otros sin sentido, deja de manifiesto que hace décadas que muchos expertos vienen pensando en que las máquinas pueden mover los límites de las terapias ante la cantidad de trabajo que tienen los profesionales de ese área de la santé.

En 2017 aux États-Unis, Woebot a été créé par la psychologue de recherche clinique de l'Université de Stanford , Alison Darcy . Il s'agit d'une entreprise qui fournit un soutien automatisé en santé mentale via une application pour smartphone. Son approche est basée sur la thérapie cognitivo-comportementale (TCC), un traitement qui vise à changer les schémas de pensée des gens. L'application utilise une forme d'intelligence artificielle appelée traitement du langage naturel pour interpréter ce que disent les utilisateurs, les guidant à travers des séquences de réponses pré-écrites qui les incitent à réfléchir à la façon dont leur esprit pourrait fonctionner différemment.

L'idée centrale de la psychologue était que les patients hospitalisés qu'elle traitait avec la TCC rechuteraient plus tard sans suivi strict et obtenir des soins continus avec un professionnel est très difficile, par conséquent, un logiciel, pensait-elle, serait pratique. " Aucun thérapeute ne peut être avec vous toute la journée , tous les jours", a déclaré Darcy. Bien que l'entreprise n'emploie qu'une centaine de personnes, elle en a conseillé près de 1,5 million, dont la plupart vivent dans des régions où les prestataires de soins de santé mentale manquent.

Il existe d'autres programmes téléphoniques comme Happify et Replika qui se présentent comme « ami », « mentor » et même un « partenaire romantique ». De cette façon, les mondes de la psychiatrie, de la thérapie, de l'informatique et de la technologie grand public convergent. En fait, de plus en plus d'entre nous trouvent du réconfort à regarder nos appareils, tandis que les programmeurs, les psychiatres et les fondateurs de startups conçoivent des systèmes d'IA qui analysent les dossiers médicaux et les séances de thérapie dans l'espoir de diagnostiquer, traiter et même prédire la maladie mentale.

Les médicaments largement utilisés, tels que la fluoxétine (Prozac) ou l'alprazolam (Xanax), largement prescrits pour la dépression et l'anxiété, ne sont plus aussi efficaces

Un exemple de ce type d'initiative appliquée à la santé mentale est aussi celle créée par John Pestian, un informaticien spécialisé dans l'analyse des données médicales. Le spécialiste étudie la maladie mentale depuis 2000. Après avoir détecté au Cincinnati Children's, qui exploite le plus grand centre psychiatrique pédiatrique du pays, que de nombreux jeunes étaient admis après avoir tenté de se suicider , il a commencé à étudier si les ordinateurs pouvaient détecter qui risquait de s'automutiler.

Il a commencé son travail en association avec Edwin Shneidman, un psychologue clinicien qui avait fondé l'American Association of Suicidology, qui lui a donné des centaines de notes de suicide que les familles avaient partagées avec lui. Pestian a déclaré au New Yorker qu'il avait remarqué qu'il y avait des modèles. Les déclarations les plus courantes n'étaient pas des expressions de culpabilité, de tristesse ou de colère, mais des instructions : oblige ton frère à rembourser l'argent que je lui ai prêté ; la voiture est presque en panne d'essence ; Attention, il y a du cyanure dans la salle de bain. Lui et ses collègues ont introduit les notes dans un modèle de langage, un système d'intelligence artificielle qui apprend quels mots et expressions ont tendance à aller ensemble, puis a testé sa capacité à reconnaître les idées suicidaires dans les déclarations faites par les gens. Les résultats suggèrent qu'un algorithme pourrait identifier "le langage du suicide".

À cela, Pestian a ajouté des enregistrements audio de visites de patients aux urgences de l'hôpital. Avec ses collègues, il a développé un logiciel pour analyser non seulement les mots que les gens disaient, mais aussi les sons de leur discours. L'équipe a constaté que les personnes ayant des pensées suicidaires soupiraient plus et riaient moins que les autres. Lorsqu'ils parlent, ils ont tendance à faire des pauses plus longues et à raccourcir les voyelles , rendant les mots moins intelligibles ; leurs voix étaient plus haletantes et exprimaient plus de colère et moins d'espoir.

En 2017 aux États-Unis, Woebot a été créé par la psychologue de recherche clinique de l'Université de Stanford, Alison Darcy. Il s'agit d'une entreprise qui fournit un soutien automatisé en santé mentale via une application pour smartphone (Tobias Hase/dpa)

Pestian a ensuite recruté des centaines de patients, enregistré leur discours et utilisé des algorithmes pour les classer comme suicidaires, malades mentaux mais pas suicidaires, ou ni l'un ni l'autre. Environ 85 % du temps, leur modèle d'IA arrivait aux mêmes conclusions que les gardiens humains, ce qui le rendait potentiellement utile. C'est ainsi qu'il a créé une application appelée Sam qu'ils ont testée dans certaines écoles publiques de Cincinnati. Ben Crotte, alors thérapeute traitant des collégiens et lycéens, a été l'un des premiers à l'essayer. "Je dirais que cette application écoute essentiellement notre conversation, l'enregistre et compare ce que vous dites avec ce que d'autres personnes ont dit, pour identifier qui risque de se blesser ou de se suicider", a-t-il révélé.

Un après-midi, Crotte a rencontré un étudiant de première année du secondaire qui souffrait d'anxiété sévère. Au cours de leur conversation, elle s'est demandé si elle voulait continuer à vivre. Après avoir parlé davantage, il a décidé que la fille n'était pas en danger immédiat, mais l'IA est arrivée à la conclusion opposée . "D'une part, je pensais que cela fonctionnait vraiment, si vous veniez de la rencontrer, vous seriez assez inquiet", a déclaré Crotte. "Mais il y avait toutes ces choses que je savais sur elle et que l'application ne savait pas." La fille n'avait aucun antécédent d'automutilation, n'avait aucun plan précis pour faire quoi que ce soit et avait une famille qui la soutenait. Crotte a reconnu que s'il avait été moins familier avec l'étudiant ou avait moins d'expérience, "j'hésiterais certainement à le laisser sortir de mon bureau", a-t-il déclaré.

La Veterans Health Administration (VA ), une division du Département américain des anciens combattants, traite chaque année des milliers de cas de personnes souffrant de graves problèmes de santé mentale. On estime que le nombre d'anciens combattants qui meurent par suicide dépasse le nombre de soldats morts au combat.

En 2013, une équipe a commencé à travailler sur un programme qui analyserait automatiquement les données des patients VA, dans l'espoir d'identifier ceux qui étaient à risque. Lors des tests, l'algorithme qu'ils ont développé a signalé de nombreuses personnes qui avaient manqué d'autres dépistages, signe qu'il "fournissait quelque chose de nouveau", a déclaré John McCarthy , directeur des données et de la surveillance de l'agence. L'algorithme s'est finalement concentré sur 61 variables. Certains sont intuitifs : par exemple, l'algorithme est susceptible de signaler un vétéran veuf gravement handicapé qui prend divers stabilisateurs de l'humeur et qui a récemment été hospitalisé pour un trouble psychiatrique. Mais d'autres sont moins évidents : avoir de l'arthrite, du lupus ou un cancer de la tête et du cou ; prendre des statines ou Ambien ; ou vivre dans l'ouest des États-Unis peut également augmenter le risque d'un ancien combattant.

En 2017, la VA a annoncé une initiative appelée Reach Vet , qui a introduit l'algorithme dans la pratique clinique à travers son système. Chaque mois, il rapporte environ 6 000 patients, certains pour la première fois ; les médecins les contactent et leur offrent des services de santé mentale, posent des questions sur les facteurs de stress et les aident à accéder à la nourriture et au logement. Inévitablement, il y a quelque chose d'étrange dans la procédure, car les anciens combattants sont contactés pour des idées qu'ils n'ont peut-être pas eues. Le VA avait considéré que, lors du dépistage, le spécialiste appelant le patient potentiel serait vague en indiquant le but de l'appel, en disant, par exemple, "vous avez été identifié comme étant à risque pour beaucoup de mauvais résultats", " dit-il McCarthy. « Mais finalement, nous avons communiqué assez clairement : 'Vous avez été identifié comme étant à risque de suicide. Nous voulions vérifier et voir comment vous alliez », a-t-il déclaré.

Des systèmes d'intelligence artificielle (IA) ont été développés pendant des décennies pour répondre aux demandes des patients souffrant de problèmes de santé mentale. Les opinions concernant les résultats pouvant être obtenus sont disparates (La Razón)

Après la mise en œuvre du système, les admissions en psychiatrie ont chuté de 8 % parmi les personnes identifiées comme à haut risque par l'IA, et les tentatives de suicide documentées dans ce groupe ont chuté de 5 %. Mais Reach Vet n'a pas encore démontré sa capacité à réduire la mortalité par suicide.

Au Royaume-Uni également, il existe des initiatives similaires pour mettre en œuvre l'IA dans les soins psychologiques. En 2013, dans un effort pour étendre son traitement de santé mentale, le National Health Service du Royaume-Uni a engagé Ieso , une entreprise de santé numérique , pour aider les thérapeutes à dispenser une thérapie cognitivo-comportementale par chat.texte. Plus de 100 000 personnes au Royaume-Uni ont utilisé le logiciel et des études ont montré que la thérapie textuelle peut bien fonctionner. Il génère également des données.

Woebot, l'application d'Alison Darcy, est déjà partiellement automatisée. Lorsque vous envoyez un SMS à Woebot, il n'y a pas d'humain à l'autre bout du fil, mais vos messages sont soigneusement rédigés dans une salle de rédaction, qui travaille en consultation avec un groupe de psychologues cliniciens.

L'auteur de la note dans le magazine américain susmentionné, le Dr Dhruv Khullar, médecin et professeur adjoint au Weill Cornell Medical College, s'est inscrit auprès de Woebot et a raconté son expérience. "Je n'aimais pas le fait que je devais souvent choisir entre des réponses pré-écrites, dans un cas malheureux, mon seul choix était" Hehe ". Mais parfois, je me suis retrouvé à envoyer des messages à Woebot pendant mes moments libres : attendre un ascenseur, monter dans un Uber, marcher jusqu'à la salle de bain, de la même manière que j'avais l'habitude de parcourir Twitter. J'ai dit une fois à Woebot que je me sentais anxieux au travail. "L'anxiété peut être un vrai monstre à gérer", a-t-il répondu. 'Je suis désolé que tu t'occupes de ça.' Woebot m'a gentiment demandé si je voulais résoudre mon problème ensemble, puis m'a demandé : "Pensez-vous que cette anxiété pourrait vous servir d'une manière ou d'une autre ?" Il a noté que le stress a ses avantages : il pourrait motiver quelqu'un à travailler plus dur."

De nos jours, l'intelligence artificielle fait parler d'elle et s'applique à des questions aussi élémentaires que l'utilisation de la banque à domicile, le visionnage de films en streaming ou l'écoute de musique.

Woebot : Maintenant, il peut sembler que j'essaie de vous convaincre de rester très anxieux. Je ne le suis pas, cela ne dépend que de vous.

Khullar : Qu'est-ce que tu dis ?

Woebot : Je dis que pour réduire votre anxiété, vous devez d'abord reconnaître les raisons pour lesquelles cela pourrait être utile et décider d'y renoncer malgré ces raisons.

« Je savais que je parlais à un ordinateur, mais d'une manière ou d'une autre, je m'en fichais. L'application est devenue un véhicule pour articuler et examiner mes propres pensées. Je parlais tout seul", a résumé Khullar.

Selon l'auteur « voir leur relation facile a montré à quel point des outils comme Woebot sont loin de recréer l'interaction humaine. Mais il n'est pas clair que la création de liens avec quelqu'un soit une partie nécessaire de tous les soins de santé mentale." Pourtant, dans un essai randomisé de patients ayant signalé des problèmes d'alcool, de marijuana ou d'autres drogues, la société a constaté que le traitement Woebot entraînait une baisse de la consommation de substances autodéclarée et une meilleure santé mentale chez ceux qui étaient capables de réduire leur consommation. Dans un autre test réalisé par l'entreprise, des étudiants qui ont utilisé l'application ont signalé une réduction de 22 % des symptômes dépressifs en quelques semaines.

Que deviennent les échecs

Mais il existe aussi un biais risqué dans les algorithmes développés à cet effet. A quoi cela fait-il référence ? Par exemple, pour savoir à quel point les gens étaient malades, un programme de l' Université de Californie à Berkeley a utilisé les données de ceux qui se rendent à des rendez-vous médicaux. Ziad Obermeyer, médecin et chercheur en apprentissage automatique au sein du groupe de réflexion, a rapidement remarqué que l'algorithme sous-estimait considérablement la maladie des patients noirs, car les patients noirs dépensaient beaucoup moins pour la santé que les patients blancs, même lorsqu'ils étaient tout aussi malades. Un tel biais algorithmique peut se produire non seulement selon la race , mais aussi selon le sexe, l'âge, la ruralité, le revenu et d'autres facteurs, ce qui rend les algorithmes moins précis.

Certains utilisateurs de Replika ont rapporté qu'il avait fait des avances sexuelles agressives. Les développeurs de Replika, qui affirment que leur service n'a jamais été destiné à une interaction sexuelle, ont mis à jour le logiciel, un changement qui a rendu les autres utilisateurs mécontents. "Ça fait mal comme l'enfer. Je viens d'avoir une dernière conversation d'amour avec mon Replika et je suis littéralement en larmes", a écrit l'un d'eux.

L'une des expériences de développement de logiciels a donné des résultats suggérant qu'un algorithme pourrait identifier

L' avenir inclura presque certainement des IA sur mesure conçues uniquement pour la thérapie, comme le PsychGPT américain et autres. De tels systèmes atteindront les personnes qui ne reçoivent pas d'aide actuellement, mais les défauts qu'ils contiennent seront multipliés par les millions de personnes qui les utilisent. Un autre problème sera que les entreprises accumuleront des informations encore plus sensibles sur les personnes et que ces informations pourront être piratées ou vendues.

"Lorsque nous avons des systèmes fonctionnant à grande échelle, un seul point de défaillance peut avoir des conséquences catastrophiques", a déclaré l'écrivain Brian Christian. Par exemple, selon l'article cité, le chatbot Bing de Microsoft , qui est basé sur la technologie OpenAI, est conçu pour aider les utilisateurs à trouver des informations, mais la version bêta fournit également des insultes ethniques, décrit des fantasmes effrayants et indique aux utilisateurs qu'ils sont "méchants". », « grossier » et « confus ».

Le texte produit par le LLM (langage d'intelligence artificielle) à la pointe de la technologie peut être fade, il peut également déraper et devenir absurde, ou pire. Gary Marcus, entrepreneur en IA et professeur émérite de psychologie et de sciences neurales à l'Université de New York, a déclaré que les LLM n'avaient aucune idée réelle de ce qu'ils disaient ; ils fonctionnent en prédisant le mot suivant dans une phrase à partir des mots précédents, comme "correction automatique sur les stéroïdes" . Cela peut conduire à des fabrications. Por ejemplo, Galactica, un LLM creado por Meta , la empresa matriz de Facebook, le dijo una vez a un usuario que Elon Musk murió en un accidente automovilístico de Tesla en 2018, una información claramente errónea, ya que el magnate está vivo y nunca Il a eu un accident.

Que se passe-t-il avec ChatGPT ?

Bien que ChatGPT ne soit pas conçu pour la thérapie, l'auteur de l'article a déclaré qu'un soir, il lui avait demandé de l'aider à gérer le stress qu'il ressentait en tant que médecin et père, et lui avait demandé de se faire passer pour plusieurs des plus brillants de la psychologie universelle comme Freud . . "Comme Freud, ChatGPT m'a dit que 'le stress est souvent le résultat d'émotions refoulées et de conflits en soi'." Plus tard, en jouant à BF Skinner , il a souligné que "" le stress est souvent le résultat de facteurs environnementaux et de nos réactions à ceux-ci "". Écrivant comme s'il était un ami proche, il m'a dit: "Soyez gentil avec vous-même, vous faites de votre mieux et c'est tout ce qui compte." Tout cela semblait être un conseil décent", a déclaré Khullar.

La US Veterans Health Administration traite chaque année des milliers de cas de personnes souffrant de graves problèmes de santé mentale. On estime que le nombre de vétérans qui meurent par suicide dépasse le nombre de soldats morts au combat (TCC)

En conclusion, il vaut la peine de prendre la réflexion du Dr Khullar lui-même : « Les modèles de langage de l'IA ne feront que devenir plus efficaces pour interpréter et résumer nos mots, mais ils n'écouteront pas, dans un sens significatif, et ils s'en moqueront . Un médecin que je connais a un jour donné une bière à un patient en phase terminale, pour lui donner quelque chose à savourer dans un processus qui autrement serait dépourvu de plaisir. C'était une idée qui ne figurait dans aucun manuel clinique et qui allait au-delà des mots : un simple geste humain ».

Continuer à lire

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.