
L'empathie est essentielle pour avoir des conversations positives sur la santé mentale . Mais cette compétence peut être difficile à apprendre, surtout au moment où une personne partage quelque chose de difficile. Une équipe dirigée par des chercheurs de l' Université de Washington (UW) a étudié comment l'intelligence artificielle pourrait aider les gens sur la plateforme TalkLife , où certaines personnes se soutiennent mutuellement en matière de santé mentale.
Les chercheurs ont développé un système d'IA qui suggérait des changements dans les réponses des participants pour les rendre plus empathiques. Le système a aidé les gens à communiquer leur empathie plus efficacement que la formation traditionnelle. En fait, les meilleures réponses étaient le résultat d'une collaboration entre l'IA et les gens. Les chercheurs ont publié ces découvertes dans Nature Machine Intelligence .
Des recherches antérieures suggèrent que les plateformes de soutien par les pairs pourraient avoir un impact positif significatif sur les soins de santé mentale en aidant à relever le défi de taille de l'accès. En raison de problèmes d'assurance, de stigmatisation ou d'isolement, de nombreuses personnes trouvent que les plateformes de soutien par les pairs en ligne gratuites sont tout ce à quoi elles ont accès.

TalkLife est la plus grande plateforme de soutien par les pairs au monde et compte une foule de partisans enthousiastes pour faire le travail. "Ils ont aimablement soutenu notre recherche par la collaboration, les commentaires, le recrutement de participants et le partage de données ", a déclaré Tim Althoff, professeur adjoint à l'UW à la Paul G. Allen School of Computer Science and Engineering et l'un des principaux auteurs du document.
Les spécialistes insistent sur le fait que l'empathie est essentielle pour aider les gens à se sentir soutenus et à nouer des relations de confiance . Mais c'est aussi complexe et nuancé. Il peut être difficile pour les gens de trouver les bons mots au bon moment . "Alors que les conseillers et les thérapeutes sont formés à cette compétence, nos recherches précédentes ont établi que les partenaires de soutien manquent de nombreuses occasions de se répondre avec plus d'empathie. Nous avons également constaté qu'ils n'apprennent pas à exprimer l'empathie plus efficacement au fil du temps, ce qui suggère qu'ils pourraient bénéficier d'une formation et d'un retour d'information dans cette discipline", a déclaré Althoff.

Les scientifiques ont découvert dans leurs recherches que les commentaires de l'IA peuvent être très spécifiques et contextuels, tout en fournissant des suggestions sur la façon de répondre spécifiquement à un message lorsque vous discutez avec quelqu'un. "Vous pouvez donner des idées à quelqu'un de manière personnalisée plutôt que par le biais d'exemples de formation génériques ou avec des règles qui peuvent ne pas s'appliquer à toutes les situations auxquelles une personne sera confrontée. Il n'apparaît également que si quelqu'un en a besoin ; si votre réponse est excellente, le système peut donner une légère touche de rétroaction positive », a poursuivi Althoff.
Les chercheurs ont conçu le système à partir de zéro afin de ne pas nuire à une interaction significative entre les personnes . Par exemple, ils ne montrent des commentaires que lorsque cela est nécessaire et ont formé le modèle pour apporter les plus petits changements possibles à une réponse afin de communiquer plus efficacement l'empathie.
IA avec empathie
Pour travailler sur ce sujet hautement subjectif, les spécialistes ont rejoint leur étude avec deux psychologues cliniciens, Adam Miner de l'Université de Stanford et David Atkins de l' UW School of Medicine . "Son travail a joué un rôle déterminant dans la compréhension de la recherche sur l'empathie et dans l'adaptation des échelles d'empathie existantes à l'environnement textuel asynchrone du support en ligne de TalkLife. Nous avons ensuite demandé à des personnes d'annoter 10 000 réponses TalkLife pour différents aspects de l'empathie afin de développer des modèles d'IA capables de mesurer le niveau d'empathie exprimé dans le texte », a déclaré Althoff.
Pour apprendre à l'IA à fournir des commentaires exploitables et des suggestions concrètes, les spécialistes ont développé un système basé sur l'apprentissage par renforcement . Ces appareils ont besoin d'une grande quantité de données pour être entraînés. "Même si l'empathie n'est pas exprimée aussi souvent que nous le souhaiterions sur des plateformes comme TalkLife, nous avons trouvé des milliers de bons exemples. Le système a pu apprendre d'eux pour générer un retour d'empathie utile. L'essai randomisé a montré que les pairs favorables ayant accès aux commentaires exprimaient 20 % à 40 % d'empathie en plus que les sympathisants du groupe témoin qui n'avaient pas accès aux commentaires. Parmi les participants, 69 % des pairs de soutien ont déclaré qu'ils se sentaient plus confiants pour écrire des réponses de soutien après cette étude, ce qui indique une plus grande auto-efficacité ", a déclaré Althoff.

"Les chercheurs ont étudié plus en détail comment les participants utilisaient les commentaires et ont constaté que les pairs qui les soutenaient ne dépendaient pas trop de l'IA. Par exemple, ils ont utilisé les commentaires indirectement pour une inspiration plus large au lieu de suivre aveuglément les recommandations. Ils ont également signalé des commentaires dans les rares cas où ils n'étaient pas utiles ou même inappropriés. Ainsi, la collaboration entre les humains et les systèmes d'IA conduirait à de meilleurs résultats que l'un ou l'autre seul. poursuit le spécialiste.
Nous avons également déployé des efforts considérables pour prendre en compte et traiter les risques éthiques et de sécurité. Il s'agit notamment de faire travailler l'IA avec le partenaire de soutien plutôt qu'avec la personne actuellement en crise, de mener l'étude dans un environnement similaire qui n'est intentionnellement pas intégré à la plateforme TalkLife, de donner à tous les participants l'accès à une ligne d'assistance téléphonique en cas de crise et de permettre aux pairs aidants de signaler les commentaires pour examen », a conclu Althoff.
Les autres co-auteurs de cet article étaient Ashish Sharma et Inna Lin, tous deux doctorants de l'Université de Washington à la Allen School.
Continuer à lire