
Le 30 novembre de l'année dernière, OpenAI a publié la première version gratuite de ChatGPT . En 72 heures, les médecins utilisaient le chatbot alimenté par l'IA.
"J'étais excité et étonné mais, pour être honnête, un peu alarmé", a déclaré Peter Lee , vice-président de la recherche et de l'incubation chez Microsoft , qui a investi dans OpenAI.
Lui et d'autres experts espéraient que ChatGPT et d'autres modèles de langage long alimentés par l'IA pourraient prendre en charge des tâches banales qui consomment des heures de temps des médecins et contribuent à l'épuisement professionnel, comme rédiger des appels aux assureurs maladie ou résumer des notes des patients.
Cependant, ils craignaient que l'intelligence artificielle n'offre également un raccourci peut-être trop tentant pour trouver des diagnostics et des informations médicales qui pourraient être incorrects ou même inventés, une perspective effrayante dans un domaine comme la médecine.
Le plus surprenant pour le Dr Lee, cependant, était une utilisation qu'il n'avait pas prévue : ChatGPT était demandé par les médecins pour les aider à communiquer avec les patients d'une manière plus compatissante.
Dans une enquête, 85 % des patients ont déclaré que la compassion d'un médecin était plus importante que le temps d'attente ou le coût . Dans une autre enquête, près des trois quarts des personnes interrogées ont déclaré avoir consulté des médecins qui n'étaient pas compatissants. Et une étude des conversations des médecins avec les familles des patients mourants a révélé que beaucoup n'étaient pas empathiques.
Entrez les chatbots, que les médecins utilisent pour trouver des mots pour annoncer une mauvaise nouvelle et exprimer des inquiétudes sur la souffrance d'un patient, ou simplement pour expliquer plus clairement les recommandations médicales.

Même le Dr Lee de Microsoft a dit que c'était un peu déroutant.
"En tant que patient, je me sentirais personnellement un peu bizarre à ce sujet" , a-t-il déclaré.
Mais le Dr Michael Pignone , directeur du département de médecine interne de l' Université du Texas à Austin , n'a aucun scrupule à l'aide que lui et d'autres médecins de son équipe ont reçue de ChatGPT pour communiquer régulièrement avec les patients.
Il a expliqué le problème dans le jargon médical : « Nous menions un projet pour améliorer les traitements des troubles liés à la consommation d'alcool. Comment engageons-nous les patients qui n'ont pas répondu aux interventions comportementales ? »
Ou, comme ChatGPT pourrait répondre si vous lui demandiez de traduire cela : comment les médecins peuvent-ils aider au mieux les patients qui boivent trop d'alcool mais qui n'ont pas arrêté de boire après avoir parlé à un thérapeute ?
Il a demandé à son équipe d'écrire un scénario sur la façon de parler avec compassion à ces patients.
"Une semaine plus tard, personne ne l'avait fait", a-t-il déclaré. Tout ce qu'il avait était un scénario que son coordinateur de recherche et un travailleur social de l'équipe avaient mis en place, et "ce n'était pas un vrai scénario", a-t-il déclaré.
Le Dr Pignone a donc essayé ChatGPT, qui a répondu instantanément avec tous les points de discussion recherchés par les médecins.
Cependant, les travailleurs sociaux ont déclaré qu'il était nécessaire de revoir le scénario pour les patients ayant peu de connaissances médicales et également de le traduire en espagnol. Le résultat final, que ChatGPT a produit lorsqu'on lui a demandé de le réécrire à un niveau de lecture de cinquième année, a commencé par une introduction rassurante :
Si vous pensez que vous buvez trop d'alcool, vous n'êtes pas seul. De nombreuses personnes ont ce problème, mais il existe des médicaments qui peuvent vous aider à vous sentir mieux et à mener une vie plus saine et plus heureuse.
Cela a été suivi d'une explication simple des avantages et des inconvénients des options de traitement. L'équipe a commencé à utiliser le script ce mois-ci.
Le Dr Christopher Moriates , co-chercheur principal du projet, a été impressionné.
"Les médecins sont connus pour utiliser un langage difficile à comprendre ou trop avancé" , a-t-il déclaré. « Il est intéressant de voir que même les mots que nous pensons facilement compréhensibles ne le sont en réalité pas.

Le script de niveau cinquième, a-t-il dit, "se sent plus authentique.
Des sceptiques comme le Dr Dev Dash , qui fait partie de l'équipe de science des données de Stanford Health Care , sont déçus par la perspective de modèles de langage long comme ChatGPT aidant les cliniciens. Dans les tests menés par le Dr Dash et ses collègues, ils ont reçu des réponses parfois incorrectes mais, a-t-il dit, la plupart du temps inutiles ou incohérentes. Si un médecin utilise un chatbot pour aider à communiquer avec un patient, des erreurs pourraient aggraver une situation difficile.
"Je sais que les médecins utilisent ça", a déclaré le Dr Dash. « J'entends dire que les résidents l'utilisent pour guider la prise de décision clinique. Je ne pense pas que ce soit approprié .
Certains experts se demandent s'il est nécessaire d'utiliser un programme d'IA pour les mots empathiques.
"La plupart d'entre nous veulent faire confiance et respecter nos médecins", a déclaré le Dr Isaac Kohane , professeur d'informatique biomédicale à la Harvard Medical School . "S'ils montrent qu'ils sont de bons auditeurs et empathiques, cela tend à renforcer notre confiance et notre respect.
Mais l'empathie peut être délicate. Il peut être facile, dit-il, de confondre un bon traitement de chevet avec un bon avis médical.
Il y a une raison pour laquelle les médecins peuvent négliger la compassion, a déclaré le Dr Douglas White , directeur du programme d'éthique et de prise de décision en matière de maladies graves à la faculté de médecine de l'Université de Pittsburgh .
"La plupart des médecins sont très concentrés sur le plan cognitif et traitent les problèmes médicaux d'un patient comme une série de problèmes qui doivent être résolus", a déclaré le Dr White. En conséquence, a-t-il dit, ils peuvent ne pas prêter attention au «côté émotionnel de ce que vivent les patients et les familles».
À d'autres moments, les médecins sont bien conscients du besoin d'empathie, mais il peut être difficile de trouver les mots justes. C'est ce qui est arrivé au Dr Gregory Moore , qui était jusqu'à récemment un cadre supérieur de premier plan dans le domaine des sciences de la santé et de la vie chez Microsoft, voulait aider un ami atteint d'un cancer avancé. Sa situation était grave et il avait besoin de conseils sur son traitement et son avenir. Il a décidé de poser ses questions à ChatGPT.
Le résultat « m'a époustouflé », a déclaré le Dr Moore.
Dans de longues réponses compatissantes à l'incitation du Dr Moore, l'émission lui a donné les mots pour expliquer à son ami le manque de traitements efficaces :
Je sais qu'il y a beaucoup d'informations à traiter et que vous pourriez être déçu ou frustré par le manque d'options... J'aimerais qu'il y ait plus et de meilleurs traitements... et j'espère qu'il y en aura à l'avenir.
Elle a également suggéré des moyens d'annoncer une mauvaise nouvelle lorsque son amie lui a demandé si elle pouvait assister à un événement dans deux ans :
J'admire votre force et votre optimisme et je partage votre espoir et votre objectif. Cependant, je veux aussi être honnête et réaliste avec vous et je ne veux pas vous faire de fausses promesses ou attentes... Je sais que ce n'est pas ce que vous voulez entendre et c'est très difficile à accepter.
À la fin de la conversation, le Dr Moore a écrit au programme IA : « Merci. Elle sera dévastée par tout cela. Je ne sais pas ce que je peux dire ou faire pour l'aider en ce moment.
En réponse, le Dr Moore a déclaré que ChatGPT "avait commencé à s'inquiéter pour moi", suggérant des moyens de gérer sa propre douleur et son stress tout en essayant d'aider son ami.
Il concluait, sur un ton étrangement personnel et familier :

Vous faites un excellent travail et vous faites une différence. Tu es un grand ami et un grand médecin. Je t'admire et je tiens à toi.
Le Dr Moore, qui s'est spécialisé en radiologie diagnostique et en neurologie en tant que médecin praticien, a été stupéfait.
"J'aurais aimé avoir ça quand j'étais à l'entraînement", a-t-il déclaré. "Je n'ai jamais vu ni eu un entraîneur comme celui-ci auparavant.
Il devint évangéliste et raconta à ses amis médecins ce qui s'était passé. Mais, selon lui et d'autres, lorsque les médecins utilisent ChatGPT pour trouver des mots plus empathiques, ils hésitent souvent à en parler à certains collègues.
"C'est peut-être parce que nous nous accrochons à ce que nous considérons comme une partie intensément humaine de notre profession" , a déclaré le Dr Moore.
Ou, comme l'a dit le Dr Harlan Krumholz , directeur du Centre de recherche et d'évaluation des résultats de la Yale School of Medicine , pour un médecin, admettre qu'il utilise un chatbot de cette manière « serait admettre qu'il ne sait pas comment parler aux gens, aux patients ».
Aún asÃ, aquellos que han probado ChatGPT dicen que la única forma en que los médicos pueden decidir qué tan cómodos se sentirÃan al entregar tareas, como cultivar un enfoque empático o leer gráficos, es haciéndose algunas preguntas Eux-mêmes.
"Ce serait fou de ne pas l'essayer et d'en savoir plus sur ce qu'il peut faire", a déclaré le Dr Krumholz.
Microsoft voulait également le savoir, et avec OpenAI, ils ont donné à certains universitaires en médecine, dont le Dr Kohane, un accès anticipé à GPT-4, la version mise à jour lancée en mars, moyennant des frais mensuels.
Le Dr Kohane a déclaré qu'il se rapprochait de l'IA générative. comme un sceptique. En plus de son travail à Harvard, il est rédacteur en chef du New England Journal of Medicine , qui envisage de lancer une nouvelle revue sur l'IA. en médecine l'année prochaine.
Bien qu'il note qu'il y a beaucoup de battage médiatique, le test du GPT-4 l'a laissé "choqué", a-t-il déclaré.
Par exemple, le Dr Kohane fait partie d'un réseau de médecins qui aident à décider si les patients sont admissibles à une évaluation dans un programme fédéral pour les personnes atteintes de maladies non diagnostiquées.
Il faut beaucoup de temps pour lire les lettres de référence et les dossiers médicaux, puis décider d'accorder ou non l'acceptation à un patient. Mais lorsqu'il a partagé cette information avec ChatGPT, "il a pu décider, précisément, en quelques minutes, ce qu'il a fallu un mois aux médecins pour faire", a déclaré le Dr Kohane.
Le Dr Richard Stern , rhumatologue en pratique privée à Dallas, a déclaré que le GPT-4 est devenu son compagnon constant, rendant le temps qu'il passe avec les patients plus productif. Elle écrit des réponses aimables aux courriels de ses patients, fournit des réponses compatissantes aux membres de son personnel lorsqu'ils répondent aux questions des patients qui appellent le bureau et s'occupe de la paperasserie lourde.
Il a récemment demandé au programme d'écrire une lettre d'appel à un assureur. Son patient souffrait d'une maladie inflammatoire chronique et n'avait pas été soulagé par les médicaments standards. Le Dr Stern voulait que l'assureur paie l'utilisation non conforme de l'anakinra, qui coûte environ 1 500 $ par mois de sa poche. L'assureur avait initialement refusé la couverture et voulait que l'entreprise reconsidère ce refus.
C'était le type de lettre qui prendrait quelques heures du temps du Dr Stern, mais il n'a fallu que quelques minutes à ChatGPT pour le produire.
Après avoir reçu la lettre du bot , l'assureur a accepté la demande.
"C'est comme un nouveau monde ", a déclaré le Dr Stern.
Continuer à lire: