
(Ernie Mundell - HealthDay News) -- Le cerveau des médecins est doué pour prendre des décisions, mais même les médecins les plus intelligents pourraient bénéficier d'un peu d'aide au diagnostic de ChatGPT , suggère une nouvelle étude .
Le principal avantage vient d'un processus de réflexion appelé « raisonnement probabiliste » : connaître les probabilités que quelque chose se produise (ou non). "Les humains ont des difficultés avec le raisonnement probabiliste, la pratique consistant à prendre des décisions basées sur le calcul de probabilités", a expliqué l'auteur principal de l'étude, le Dr Adam Rodman , du centre médical Beth Israel Deaconess à Boston.
"Le raisonnement probabiliste est l'un des nombreux éléments permettant d'établir un diagnostic, qui est un processus incroyablement complexe qui utilise une variété de stratégies cognitives différentes" , a-t-il expliqué dans un communiqué de presse de Beth Israel. "Nous avons choisi d'évaluer le raisonnement probabiliste de manière isolée, car il s'agit d'un domaine bien connu dans lequel les humains pourraient utiliser un support. "
L'équipe de Beth Israel a utilisé les données d'une enquête précédemment publiée auprès de 550 professionnels de la santé . Il leur avait été demandé d’effectuer un raisonnement probabiliste pour diagnostiquer cinq cas médicaux différents.

Cependant, dans la nouvelle étude, l'équipe de Rodman a attribué les cinq mêmes cas à l'algorithme d'IA de ChatGPT, le Large Language Model (LLM), ChatGPT-4.
Les cas comprenaient des informations provenant de tests médicaux courants, tels qu'un scanner thoracique pour une pneumonie, une mammographie pour un cancer du sein, un test d'effort pour une maladie coronarienne et une culture d'urine pour une infection des voies urinaires.
Sur la base de ces informations, le chatbot a utilisé son propre raisonnement probabiliste pour réévaluer la probabilité de divers diagnostics de patients. Sur les cinq cas, le chatbot était plus précis que le médecin humain dans deux cas ; également précis pour deux autres ; et moins précis pour un. Les chercheurs ont considéré qu’il s’agissait d’une « égalité » lorsqu’ils comparaient les humains au chatbot pour les diagnostics médicaux.
Mais le chatbot ChatGPT-4 a excellé lorsque les tests d'un patient se sont révélés négatifs (plutôt que positifs), devenant ainsi plus précis dans le diagnostic que les médecins dans les cinq cas.
"Les humains ont parfois l'impression que le risque est plus élevé qu'il ne l'est après un résultat de test négatif, ce qui peut conduire à un traitement excessif, à davantage de tests et à une trop grande prise de médicaments", a déclaré Rodman. Il est médecin de médecine interne et chercheur au département de médecine Beth Israel.

L'étude paraît dans le numéro du 11 décembre de JAMA Network Open. Il est alors possible que les médecins travaillent un jour avec l’IA pour être encore plus précis dans le diagnostic des patients, ont indiqué les chercheurs.
Rodman a qualifié cette perspective de « passionnante ». "Même s'ils sont imparfaits, la facilité d'utilisation [des chatbots] et leur capacité à s'intégrer dans les flux de travail cliniques pourraient, en théorie, amener les humains à prendre de meilleures décisions", a-t-il déclaré. « Des recherches futures sur l'intelligence collective humaine et artificielle sont grandement nécessaires. »
Plus d'information
Apprenez-en davantage sur l’IA et la médecine à l’Université Harvard.
SOURCE : Centre médical Beth Israel Deaconess, communiqué de presse, 11 décembre 2023
* Ernie Mundell HealthDay Reporters ©The New York Times 2023