Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Pourquoi l'utilisation de l'intelligence artificielle en médecine pourrait être nocive pour les patients

Publié le 27.04.2023
Le développement de programmes tels que ChatGPT ouvre la possibilité de poser des diagnostics médicaux et d'indiquer des traitements grâce à l'intelligence artificielle/Fichier

L'utilisation de l'intelligence artificielle en santé et en médecine fait de plus en plus d'adeptes depuis une quinzaine d'années. Actuellement, les applications sont utilisées pour savoir combien de pas sont effectués par jour, pratiquer la méditation ou accéder à des séances de thérapie cognitivo-comportementale, entre autres aspects.

Cependant, la disponibilité de chatbots sophistiqués, alimentés par des programmes comme ChatGPT, ouvre désormais la porte à l'intelligence artificielle pour devenir une source principale lorsqu'il s'agit de donner des diagnostics médicaux et d'indiquer des traitements . Cette réalité soulève deux questions essentielles : la relation entre médecins et patients pourrait-elle être altérée ? Et surtout, cela peut-il impliquer des risques pour les soins médicaux ?

GPT Chat est un modèle linguistique qui a été formé sur des volumes massifs de texte provenant d'Internet. Il essaie d'imiter le texte humain et peut jouer divers rôles dans les soins de santé et la recherche en santé. Récemment, Stability AI a été développée, une plate-forme qui génère également du contenu par le biais de textes dans le but de lutter "main dans la main" avec l' outil OpenAI.

Avec les nouvelles technologies, les modèles linguistiques commencent à montrer leur capacité à assumer des tâches auparavant réservées aux seuls professionnels. Cela a généré des conversations et même des débats parmi les médecins sur la façon dont la technologie peut les aider à soigner les patients.

Chat GPT est un modèle linguistique qui cherche à imiter le texte humain et peut jouer un rôle dans les soins de santé et la recherche en santé. (Reuters/Dado Ruvic)

Les professionnels de la santé espèrent que les modèles pourront utiliser les informations des dossiers médicaux numériques ou donner aux patients des résumés de longues notes techniques. Cependant, il existe également une crainte qu'ils puissent induire les médecins en erreur ou fournir des réponses inexactes conduisant à un diagnostic ou à un plan de traitement erroné.

Robert Pearl, professeur à la Stanford University School of Medicine, était PDG de Kaiser Permanente, un groupe médical américain comptant plus de 12 millions de patients. Selon lui, les médecins devraient utiliser ChatGPT dans leurs consultations. "Il sera plus important pour les médecins que le stéthoscope ne l'a été dans le passé", a-t-il déclaré au magazine Wired.

Les entreprises développant la technologie de l'intelligence artificielle ont fait des examens des facultés de médecine une référence dans la compétition pour construire des systèmes plus performants.

L'année dernière, Microsoft Research a présenté BioGPT, un modèle de langage qui a obtenu d'excellents résultats dans un certain nombre de tâches médicales. De plus, un document OpenAI du Massachusetts General Hospital et d'AnsibleHealth a déclaré que ChatGPT peut atteindre ou dépasser un taux de réussite de 60 % à l'examen américain de licence médicale.

Les entreprises qui développent la technologie de l'IA considèrent les examens des facultés de médecine comme une référence pour la construction de systèmes d'IA plus performants (Getty)

Quelques semaines plus tard, les chercheurs de Google et DeepMind ont présenté Med-PaLM, qui a atteint une précision de 67% sur le même test, bien qu'ils aient également écrit que, bien qu'encourageants, ses résultats "restent inférieurs aux résultats cliniques".

Microsoft et l'un des plus grands fournisseurs de logiciels de santé au monde, Epic Systems, ont annoncé leur intention d'utiliser le GPT-4 d'OpenAI, sur lequel ChatGPT est basé, pour rechercher des tendances dans les dossiers de santé électroniques.

Interrogée par le magazine Wired , Heather Mattie, professeur de santé publique à l'Université de Harvard qui étudie l'impact de l'IA sur les soins de santé, a avoué avoir été impressionnée la première fois qu'elle a utilisé ChatGPT. Et elle a demandé un résumé de la façon dont la modélisation des liens sociaux a été utilisée pour étudier le VIH, un sujet qu'elle étudie.

Mais l'expert de Harvard a également souligné les limites. Cela peut être un outil utile pour des tâches telles que résumer un texte. Bien qu'il faille considérer que le bot peut ne pas être correct à 100 % et qu'il peut générer des résultats biaisés.

Malgré ses avantages, il existe des risques que l'intelligence artificielle fournisse des recommandations biaisées aux médecins (Getty)

Le Dr Mattie est particulièrement préoccupé par le traitement par ChatGPT des outils de notation des blessures en soins intensifs et de diagnostic des maladies cardiovasculaires, qui ont des antécédents de préjugés raciaux et sexistes. Il a également averti que ChatGPT dans un cadre clinique fabrique parfois des faits et ne précise pas d'où et de quelle date proviennent les informations qu'il utilise.

Les utilisateurs doivent également se méfier du fait que des robots comme ChatGPT peuvent présenter des informations fabriquées, avertissent les experts. Cela peut conduire à de graves erreurs si une personne ne vérifie pas les faits dans les réponses d'un algorithme. Étant donné que le texte généré par l'intelligence artificielle peut influencer les humains de manière subtile.

Une étude non évaluée par des pairs publiée en janvier a posé des questions éthiques à ChatGPT et a conclu que le chatbot est un conseiller moral incohérent. Mais cela peut influencer la prise de décision humaine même lorsque les gens savent que les conseils proviennent d'un logiciel d'intelligence artificielle.

L'intelligence artificielle pourrait être utilisée pour décider qui peut accéder à la dialyse rénale, aux essais cliniques ou aux soins intensifs (Getty Images)

Travailler en tant que médecin, c'est bien plus qu'une décision basée sur des connaissances médicales encyclopédiques. Pour cette raison, certains bioéthiciens craignent que les médecins ne demandent conseil au bot lorsqu'ils sont confrontés à une décision éthique difficile.

Par exemple, il pourrait être utilisé pour choisir quels patients peuvent accéder à des lits de dialyse rénale ou de soins intensifs, qui pourraient participer à des essais cliniques, ou décider de subir une intervention chirurgicale si un patient a peu de chances de survie ou de récupération.

Jamie Webb, bioéthicien au Centre for Technomoral Futures de l'Université d'Édimbourg au Royaume-Uni, et une équipe de psychologues moraux ont étudié ce qu'il faudrait pour créer un "conseiller moral" basé sur l'intelligence artificielle à utiliser en médecine. Ils ont été inspirés par des recherches antérieures qui ont suggéré l'idée.

Les bioéthiciens craignent que la médecine implique de suivre des directives éthiques et que les outils d'intelligence artificielle puissent recommander de mauvaises actions (Getty)

Webb et ses coauteurs ont conclu qu'il serait difficile pour ces systèmes d'équilibrer de manière fiable différents principes éthiques. Ils ont identifié le risque que les médecins et autres professionnels puissent subir une "disqualification morale" s'ils s'appuyaient excessivement sur un robot au lieu de réfléchir eux-mêmes aux décisions difficiles.

Webb a noté que les médecins ont déjà été informés que l'intelligence artificielle de traitement du langage allait révolutionner leur travail, mais qu'ils ont été déçus. Après avoir remporté Jeopardy en 2010 et 2011, la division Watson d'IBM s'est tournée vers l'oncologie et a affirmé l'efficacité de l'IA dans la lutte contre le cancer.

Mais cette solution n'a pas eu autant de succès dans les milieux cliniques que le battage médiatique le suggérait, et IBM a arrêté le projet en 2020.

Un autre risque de l'intelligence artificielle est qu'elle utilise les données privées des patients et pourrait souffrir de vulnérabilités lorsqu'elles sont partagées / Fichier

Pendant ce temps, Keymanthri Moodley, du Center for Medical Ethics and Law de l'Université de Stellenbosch, en Afrique du Sud, et Stuart Rennie, professeur à l'Université de Caroline du Nord à Chapel Hill (États-Unis) ont écrit un article dans The Conversation dans lequel ils ont averti que l'utilisation de ChatGPT comporte le risque de commettre des violations de la vie privée.

Le succès et l'efficacité de l'IA dépendent de l'apprentissage automatique. Cela nécessite que les données soient constamment réinjectées dans les réseaux de neurones des chatbots. Si des informations identifiables sur le patient sont saisies dans ChatGPT, ces données font partie des informations que le chatbot utilisera à l'avenir.

De cette façon, ont-ils averti, il peut être vulnérable à sa divulgation à des tiers, puisque la confidentialité des informations sur les patients est la base de la confiance dans la relation médecin-patient.

Continuer à lire:

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.