
(Science Times) - Dans le domaine de la médecine, les anecdotes sur les effets indésirables de l'intelligence artificielle sont déjà légendaires. Il y avait le programme destiné à prédire quand les patients développeraient une septicémie , une infection sanguine mortelle, qui déclenchait une série de fausses alarmes. Un autre, visant à améliorer les soins de suivi des patients les plus malades, semble aggraver les disparités inquiétantes en matière de santé.
Méfiants face à ces défauts, les médecins ont tenu l’intelligence artificielle à l’écart : comme secrétaire, comme deuxième avis sporadique et comme organisateur administratif. Mais ce domaine a bénéficié d’investissements et de dynamisme pour son utilisation en médecine et à l’extérieur. Au sein de la Food and Drug Administration ( FDA ), qui joue un rôle fondamental dans l'approbation de nouveaux produits médicaux, l'intelligence artificielle est un sujet central, car elle aide à découvrir de nouveaux médicaments, pourrait identifier des effets secondaires inattendus et est même considérée comme un assistant pour le personnel débordé de tâches répétitives et routinières.
Mais ce qui est crucial, c'est que la responsabilité de la FDA a fait l'objet de vives critiques : avec quelle minutie elle analyse et explique les programmes qu'elle approuve pour aider les médecins à tout détecter, des tumeurs aux poumons effondrés en passant par la cochlée. "Nous allons avoir beaucoup d'options et c'est fascinant", a déclaré Jesse Ehrenfeld, président de l'American Medical Association ( AMA ), un important groupe de pression des médecins, dans une interview.
"Mais si les médecins veulent intégrer ces outils dans leur processus de travail, s'ils veulent les payer et s'ils veulent les utiliser, nous devons avoir une certaine confiance dans leur efficacité." Lundi, le président Joe Biden a publié un décret appelant à des normes dans un large éventail d'agences pour tenter de contrôler les risques de sécurité et de confidentialité liés à l'intelligence artificielle , y compris ceux liés aux soins de santé.
Le décret demande davantage de financement pour la recherche sur l'intelligence artificielle en médecine ainsi que pour un programme de sécurité qui collecte des rapports sur les pratiques nocives ou dangereuses. Une réunion aura lieu plus tard cette semaine avec certains dirigeants mondiaux pour discuter de la question. Lors d’un événement lundi, Biden a déclaré qu’il était important de surveiller le développement et la sécurité de l’intelligence artificielle et de construire des systèmes auxquels les gens peuvent avoir confiance.
Biden a expliqué que : « Afin de protéger les patients, par exemple, nous utiliserons l'intelligence artificielle pour développer des médicaments contre le cancer qui fonctionnent mieux et coûtent moins cher. « Nous lancerons également un programme de sécurité pour garantir que les systèmes de santé qui utilisent l’intelligence artificielle ne causent aucun dommage. » Aucune agence gouvernementale américaine ne réglemente tout.
Le sénateur démocrate de New York Chuck Schumer, leader de la majorité, a convoqué des responsables technologiques au Capitole en septembre pour discuter des moyens de faire progresser ce domaine et également identifier les dangers. Google a déjà attiré l'attention du Congrès avec son nouveau projet pilote de chatbot destiné aux professionnels de la santé appelé Med-PaLM 2, qui est conçu pour répondre à des questions médicales mais a soulevé des inquiétudes quant au consentement éclairé et à la vie privée du patient.
La manière de superviser ces « grands modèles de langage » – des programmes qui imitent les conseillers experts – n’est qu’un des domaines dans lesquels la FDA est à la traîne par rapport aux progrès rapides dans le développement du domaine de l’intelligence artificielle . Les responsables de l’agence viennent tout juste de commencer à parler de la révision d’une technologie qui continuerait à « apprendre » à mesure qu’elle traite des milliers d’analyses de diagnostic. De plus, les règles existantes de l'agence recommandent aux développeurs de se concentrer sur un problème à la fois – un souffle cardiaque ou un anévrisme cérébral – contrairement aux outils d'intelligence artificielle utilisés en Europe pour analyser toute une gamme de problèmes. Le champ d'action de l'agence se limite à l'approbation des produits à vendre.
Il n’a aucune autorité sur les programmes que les systèmes de santé élaborent et emploient en interne. Les grands systèmes de santé, tels que Stanford, Mayo Clinic et Duke (ainsi que les assureurs maladie), peuvent créer leurs propres outils d’intelligence artificielle qui participent aux décisions en matière de soins et de couverture pour des milliers de patients, avec peu ou pas de surveillance directe du gouvernement.
Mais les médecins soulèvent davantage de questions alors qu'ils tentent de mettre en œuvre près de 350 outils logiciels approuvés par la FDA pour aider à détecter les caillots sanguins, les tumeurs ou les perforations dans les poumons. Ils n'ont pas trouvé beaucoup de réponses aux questions fondamentales : comment le programme a-t-il été construit ? Sur combien de personnes a-t-il été testé ? Est-il susceptible d'identifier quelque chose qui échapperait à tout médecin ?
Le manque d'informations accessibles au public, peut-être quelque peu paradoxal dans un domaine riche en informations, pousse les médecins à rester en retrait, se méfiant du fait que cette technologie qui semble si fascinante pourrait conduire à davantage de biopsies, dites-vous, à des taux plus élevés et à des médicaments toxiques sans conséquences significatives. améliorer les soins médicaux. Jeffrey Shuren, chef de la division des dispositifs médicaux de la FDA , a reconnu la nécessité de travailler davantage pour garantir que les programmes d'intelligence artificielle tiennent leurs promesses une fois que la division les a approuvés. Les médicaments et certains appareils sont testés sur des patients avant d’être autorisés, mais cela n’est généralement pas requis pour les logiciels d’intelligence artificielle.
Une nouvelle approche pourrait consister à construire des laboratoires où les développeurs ont accès à d'énormes quantités de données et à créer ou tester des programmes d'intelligence artificielle , a déclaré Shuren lors de la conférence de l'Organisation nationale pour les maladies rares le 16 octobre.
"Si nous voulons vraiment garantir ce juste équilibre, nous devrons modifier les lois fédérales, car le cadre actuel que nous utilisons pour ces technologies date de près de 50 ans", a expliqué Shuren. "Il n'a pas vraiment été conçu pour l'intelligence artificielle ."
Il existe d’autres forces qui compliquent les efforts visant à adapter l’apprentissage automatique aux principaux réseaux hospitaliers et de soins de santé. Les systèmes logiciels ne communiquent pas entre eux. Personne n’est d’accord sur qui devrait les payer.
Selon une estimation, 30 % des radiologues (un domaine dans lequel l’intelligence artificielle a fait des progrès significatifs) utilisent la technologie de l’intelligence artificielle . Certains outils simples permettant de valoriser une image sont faciles à vendre. Mais les médecins s'inquiètent de ceux qui comportent les risques les plus élevés, comme décider quels examens doivent être prioritaires s'ils ne savent pas, par exemple, si le programme a été conçu pour détecter l'inconfort d'un jeune de 19 ans par rapport à celui d'un jeune de 19 ans. quelqu'un qui a 90 ans.
James McKinney, porte-parole de la FDA, a déclaré que les membres du personnel de l'agence examinaient des milliers de pages avant d'approuver les programmes d'intelligence artificielle , mais a reconnu que les fabricants de logiciels pouvaient rédiger les résumés publiés pour le public. Celles-ci ne sont pas « destinées à orienter les décisions d’achat », ajoutant que les informations les plus détaillées sont fournies sur les étiquettes des produits, qui ne sont pas facilement accessibles au public.
Il est essentiel d'assurer une surveillance adéquate de l'intelligence artificielle en médecine, une tâche qui implique de nombreuses agences, a déclaré Ehrenfeld, président de l'AMA, qui a déclaré que les médecins avaient analysé la participation de l'intelligence artificielle dans les accidents aériens mortels pour mettre en garde contre les dangers de des systèmes de sécurité automatisés qui ignorent l'avis du pilote (ou du médecin).
Ehrenfeld a ajouté que les enquêtes sur l'accident du Boeing 737 Max ont montré que les pilotes n'étaient pas formés pour désactiver un système de sécurité qui a contribué aux accidents mortels. Il craint que les médecins ne soient confrontés à une utilisation similaire de l’intelligence artificielle qui passe au second plan dans les soins aux patients et pourrait être nuisible.
"Un point de départ évident devrait simplement être de comprendre que l'intelligence artificielle existe", a commenté Ehrenfeld. "Mais on ne sait pas si cela se produira toujours si nous ne disposons pas d'un cadre réglementaire approprié."
*Le New York Times