
Microsoft a déposé une intéressante demande de brevet aux États-Unis, qui montre que la société fondée par Bill Gates développe une application visant à proposer un traitement thérapeutique et qui sera alimentée par l'intelligence artificielle .
Dans le document présenté le 7 novembre, ce géant de la technologie basé à Redmond propose un modèle de chatbot similaire à ChatGPT , qui serait capable de construire un profil d'utilisateur basé sur des signaux émotionnels extraits d'images, puis de générer un enregistrement mémoire basé à la fois sur ces images et le profil de l'utilisateur.
Pour l’éditeur de logiciels, « l’intelligence artificielle (IA) devient de plus en plus populaire et est appliquée dans un nombre croissant de scénarios ».

C'est pourquoi l'application disposera d'une fenêtre de discussion , d'un module de traitement et d'une base de données de réponses, et pourra également effectuer des tests psychologiques explicites, ainsi que poser des questions, surveiller les réponses et les utiliser pour en savoir plus sur le patient.
Microsoft souhaite que son thérapeute artificiel fournisse des « soins émotionnels » à travers une conversation simulée, dans laquelle les utilisateurs peuvent utiliser du texte, de la voix et des images.
Un chatbot aux capacités thérapeutiques

Le thérapeute artificiel évaluera les utilisateurs à l’aide d’un « algorithme de notation prédéfini par des psychologues et des experts » et dans certains cas, le chatbot pourra faire des suggestions sur la manière de résoudre certains problèmes.
L'entreprise donne même l'exemple d'une conversation dans laquelle une personne dit qu'elle « se sent mal » et l'IA lui demande pourquoi. Il explique qu'il a des problèmes avec sa famille et que c'est pour cela qu'il se sent fatigué. Le chatbot, en réponse, lui recommande de sortir courir 30 minutes pour souffler.
Et bien que prometteurs, ces types d’avancées suscitent certaines inquiétudes au sein de l’ Organisation mondiale de la santé (OMS) , qui a appelé à la prudence quant à l’utilisation des chatbots à intelligence artificielle dans les soins de santé. Ceci, avertissant que les données utilisées pour former ces modèles peuvent être « biaisées » et générer des informations trompeuses pouvant nuire aux patients.
Microsoft n'est pas la première entreprise technologique à décider de parier sur ce type de développement et en effet, Apple a également manifesté son intérêt pour la création d'un service de santé et de bien-être basé sur l'intelligence artificielle capable de détecter vos émotions.
Le projet s'appelle en interne Quartz et visera à encourager les utilisateurs à améliorer leurs habitudes alimentaires, à faire de l'exercice et à fournir des recommandations pour un meilleur sommeil.
Les dangers de l’anthropomorphisation de l’intelligence artificielle

L'interaction constante entre les humains et les systèmes d'intelligence artificielle ou chatbots de plus en plus avancés, qui peuvent donner une fausse sensation de compréhension et de soutien, a amené certains de leurs utilisateurs à générer des liens forts avec ces modèles qui n'ont aucun type d'émotion ou ne génèrent aucun type d'émotion. d'empathie.
Et l’anthropomorphisation de l’IA est un processus par lequel les gens attribuent des caractéristiques et des qualités humaines à ces modèles, les traitant comme s’ils étaient de véritables êtres humains. Cela inclut l’attribution d’émotions, d’intentions, de pensées et d’une personnalité à l’intelligence artificielle, même si elles ne possèdent pas véritablement ces caractéristiques.
De plus, cela peut se produire consciemment ou inconsciemment, car les interfaces conversationnelles et les chatbots sont souvent conçus pour paraître plus humains , en utilisant des noms, des avatars et des réponses qui imitent le langage humain. Cela peut amener les utilisateurs à traiter l’IA comme s’il s’agissait d’un interlocuteur humain et à attendre des réponses émotionnelles.
En fait, certains chatbots se présentent comme des compagnons de soins , favorisant des relations de dépendance émotionnelle avec les utilisateurs. Cela soulève des questions éthiques sur la manipulation et l’abus de confiance des utilisateurs, en particulier lorsque l’intelligence artificielle ne peut pas fournir l’empathie humaine nécessaire en temps de crise.