
Des problèmes de santé tels qu’un accident vasculaire cérébral ou la sclérose latérale amyotrophique (SLA) peuvent altérer la capacité de parler . Aux États-Unis , deux équipes distinctes de chercheurs ont réussi à placer des implants de lecture cérébrale améliorés par l'intelligence artificielle (IA) .
Ces appareils ont permis à deux personnes paralysées de communiquer avec une précision et une rapidité sans précédent. Les deux avancées ont été publiées dans le cadre de deux études dans la revue Nature .
Dans leurs rapports, les équipes de recherche ont décrit des interfaces cerveau-ordinateur qui traduisent les signaux neuronaux en texte ou en mots prononcés par une voix synthétique.

Ces types d’interfaces peuvent décoder la parole à respectivement 62 et 78 mots par minute. Une conversation naturelle se produit à environ 160 mots par minute, mais les nouvelles technologies sont plus rapides que toutes les tentatives précédentes.
"Il est désormais possible d'imaginer un avenir dans lequel nous pourrions ramener la conversation à une personne paralysée , lui permettant de dire librement ce qu'elle veut avec une précision suffisamment élevée pour être comprise de manière fiable", a déclaré Francis Willett , neuroscientifique à Stanford . Université , Californie, États-Unis et co-auteur de l'un des articles .
Le scientifique Willett et ses collègues ont développé une interface permettant d'interpréter l'activité neuronale au niveau cellulaire et de la traduire en texte. Le patient était Pat Bennett , 67 ans, à qui on avait diagnostiqué une sclérose latérale amyotrophique , une maladie qui provoque une perte progressive du contrôle musculaire, avec pour conséquence des difficultés à bouger et à parler.

Les chercheurs ont inséré des réseaux de minuscules électrodes de silicium dans les parties du cerveau de Bennett impliquées dans la parole, à quelques millimètres sous la surface.
Ils ont ensuite entraîné des algorithmes d'apprentissage profond pour reconnaître les signaux uniques dans le cerveau de la patiente alors qu'elle essayait de prononcer diverses phrases en utilisant un large vocabulaire de 125 000 mots et un petit vocabulaire de 50 mots.
L'IA décode les mots à partir des phonèmes , les sous-unités vocales qui composent les mots prononcés. Pour le vocabulaire de 50 mots, l'interface fonctionnait 2,7 fois plus rapidement qu'une interface précédente de dernière génération et atteignait un taux d'erreur sur les mots de 9,1 %.

Le taux d'erreur s'élève à 23,8% pour le vocabulaire de 125 000 mots. "Environ trois mots sur quatre sont correctement cassés", a déclaré Willett lors d'une conférence de presse.
"Pour les personnes qui ne parlent pas, cela signifie qu'elles peuvent rester connectées au monde en général, peut-être continuer à travailler, entretenir des amitiés et des relations familiales", a déclaré la patiente Bennett.
Pendant ce temps, Edward Chang , neurochirurgien à l' Université de Californie à San Francisco , et ses collègues ont rapporté dans leur étude qu'ils avaient travaillé avec une femme de 47 ans nommée Ann, qui avait perdu la capacité de parler après avoir subi un accident vasculaire cérébral il y a 18 ans. .os.
Ils ont utilisé une méthode différente de celle de l'équipe de Willett. Ils ont placé un rectangle mince comme du papier contenant 253 électrodes sur la surface du cortex cérébral. La technique, appelée électrocorticographie ( ECoG), est considérée comme moins invasive et permet d'enregistrer l'activité combinée de milliers de neurones en même temps.

L'équipe a formé des algorithmes d'IA pour reconnaître les modèles d'activité cérébrale d'Ann associés à ses tentatives de prononcer 249 phrases avec un vocabulaire de 1 024 mots. L'appareil produisait 78 mots par minute avec un taux d'erreur moyen de 25,5 %.
Bien que les implants utilisés par l'équipe de Willett, qui capturent plus précisément l'activité neuronale, aient surpassé ce résultat avec des vocabulaires plus larges, il est « agréable de voir qu'il est possible d'atteindre un faible taux d'erreur dans les mots avec l'ECoG », a noté Blaise Yvert . chercheur en neurotechnologie à l' Institut des Neurosciences de Grenoble en France .
Chang et son équipe ont également créé des algorithmes personnalisés pour convertir les signaux cérébraux du patient en une voix synthétique et un avatar animé imitant les expressions faciales. Ils ont personnalisé la voix pour qu'elle ressemble à celle d'Ann avant sa blessure. Ils l'ont formée avec des enregistrements de la vidéo de son mariage.
"Le simple fait d'entendre une voix comme la vôtre est excitant", a déclaré Ann aux chercheurs lors d'une séance post-étude. "Quand j'ai eu la capacité de parler pour moi-même, c'était énorme !", a-t-elle ajouté.

« La voix est une partie très importante de notre identité. Cela n'a pas seulement à voir avec la communication, mais aussi avec qui nous sommes", a déclaré Chang.
Malgré les avantages constatés par les patients, de nombreuses améliorations sont nécessaires avant que les implants cérébraux puissent être mis à disposition pour un usage clinique. "Idéalement , la connexion serait sans fil ", a expliqué Ann aux chercheurs. Une interface adaptée à un usage quotidien devrait être un système entièrement implantable, sans connecteurs ni câbles visibles, a ajouté Yvert.
Les deux équipes espèrent continuer à augmenter la vitesse et la précision de leurs appareils grâce à des algorithmes de décryptage plus robustes.
Selon Herff, les participants aux deux études sont toujours capables d’activer leurs muscles faciaux lorsqu’ils pensent à parler, et leurs régions cérébrales liées à la parole sont intactes. Bien qu'il ait reconnu que cela ne se produit pas chez tous les patients.
"Nous y voyons une preuve de concept et une motivation pour les industriels de ce secteur à en faire un produit que tout le monde peut utiliser", a expliqué Willett.

Les appareils doivent encore être évalués dans le cadre d’essais cliniques menés auprès d’un plus grand nombre de personnes afin de prouver leur fiabilité. "Aussi fantaisistes et techniquement sophistiquées que soient ces données, nous devons les comprendre dans leur contexte, de manière très mesurée", explique Judy Illes , chercheuse en neuroéthique à l' Université de la Colombie-Britannique, à Vancouver, au Canada.
"Nous devons nous méfier d'une généralisabilité trop prometteuse à de grandes populations", a-t-il ajouté. De manière plus optimiste, Christian Herff , neuroscientifique informatique à l'université de Maastricht aux Pays-Bas, estime que les implants cérébraux « pourraient être des produits dans un avenir très proche ».
Continuer à lire: