août 25, 2023

BreaGeek News

Obtenez toutes les dernières nouvelles et rapports sur la FRANCE ici. Manchettes, politique et culture françaises sur une chaîne d'information

Les implants cérébraux basés sur l’IA aident les patients paralysés à communiquer plus rapidement que jamais – Ars Technica

Les implants cérébraux basés sur l’IA aident les patients paralysés à communiquer plus rapidement que jamais – Ars Technica

Agrandir / Un chercheur connecte un piédestal sur la tête d’un volontaire à un ordinateur externe. La base est fixée à des électrodes placées à la surface du cerveau.

Noah Berger/Université de Californie

La paralysie a privé les deux femmes de leur capacité à parler. Premièrement, la cause était la sclérose latérale amyotrophique, ou SLA, une maladie qui affecte les motoneurones. L’autre a eu un accident vasculaire cérébral au tronc cérébral. Même s’ils ne peuvent pas articuler clairement, ils peuvent se rappeler comment formuler les mots.

Désormais, après s’être portés volontaires pour recevoir des implants cérébraux, ils sont tous deux capables de communiquer via un ordinateur à un rythme proche d’une conversation normale. En analysant l’activité neuronale associée aux mouvements du visage associés à la parole, les appareils décodent la parole prévue à une vitesse de 62 et 78 mots par minute, respectivement, ce qui est plusieurs fois plus rapide que l’enregistrement précédent. Leurs cas sont détaillés dans deux articles publiés mercredi par des équipes distinctes dans la revue Nature.

« Il est désormais possible d’envisager un avenir dans lequel nous pourrons restaurer la conversation fluide d’une personne paralysée, lui permettant de dire ce qu’elle veut dire librement et avec une précision suffisamment élevée pour être comprise de manière fiable », a déclaré Frank Willett, chercheur scientifique à Université de Stanford. Le Laboratoire de transformation des prothèses neuronales de l’université lors d’une conférence de presse mardi. Willett est un auteur sur papier Produit par des chercheurs de l’Université de Stanford ; autre Il a été publié par une équipe de l’Université de Californie à San Francisco.

Bien que ce soit plus lent que le taux de conversation naturel d’environ 160 mots par minute chez les anglophones natifs, les scientifiques affirment qu’il s’agit d’une étape passionnante vers la récupération de la parole en temps réel à l’aide d’une interface cerveau-ordinateur, ou BCI. « C’est assez proche d’être utilisé dans la vie quotidienne », déclare Mark Slutsky, MD, neurologue à l’Université Northwestern qui n’a pas participé aux nouvelles études.

BCI collecte et analyse les signaux cérébraux, puis les traduit en commandes à exécuter par un appareil externe. Ces systèmes permettaient aux personnes paralysées de le faire Contrôle des bras robotisés, Jouer aux jeux vidéos, et envoyez des e-mails avec leur esprit. Des recherches antérieures menées par les deux groupes ont montré qu’il était possible de traduire le discours prévu d’une personne paralysée en texte sur un écran, mais avec rapidité, précision et vocabulaire limité.

Dans l’étude de l’Université de Stanford, les chercheurs ont développé une interface BCI qui utilise l’Utah Array, un petit capteur carré qui ressemble à une brosse à cheveux dotée de 64 poils en forme d’aiguille. Chacun est équipé d’une électrode et collecte ensemble l’activité de neurones individuels. Les chercheurs ont ensuite entraîné un réseau neuronal artificiel pour décoder l’activité cérébrale et la traduire en mots affichés à l’écran.

READ  La Russie menace de détourner le télescope spatial allemand
Pat Bennett, à droite, paralysée par la sclérose latérale amyotrophique, aide des chercheurs de l'Université de Stanford à former une IA capable de traduire son discours en sons.
Agrandir / Pat Bennett, à droite, paralysée par la sclérose latérale amyotrophique, aide des chercheurs de l’Université de Stanford à former une IA capable de traduire son discours en sons.

Steve Fish/Université de Stanford

Ils ont testé le système sur le volontaire Pat Bennett, atteint de SLA, aujourd’hui âgé de 68 ans. En mars 2022, un chirurgien a inséré quatre de ces minuscules capteurs dans le cortex cérébral de Bennett, la couche externe du cerveau. Des fils fins relient les réseaux aux piliers au sommet de sa tête, qui peuvent être connectés à un ordinateur via des câbles.

Pendant quatre mois, les scientifiques ont formé le programme en demandant à Bennett d’essayer de prononcer des phrases à voix haute. (Bennett peut encore émettre des sons, mais son discours est incompréhensible.) Enfin, le programme a appris à reconnaître les signaux neuronaux distincts associés aux mouvements des lèvres, de la mâchoire et de la langue qu’il produisait pour produire différents sons. De là, il a appris l’activité neuronale qui correspond aux mouvements utilisés pour créer les sons qui composent les mots. Il était alors capable de prédire la séquence de ces mots et d’assembler les phrases sur un écran d’ordinateur.

Grâce à l’appareil, Bennett a pu communiquer à une vitesse moyenne de 62 mots par minute. Le BCI a commis 23,8 pour cent d’erreurs sur un vocabulaire de 125 000 mots. Le précédent record n’était que de 18 mots par minute, un record établi en 2021, lorsque les membres de l’équipe de Stanford article publié Description d’un BCI qui convertit l’écriture manuscrite imaginée d’une personne paralysée en texte à l’écran.

Dans le deuxième article, des chercheurs de l’Université de Californie à San Francisco ont construit une interface cerveau humain (BCI) en utilisant un réseau situé à la surface du cerveau plutôt qu’à l’intérieur. Il s’agit d’un rectangle extrêmement fin parsemé de 253 électrodes et détecte l’activité de nombreux neurones du cortex vocal. Ils ont placé ce réseau sur le cerveau d’une patiente victime d’un accident vasculaire cérébral nommée Anne et ont formé un modèle d’apprentissage profond pour décoder les données neuronales collectées lorsqu’elle bougeait ses lèvres sans émettre de sons. Pendant plusieurs semaines, Anne a répété des phrases de son vocabulaire conversationnel de 1 024 mots.

READ  La première radiographie au monde d'un seul atome révèle la chimie au plus petit niveau : ScienceAlert

Comme l’IA de l’Université de Stanford, l’algorithme de l’équipe UCSD a été formé pour reconnaître les plus petites unités du langage, appelées phonèmes, plutôt que des mots entiers. Au final, le logiciel a pu traduire le discours d’Anne à un rythme de 78 mots par minute, bien mieux que les 14 mots par minute auxquels elle était habituée sur son communicateur. Le taux d’erreur était de 4,9 % lors du décodage de phrases à partir d’un ensemble de 50 phrases, et les simulations ont estimé un taux d’erreur sur les mots de 28 % en utilisant un vocabulaire de plus de 39 000 mots.

Le groupe UCSF, dirigé par le neurochirurgien Edward Chang, avait déjà utilisé un réseau de surface similaire avec moins d’électrodes. Traduire les mots voulus par un homme paralysé pour envoyer du texte à l’écran. Leur enregistrement était d’environ 15 mots par minute. Leur BCI actuel est non seulement plus rapide, mais va plus loin en convertissant les signaux cérébraux d’Ann en parole audible exprimée par un ordinateur.

Les chercheurs ont créé un « avatar numérique » pour transmettre à haute voix le discours prévu par Anne. Ils ont personnalisé une femme animée avec des cheveux bruns comme ceux d’Ann et ont utilisé des séquences vidéo de son mariage pour que la voix de l’avatar ressemble à la sienne. « Notre voix et nos expressions font partie de notre identité, c’est pourquoi nous voulions incarner un discours industriel qui pourrait le rendre plus naturel, fluide et expressif », a déclaré Zhang lors de la conférence de presse de mardi. Il croit que le travail de son équipe pourrait éventuellement permettre aux personnes paralysées d’avoir des interactions plus personnelles avec leur famille et leurs amis.

Pourrais-tu
Agrandir / Anne, survivante d’un AVC, est capable de communiquer à l’aide d’un avatar numérique qui décode le discours qu’elle entend prononcer.

Noah Berger/Université de Californie

Il existe des compromis entre les approches des deux groupes. Les électrodes implantées, telles que celles utilisées par l’équipe de Stanford, enregistrent l’activité de neurones individuels, ce qui tend à fournir des informations plus détaillées que l’enregistrement à la surface du cerveau. Mais elles sont aussi moins stables, car les électrodes implantées se déplacent dans le cerveau. Même un mouvement d’un millimètre ou deux provoque des changements dans l’activité enregistrée. « Il est difficile d’enregistrer à partir des mêmes neurones pendant des semaines, sans parler des mois, voire des années », explique Slutsky. Au fil du temps, du tissu cicatriciel se forme autour du site d’électrode implanté, ce qui peut également affecter la qualité de l’enregistrement.

READ  La lumière naturelle peut vous aider à mieux dormir, et plus de stratégies pour vous reposer

D’un autre côté, la matrice de surface capture l’activité cérébrale avec moins de détails mais couvre une zone plus grande. Les signaux qu’il enregistre sont plus stables que les pointes de neurones individuels, explique Slutsky, car ils proviennent de milliers de neurones.

Au cours du briefing, Willett a déclaré que la technologie actuelle est limitée par le nombre d’électrodes pouvant être placées en toute sécurité dans le cerveau à la fois. « Tout comme une caméra avec des pixels plus grands produit une image plus nette, l’utilisation d’un plus grand nombre d’électrodes nous donnera une image plus claire de ce qui se passe dans le cerveau », a-t-il déclaré.

Il y a dix ans, peu de gens auraient imaginé qu’il serait un jour possible de décoder la tentative de quelqu’un de parler simplement en enregistrant son activité, explique Lee Hochberg, neurologue au Massachusetts General Hospital et à l’Université Brown qui a travaillé avec le groupe de Stanford. . « Je veux pouvoir dire à mes patients atteints de SLA, d’accident vasculaire cérébral ou d’autres formes de maladies ou de blessures neurologiques que nous pouvons restaurer leur capacité à communiquer facilement, intuitivement et rapidement », déclare Hochberg.

Bien qu’elles soient encore plus lentes que la parole typique, ces nouvelles interfaces de communication cerveau-visage sont plus rapides que les systèmes de communication alternatifs et augmentatifs actuels, écrit Bates Peters, orthophoniste à l’Oregon Health & Science University. Ces systèmes obligent les utilisateurs à saisir ou à sélectionner des messages avec leurs doigts ou leurs yeux. « Être capable de suivre le flux d’une conversation peut être extrêmement bénéfique pour de nombreuses personnes ayant une mauvaise communication, ce qui leur permet de participer pleinement à tous les aspects de la vie », a-t-elle déclaré à WIRED par e-mail.

Il existe encore quelques obstacles technologiques à la création d’un dispositif implantable doté de ces capacités. Par exemple, Slutsky affirme que le taux d’erreur pour les deux groupes est encore trop élevé pour une utilisation quotidienne. En comparaison, les systèmes de reconnaissance vocale actuels sont développés par Microsoft Et Google Son taux d’erreur est d’environ 5 pour cent.

Un autre défi réside dans la longévité et la fiabilité de l’appareil. Un BCI fonctionnel devrait enregistrer les signaux en continu pendant des années, explique Slutsky, et ne nécessiterait pas de recalibrage quotidien.

Les BCI devront également être sans fil, sans le câblage lourd requis par les systèmes existants, afin de pouvoir être utilisés sans que les patients aient besoin d’être connectés à un ordinateur. des entreprises comme Lien neuronal, synchronisationet Paradromics fonctionnent tous sur des systèmes sans fil.

« Les résultats sont vraiment étonnants », déclare Matt Angell, fondateur et PDG de Paradromics, basé à Austin, qui n’a pas participé à la nouvelle recherche. « Je pense que nous allons commencer à voir des progrès rapides vers un dispositif médical destiné aux patients. »

Cette histoire a été initialement publiée sur Wired.com.