Sélectionner une page

singe-Yoda

Cela pourrait être la première étape vers une véritable réalité virtuelle immersive, où vous pouvez sentir le monde, qui vous entoure, généré par ordinateur. Une équipe internationale de neuro-ingénieurs, a développé une interface cerveau-machine qui est bi-directionnelle. Cela signifie que les singes peuvent utiliser cet implant cérébral, non seulement pour contrôler une main virtuelle, mais aussi pour obtenir le retour qui donne l’impression au cerveau, qu’il ressent la texture des objets virtuels.

Déjà démontrée avec succès chez les primates, l’interface pourrait bientôt permettre aux humains d’utiliser des prothèses (ou même des exosquelettes robotisés) pour réellement sentir les objets du monde réel.

Explorons la façon dont tout cela fonctionne. Lorsque vous portez une paire de grands gants encombrants, les informations sensorielles, habituellement fournies à votre cerveau par les doigts, sont amorties par cette barrière entre votre main et un trousseau de clés (par exemple). Le résultat est une interface unidirectionnelle (dans un seul sens), votre cerveau peut indiquer à vos doigts que faire avec les clés, mais la communication de vos doigts vers votre cerveau est effectivement coupée. En conséquence, vous devez compter sur un autre sens, le plus souvent la vision, afin d’indiquer si vous pincez actuellement, l’une des clés, l’intégralité du trousseau, ou rien du tout.

Pour vraiment profiter au maximum de vos doigts, il doit y avoir une interface bi-directionnelle entre votre cerveau et vos mains. Quand votre cerveau peut recevoir des informations tactiles de vos mains, disons, la texture de la clé que vous manipulez, il peut effectuer, quasi-instantanée, des ajustements qui vous donnerons une meilleure dextérité, ou pour vous aider à choisir la bonne clé.

Les interfaces cerveau-machine ont parcouru un long chemin ces dernières années, mais, à quelques exceptions près, ces systèmes dépendaient d’une interface unidirectionnelle.

Pour démontrer la puissance d’une interface bidirectionnelle, une équipe de neuro-ingénieurs à l’université Duke (une université de recherche privée américaine) a conçu une interface cerveau-machine-cerveau (BMBI – brain-machine-brain interface) pour la tester sur des singes.

TRON_singe

”C’est la première démonstration d’une interface cerveau-machine-cerveau qui établit un lien direct, lien bidirectionnel entre le cerveau et un corps virtuel", a déclaré Miguel Nicolelis, qui a dirigé l’étude. “Dans ce BMBI, le corps virtuel est contrôlé directement par l’activité du cerveau de l’animal, tandis que sa main virtuelle génère des informations rétroactives tactiles qui sont signalées par micro simulation électrique directe, d’une autre région du cortex de l’animal."

Voici comment tout cela fonctionne : le BMBI prend ses commandes de déplacement à partir de 50 à 200 neurones, dans le cortex moteur du singe et les utilisent pour contrôler le fonctionnement d’un opérateur virtuel, une main "avatar", assez semblable à l’interface classique qui ne fonctionne que dans un sens. Mais la nouvelle interface met également, en œuvre, un mécanisme de rétroaction, où des informations sur la texture d’un objet virtuel sont livrées directement au cerveau via une micro simulation intra-corticale, ou “MSIC” pour faire court. Quand un singe reçoit un retour sous la forme d’une MSIC, des milliers de neurones dans le cerveau (les neurones qui correspondent aux retours tactiles dans les mains) reçoivent la stimulation électrique via des électrodes placées avec soin.

Cette interface bidirectionnelle, permet aux singes de s’engager dans ce que les chercheurs appellent “l’exploration tactile active” d’un ensemble d’objets virtuels. En utilisant seulement leur cerveau, les singes étaient capables de diriger leur main avatar sur les surfaces de plusieurs objets virtuels et de différencier leurs textures.

Pour prouver que les singes pouvaient ramasser des objets spécifiques, en fonction des retours tactiles, les chercheurs récompensaient les singes pour la sélection des objets avec une texture spécifique. Quand ils maintenaient leur main virtuelle sur le bon objet, ils recevaient une récompense. L’étude a examiné l’exécution de cette tâche par deux singes. Il a fallu, à un singe, à peine quatre tentatives pour apprendre à sélectionner le bon objet au cours de chaque essai, le second, seulement neuf.

Ce succès remarquable, avec des primates non humains, est ce qui nous fait croire que les humains pourraient accomplir la même tâche beaucoup plus facilement dans un avenir proche,

explique Nicolelis, il poursuit :

Un jour dans un proche avenir, les patients tétraplégiques vont profiter de cette technologie, non seulement pour bouger les bras et les mains et pour marcher à nouveau, mais aussi pour sentir la texture des objets placés dans leurs mains, ou pour ressentir les nuances du terrain sur lequel ils se baladent avec l’aide d’un exosquelette robotisé portable.

L’étude publiée sur Nature : Active tactile exploration using a brain–machine–brain interface.

Pin It on Pinterest

Share This