Quand les GAFAM nous montent à la tête...

Facebook et l'interface cerveau-machine

Une équipe de chercheurs américains financée par Facebook est parvenue à traduire en mots l’activité du cerveau via des algorithmes, une étape de plus vers l’ambition partagée par d’autres entreprises, comme celle d’Elon Musk, de créer un lien direct entre le cerveau humain et les machines.

Les scientifiques de l’université californienne UCSF ont publié cette semaine une étude montrant leurs progrès dans la création d’une interface cerveau-ordinateur : l’activité des neurones est transmise à la machine grâce à des implants, et décodée par des algorithmes, dans un contexte déterminé (un choix limité de questions-réponses). À terme, l’ambition serait d’utiliser une méthode moins contraignante que les implants, comme une paire de lunettes à réalité augmentée, équipée de capteurs et contrôlée par la pensée.

Neuralink, le nouveau pari d'Elon Musk

Elon Musk, que l’on ne présente plus, a présenté en direct sur YouTube une toute nouvelle technologie – créée par sa startup Neuralink – destinée à permettre au cerveau humain d’interagir directement avec les ordinateurs. Cet implant cérébral, qui n’est pas encore au stade des tests sur des humains, est destiné à permettre aux personnes paralysées de commander un ordinateur.

L’entreprise est censée commencer ses tests sur des humains dès 2020, dans le but de combattre certaines maladies affectant le cerveau ou la moelle épinière. Elon Musk avait frappé les esprits il y a quelques semaines en affirmant que sa start-up Neuralink avait réussi une expérience dans laquelle un singe contrôlait un ordinateur directement depuis son cerveau.

Le système final envisagé se présenterait sous la forme d’un implant sous la peau, parfaitement invisible, composé d’une ou plusieurs puces électroniques liées à de nombreux fils ultra-fins (dix fois moins qu’un cheveux humain) qui traversent le crâne pour atteindre le cerveau. Un boîtier externe serait placé derrière l’oreille, il se connecterait sans fil à l’implant pour ensuite communiquer sans fil à un autre appareil, comme un smartphone « Le but est de créer une interface totale entre le cerveau et la machine (…) » 

Google et le langage des signes

Dans une publication technique datée du 19 août, Valentin Bazarevsky et Fan Zhang – ingénieurs chez Google – font la présentation d’une méthode leur permettant de suivre en temps réel les mouvements de la main. Plus remarquable encore, le système imaginé est capable de percevoir la main en profondeur, ce qui lui permet de savoir quelles sont les parties proches ou éloignées par rapport à la caméra.

Pour cette recherche, la détection de la main à l’image mobilise des algorithmes ainsi que de l’apprentissage automatique. La main est pour ainsi dire cartographiée à travers une carte de 21 points. Le résultat aboutit à quelques intersections (base de la main, phalanges, extrémités…) qui sont reliées entre elles par des lignes pouvant varier du blanc au gris, afin de représenter la proximité par rapport à la caméra, et donc la profondeur.

Mais ce n’est pas la seule réussite accomplie. Les deux hommes vantent aussi la légèreté de leur dispositif : « Alors que les approches actuelles les plus abouties reposent principalement sur de puissants environnements de bureau, notre méthode permet d’obtenir des performances en temps réel sur un téléphone mobile ». Indispensable pour espérer un jour percer auprès du grand public.

Dans le cadre d’un développement pour la langue des signes, un long chemin reste en tout cas à parcourir : capter le geste ne fait pas tout. Il faut aussi le décomposer (son début, son exécution, sa fin), l’identifier et lui donner du sens, en le codant. Cela nécessite de prendre en compte des spécificités linguistiques d’un pays à l’autre, dans la mesure où il n’y a pas de langue des signes universelle.

Autre difficulté qui attend les équipes d’ingénierie : capter et interpréter des signes à la suite et donner du sens à cet enchaînement logique. Pour cette dernière étape, la seule lecture des mains et des doigts n’apparaît pas suffisante : les expressions faciales et les mouvements de la tête devront aussi être détectées et interprétées, et surtout associées logiquement avec le reste.

Des technologies au service du progrès de la médecine

L’émergence de toutes ces technologies est louable dans la mesure ou elles semblent répondre à une volonté d’améliorer et de mettre des technologies innovantes au service de la science et de son avancé. L’équipe de l’USCF poursuit ainsi un objectif de santé publique  : rendre la parole aux personnes rendues muettes à cause de paralysies, de lésions à la moelle épinière ou de maladies neurodégénératives. « À ce stade, les patients paralysés souffrant de perte de la parole ne peuvent recourir qu’à des technologies basées sur les mouvements des yeux ou les contractions musculaires pour épeler très lentement les mots sur un écran, explique Eddie Chang, neuroscientifique à l’université californienne. Pourtant, dans de nombreux cas, la capacité à s’exprimer est toujours présente dans leur cerveau. Nous avons juste besoin de la technologie pour leur permettre de s’en servir de manière fluide ».

L’étude publiée dans la revue Nature Communications détaille comment les scientifiques ont réussi à entraîner la machine pour lui faire traduire les signaux reçus via les implants, pendant que les volontaires parlaient à voix haute. Le système d’intelligence artificielle était guidé par un contexte de questions à choix multiple posées aux personnes. Le « projet Steno » étudie la possibilité de fabriquer un accessoire connecté permettant de taper sur un écran simplement en imaginant parler dans sa tête. Il est financé par un laboratoire du géant des technologies (Facebook Reality Labs) faisant de la recherche sur les technologies de réalités augmentée et virtuelle.

« Nous croyons que la publication de cette technologie peut donner une impulsion à de nouvelles idées créatives et applications par les membres de la communauté de la recherche et du développement », expliquent-ils. De leur côté, ils entendent améliorer la robustesse et la fiabilité de leur approche, en particulier en augmentant le nombre de gestes détectables de façon efficiente.

N’hésitez pas à aller faire un tour sur notre blog ou sur notre page Facebook pour découvrir l’intégralité de nos actualités ! Nous en sortons une par semaine !