Sélectionner une page

la-cité-des-enfants-perdus

La grande gagnante du concours : ”Oh oui, rapproche nous encore un peu plus de la science-fiction” de cette semaine est certainement une nouvelle étude dans laquelle une équipe de scientifiques utilise un appareil d’IRM, un modèle informatique et des milliers d’images d’Internet pour traduire ce que les gens voient alors qu’ils rêvent. Je vous rassure, contrairement a Krank de la cité des enfants perdus (image d’entête), ils ne leur volent pas, quoi que….

Aussi incroyable que cela puisse paraitre, des chercheurs de Kyoto, au Japon, annoncent qu’ils ont construit une machine destinée à la lecture des rêves, qui en a appris suffisamment sur les modèles neurologiques de trois participants (chercheurs) pour prédire leurs visualisations durant leur sommeil avec 60 % de précision. L’étude (lien plus bas) est considérée comme le premier cas dans lequel des données objectives ont été obtenues sur le contenu d’un rêve.

L’idée est construite à partir d’un concept simple : que nos cerveaux suivent des schémas prévisibles alors qu’ils réagissent à différents types de stimuli visuels, et au fil du temps, un algorithme d’apprentissage peut comprendre comment mettre en corrélation chacun de ces modèles avec différentes classes de visualisations. Une étude, réalisée en 2005 par l’un des chercheurs, avait accompli cela sous une forme beaucoup plus primitive, tandis que les sujets étaient éveillés, avec un programme d’apprentissage utilisant la lecture des IRM fonctionnelles (l’IRMf indique le flux sanguin dans les différentes parties du cerveau) afin de déterminer dans quelle direction un sujet regardait.

Cette étude a suivi le même principe, mais en étant beaucoup plus ambitieuse, cherchant à faire correspondre de réelles images et pas seulement des directions visuelles, avec le traitement des données de l’IRMf, et en la réalisant alors que les sujets étaient endormis.

La recherche a été effectuée sur trois participants, dormant à tour de rôle dans une IRM sur des périodes de 3 heures, pendant 10 jours. Les participants étaient branchés à un électro-encéphalogramme (EEG), qui permet de suivre le niveau global de l’activité électrique dans le cerveau et utilisé pour indiquer à quel stade de sommeil ils étaient.

Les rêves les plus profonds, les plus longs, se produisent pendant le sommeil paradoxal, qui commence généralement après quelques heures de sommeil. Mais rapidement, de sporadiques hallucinations se produisent également pendant la phase 1 du sommeil non paradoxal, qui commence quelques minutes après vous être laissé aller, et les chercheurs ont tenté de suivre les visualisations pendant cette étape.

Alors que l’IRMf suivait le flux sanguin dans les différentes parties du cerveau des sujets, ils se sont laissés emporter par le sommeil, puis, une fois que les scientifiques ont remarqué qu’ils étaient entrés dans la phase 1, ils les ont réveillés et leur ont demandé de décrire ce qu’ils avaient vu de leur rêve. Ils ont répété ce processus près de 200 fois pour chacun des participants.

Par la suite, ils ont enregistré les 20 classes d’objets les plus courants, vus par chaque participant (“bâtiment”, “personne” ou “lettre”, par exemple) et recherché les photos sur le Web qui correspondent à peu près aux objets. Ils ont présenté ces images aux participants pendant qu’ils étaient éveillés, également dans le scanner IRM, pour ensuite comparer leurs lectures aux lectures de l’IRM au moment où les personnes avaient vu les mêmes objets dans leurs rêves. Cela leur a permis d’isoler les modèles d’activité cérébrale véritablement associés avec le fait de voir un objet donné, des modèles sans rapport qui étaient simplement corrélés au fait d’être endormi.

Ils ont alimenté toutes ces données – les 20 types d’objets les plus communs que chaque participant avait vus dans ses rêves, représentés par des milliers d’images à partir du Web, ainsi que l’activité cérébrale des participants à partir de lectures des IRM qui ont eu lieu lors de leur visualisation – dans un algorithme d’apprentissage, capable d’améliorer et d’affiner son modèle basé sur les données. Quand ils ont invité les trois dormeurs à se placer de nouveau dans l’IRM, pour tester leur nouvel algorithme, celui-ci a généré des vidéos comme ci-dessous, en produisant des groupes d’images connexes (prises par milliers sur le web) et en sélectionnant, parmi les 20 groupes d’éléments/objets (les mots en bas) qu’elle a jugés comme, probablement, étant visualisé par la personne, sur la base de ses lectures IRM.

Quand ils réveillèrent les sujets, il leur a été demandé de décrire leurs rêves. Il s’est avéré que les prédictions de la machine étaient meilleures que le simple fait du hasard, bien que loin d’être parfait. Les chercheurs ont choisi deux catégories d’éléments, une que le rêveur avait rapporté avoir vue, et une autre qu’il ou elle n’avait pas vu, et vérifiés le nombre de fois où l’algorithme en avait signalé une seul d’entre elles, et combien de fois il avait prédit la bonne.

L’algorithme a vu juste dans 60 % des cas, une proportion, selon les chercheurs, qui ne s’explique pas par le hasard. Précisément, il était plus performant à faire la distinction entre différentes catégories de visualisations que des différentes images d’une même catégorie. Il a de plus grandes chances de dire si un rêveur a vu une personne ou une scène, mais il était beaucoup moins précis pour deviner si une scène particulière était un bâtiment ou une rue.

Bien que cela soit des prédictions relativement brutes, le système montre quelque chose de surprenant : nos rêves peuvent sembler subjectifs, des expériences intimes, mais ils produisent des pièces cohérentes et consistantes de données qui peuvent être analysées par d’autres. Pour les chercheurs, ce travail pourrait être une première incursion dans l’analyse scientifique des rêves, permettant éventuellement une interprétation plus sophistiquée des rêves au cours des phases de sommeil plus profond.

Leur étude publiée sur Science : Neural Decoding of Visual Imagery During Sleep.

Pin It on Pinterest

Share This