Wikistrike

Wikistrike

Rien ni personne n'est supérieur à la vérité

Y a-t-il un Google dans notre cerveau ?

Publié par wikistrike.com sur 30 Décembre 2012, 14:04pm

Catégories : #Science - technologie - web - recherche

Y a-t-il un Google dans notre cerveau ?



 

Les résultats publiés par Alexander Huth, chercheur à l’Institut de neurosciences Helen Wills de l’université de Californie à Berkeley, et ses collègues dans la revue Neuron du 20 décembre 2012 conduisent à se poser la question: “Y a-t-il un Google dans notre cerveau ?” Un sous Google ? Un super Google ?


 

Comment sommes-nous capables de retrouver ou de reconnaître, souvent instantanément, un mot, une image, une notion, une action?  Difficile de ne pas penser à Internet et à la difficulté, pour un moteur de recherche, de faire de même avec le contenu de la Toile.

Une autre étude devra le déterminer, mais celle-ci montre déjà comment nous rangeons la multitude d’objets et d’actions que nous voyons dans notre matière grise. La principale découverte des chercheurs, c’est qu’il n’existe pas de zones isolées pour chaque catégorie d’images mais un “espace sémantique continu”. Pas de tiroirs donc mais un tissu, un maillage imbriqué…


1.705 catégories d’objets et d’actions

“Si l’être humain peut voir et nommer des milliers de catégories d’objets et d’actions, il est peu probable qu’une zone distincte du cerveau soit affectée à chacune de ces catégories”, précisent les chercheurs. “Un système plus efficace consiste à représenter les catégories comme des emplacements dans un espace sémantique continu, sur une cartographie couvrant toute la surface corticale.”

Pour explorer un tel espace, Alexander Huth a fait appel à l’IRM fonctionnelle afin de mesurer l’activité du cerveau pendant le visionnage des images d’un film. Il est ensuite passé au traitement informatique des données en utilisant un modèle de voxels, c’est-à-dire des volumes élémentaires (pixels en 3D).

De quoi construire une représentation de la répartition corticale de 1.705 catégories d’objets et d’actions.


 

Les catégories sémantiques apparaissent alors clairement. Notre cerveau associe les objets similaires par leur composition (des roues pour un vélo et une voiture) ou leur fonction (une voiture et un avion servent à se déplacer). En revanche, une porte et un oiseau ne partagent pas grand-chose et se retrouveront éloignés dans l’espace sémantique.

30.000 voxels

Alexander Huth a soumis les personnes analysées à un film de deux heures dans lequel chaque image et chaque action avaient été repérées par des étiquettes (pour un plongeon, par exemple, une étiquette pour le plongeur, une pour la piscine, une troisième pour les remous de l’eau).

L’IRMf a permis de mesurer l’activité du cerveau dans 30.000 voxels de 2x2x4 mm couvrant l’ensemble du cortex. Il “suffisait” ensuite de corréler les images du film et leurs étiquettes avec les  différents voxels activés lorsqu’elles avaient été visualisées. Le résultat est une cartographie des 30.000 voxels mis en relation avec les 1.705 catégories d’objets et d’actions.

Les techniques de représentations dans l’espace, à gauche, permettent de faire apparaître les distances entre les différentes catégories. Les différentes couleurs et leurs nuances représentent des groupes de catégories similaires: êtres humains en bleu, parties du corps en vert, animaux en jaune, véhicules en mauve…

Cartographie 3D interactive

Plus fort encore que la représentation dans l’espace qui ressemble aux cartographies en 3D des sites Internet, les chercheurs ont achevé leur travail par une projection des voxels et de leurs catégories… sur la surface corticale elle-même.

Le résultat est spectaculaire, en relief et… interactif. Grâce à une technologie de navigation encore expérimentale, WebGL, l’utilisateur peut soit cliquer sur un voxel de la surface du cortex et voir quelles sont les catégories correspondantes, soit faire l’inverse: le choix d’une catégorie montre dans quelles zones du cerveau elle est stockée.

Cette cartographie interactive est disponible ici mais tous les navigateurs ne sont pas capables de la prendre en charge. Les chercheurs conseillent Google Chrome qui, effectivement, fonctionne (version 23).

Ces travaux fondamentaux pourraient avoir des applications dans le diagnostic et le traitement de pathologies cérébrales. Mais il permettront peut-être aussi de créer des interfaces cerveau-machine plus efficaces et d’améliorer les systèmes de reconnaissance d’images encore peu développés, même sur Google…


Michel Alberganti

 

Source: Slate

Commenter cet article

Archives

Articles récents