Search
  • Nouvelles
  • Apprentissage automatique, apprentissage biologique

Le système mnémonique du cerveau nous aiguille vers des méthodes informatiques plus efficaces

by CIFAR févr. 1 / 16
2016-01-Brain-sejnowski-1280x430
Image: Cette image informatique signale deux points où deux neurones ont créé une connexion. Le ruban noir translucide est l’axone du neurone et le jaune, un autre neurone. Image : Institut Salk et Université du Texas à Austin.

D’après de nouveaux résultats sur la structure des connexions interneuronales, le cerveau pourrait avoir dix fois plus de capacité de mémoire que ce que l’on croyait. La recherche suggère que notre cerveau peut stocker un pétaoctet d’information – à peu près la quantité de données nécessaires pour regarder Netflix pendant 114 ans.

En plus de nous faire gonfler le cerveau, ces résultats nous donnent une meilleure idée des capacités cérébrales et pourraient démontrer aux scientifiques comment construire des ordinateurs jouissant d’une plus grande puissance, mais utilisant moins d’énergie.

Le conseiller de l’ICRA, Terrence Sejnowski, et Thomas Bartol de l’Institut Salk, ainsi que Kristen Harris de l’Université du Texas à Austin, ont dirigé la nouvelle étude qui a démontré qu’il est possible de régler avec une surprenante précision les synapses – la toile de connexions entre les neurones qui nous permet de créer et d’extraire des souvenirs.

La transmission d’un neurone à un autre dépend en partie de la taille de la synapse en jeu. Jadis, les chercheurs avaient catégorisé les synapses en quelques tailles seulement. Mais les nouvelles recherches démontrent que les synapses peuvent s’adapter à au moins 26 tailles différentes avec une précision étonnante.

Les résultats suggèrent que les synapses sont constamment en train d’ajuster leur taille, rapetissant ou grossissant en réaction aux signaux reçus, parfois aussi souvent qu’aux deux minutes, tout en maintenant un niveau élevé de précision.

brain-sejnowski-2-700x524
Les chercheurs ont découvert qu’il existe beaucoup plus de tailles différentes de synapses que ce l’on croyait : en l’espace de quelques minutes, les synapses peuvent passer d’une taille à une autre parmi 26 possibilités. Conséquemment, le cerveau a une capacité de stockage beaucoup plus grande. Image : Institut Salk et Université du Texas à Austin

Cette étude pourrait contribuer à résoudre l’inefficacité apparente des synapses, dont la plupart réussissent à transmettre un signal que 10 à 20 pour cent du temps. Les nouvelles recherches suggèrent que comme les signaux issus de milliers de synapses convergent sur un neurone, le manque de fiabilité de tous les signaux correspond au bout du compte à un signal fiable. Le fait d’avoir des synapses qui ne sont pas toujours actives pourrait permettre de conserver beaucoup d’énergie.

« Le cerveau doit faire tous ses calculs avec 20 watts de puissance – ce qui correspond à une ampoule électrique faible », dit Sejnowski. Pour cette raison, il estime qu’il est logique pour chaque synapse de faire peu de travail, avec une faible probabilité d’activation. « Si on utilise les probabilités, les économies obtenues sont énormes. »

Pour réaliser cette découverte, publiée dans eLife, les chercheurs ont mis au point un modèle informatique tridimensionnel d’une minuscule section du centre de la mémoire, l’hippocampe, dans le cerveau d’un rat. Ils ont pris la mesure la plus précise à ce jour pour comparer comment deux synapses différentes sur un neurone pouvaient recevoir les mêmes stimulations et ils ont calculé que vu le nombre de tailles différentes, chaque synapse pouvait stocker environ 4,7 bits de mémoire. Si on extrapole cette valeur pour tenir compte de toutes les synapses dans le cerveau humain, cela équivaut à un pétaoctet et à une puissante machine biologique.

« La nature a permis l’évolution d’un appareil très complexe, le cerveau, et il semble que nous comprenions maintenant comment celui-ci fait pour fonctionner si bien avec des synapses si peu fiables », ajoute Sejnowski.

L’étude démontre comment le cerveau tire avantage de redondances. Les synapses n’ont pas toutes à fonctionner chaque fois pour que nous puissions recueillir et stocker des souvenirs, et il semble que cet équilibre délicat rend le processus beaucoup plus écoénergétique.

Sejnowski dit que cette nouvelle compréhension ouvre la voie à la mise au point de méthodes d’apprentissage automatique qui peuvent traiter d’immenses quantités de données avec moins de puissance informatique et plus d’exactitude. « C’est quelque chose que nous cherchions », dit-il « Au fur et à mesure qu’on ajoute des transistors aux puces, celles-ci ont de plus en plus de défauts. »

Actuellement, un raté dans la mémoire informatique pourrait entraîner la défaillance de l’intégralité du système. Si les ordinateurs pouvaient incorporer les redondances du cerveau, où chaque synapse artificielle tire à pile ou face pour savoir si elle transmettra un signal ou non, nous pourrions considérablement améliorer la puissance informatique. Des boursiers de l’ICRA, comme Roland Memisevic et Yoshua Bengio ont déjà commencé à explorer les possibilités.

« Il s’agit d’une toute nouvelle architecture informatique qui trouvera application dans de nouvelles puces et de nouveaux systèmes d’exploitation fondés sur la probabilité plutôt que sur une opération informatique numérique déterministe et parfaite », explique Sejnowski.

Il ajoute que la formation de réseaux neuronaux artificiels peut nous aider à aiguiller les recherches sur le cerveau. « Il est intéressant de voir que nous avons atteint un point où la théorie du cerveau est en interaction très étroite avec la théorie informatique. »

Sejnowski est conseiller auprès du programme Apprentissage automatique, apprentissage biologique (anciennement connu sous le nom ‘Calcul neuronal et perception adaptative révolutionne’) depuis sa création en 2004. Il s’entend avec d’autres pour dire qu’il s’agit d’un groupe qui a connu un succès « extraordinaire », particulièrement en ce qui concerne ses contributions à l’apprentissage profond.