Physique

Neurones et synapses, c’est (aussi) une affaire de physique

Henri DUPUIS • dupuis.h@belgacom.net 

©Laurent Thion/Ecliptique

On parle d’elle comme d’une chercheuse (bio)inspirée. Créatrice du premier neurone artificiel à avoir fonctionné dans une application, Julie Grollier n’a de cesse de vouloir améliorer les performances de nos ordinateurs en s’inspirant de notre cerveau. Et en utilisant un outil redoutable d’efficacité: la spintronique


La physicienne Julie Grollier dans son laboratoire de Palaiseau (©Laurent Thion/Ecliptique)

Mea culpa. La spintronique aurait dû ­figurer au menu de cette chronique depuis longtemps. Mais le sujet est complexe… Ce numéro spécial est l’occasion de combler (un peu) cette lacune car le domaine doit beaucoup à une physicienne française, Julie ­Grollier, directrice de recherches au sein de l’Unité mixte CNRS/Thales à Palaiseau.

Personne ne niera les progrès sensationnels accomplis depuis des décennies dans le ­secteur de l’informatique et plus récemment, dans celui de l’intelligence artificielle. Mais toute ­croissance connaît des limites, notamment à cause de la dispo­nibilité des ressources énergétiques. On peut résumer les problèmes rencontrés aujourd’hui par les ordinateurs en 2 types. Un problème de localisation tout d’abord. Les mémoires où sont stockées les informations ne sont pas «proches» des processeurs où les données sont traitées. Cette disposition n’est pas trop handicapante lorsqu’il s’agit d’effectuer des calculs, même très complexes, basés sur des données codées sous forme de bits. Mais les algorithmes utilisés en intelligence artificielle comportent des millions de paramètres. Pour reconnaître un visage par exemple, l’ordinateur va chercher des données dans les mémoires, les traiter dans le processeur, les renvoyer temporairement dans les mémoires, puis les retraiter avec d’autres données et ainsi de suite des milliards de fois. Le second problème est paradoxalement un problème de précision. Nous avons conçu nos ordinateurs d’abord pour le calcul, donc comme des «bêtes» à la logique implacable, le hasard n’ayant aucunement sa place. Ce qui implique qu’ils ne cessent d’éliminer les bruits parasites et de se corriger.

Résultat de ces 2 failles ? Une consommation considérable d’énergie électrique. Or, il existe une «machine» qui fait la même chose (et souvent bien mieux) en ne consommant presque rien: le cerveau humain. Peut-on s’en inspirer ?

  
Un petit cylindre 

Notre cerveau fonctionne en effet de manière différente. La mémoire est ­partout, dans les synapses, qui sont connectées à des milliers de neurones (les processeurs) à la fois. Lesquels ne sont pas très précis car ils ont une part d’aléatoire dans leur fonctionnement. Mais un résultat correct est déduit des différents résultats produits par les neurones qui ont effectué la même opération. Quant aux signaux traités par les neurones, ils ne sont pas binaires (0 ou 1) comme dans nos ordinateurs. Et bien d’autres différences sans doute encore…Mais elles concourent toutes au même résultat: être très économe en énergie. Peut-on répliquer cela ? Parmi les pistes étudiées, la spintronique est apparue comme un bon outil pour rapprocher mémoire et processeur.

On peut définir la spintronique comme une électronique (ce sont toujours des électrons qu’on manie) basée non plus sur la charge électrique de ­l’électron mais son spin, une caractéristique quantique… donc difficilement représentable. Disons qu’il s’agit d’une orientation (comme un moment cinétique) que peut prendre un électron, un peu comme une flèche orientée. Là où cela devient très intéressant, c’est que cela détermine le moment magnétique de l’électron et par extension, celui des matériaux. Car si une majorité des électrons d’un matériau ont leur spin orienté dans le même sens, le matériau aura une aimantation non nulle. Contrôler le spin des électrons, c’est donc contrôler les propriétés magnétiques des matériaux.

Pour y arriver, on utilise des «jonctions tunnel magnétiques», petits (une dizaine de nanomètres de diamètre, donc 1 000 fois plus petit que le diamètre d’un cheveu) cylindres composés de 2 couches de matériaux magnétiques (aimants) séparées par une couche isolante. Si les spins des 2 aimants sont orientés dans le même sens, un courant électrique traverse l’isolant (effet ­tunnel quantique). L’inverse est évidemment vrai aussi. On voit immédiatement que ce «comportement» binaire (résistant/pas résistant) permet de ­stocker des informations sous cette forme (0, 1). C’est ce qui a permis, voici déjà plusieurs années, de fabriquer des mémoires dites MRAM, largement utilisées aujourd’hui. D’amélioration en amélioration, on a pu les placer de plus en plus près des processeurs, se rapprochant ainsi du modèle du cerveau. D’autant que les scientifiques sont ­parvenus en même temps à ­conférer à ces mémoires (synapses) artificielles une – faible – fonction d’apprentissage, fonction qu’ont nos synapses. C’est précisément et notamment à Julie Grollier qu’on doit d’avoir montré que des mémoires spintroniques pouvaient compter des véhicules ou reconnaître des chiffres manuscrits.

Mis au point par Julie Grollier et son équipe internationale, ce cylindre de métal, mille fois plus fin qu’un cheveu, est le premier neurone artificiel «en dur» à avoir fonctionné au sein d’une application.

©Laboratoire Spintronics Research Center, AIST Tsukuba, Japon

Côté neurones 

Si des progrès ont donc été réalisés du côté des synapses artificielles, qu’en est-il du côté des neurones ? Ici aussi, la jonction tunnel magnétique apporte une réponse positive. Et en 2017, l’équipe de Julie Grollier montre dans Nature (1) qu’une telle jonction peut imiter un neurone. Mieux: elle met au point une technique (dite de multiplexage temporel) pour faire jouer à une seule jonction le rôle de 400 neurones, la jonction jouant tour à tour le rôle de chaque neurone particulier. Ce réseau de neurones artificiels a ensuite pu reconnaître les chiffres prononcés ­oralement par ­différentes personnes, se jouant ainsi des accents, intonations, etc. Une première qui ouvre la voie à la ­réalisation d’un cerveau artificiel. Julie Grollier poursuit en effet ses recherches vers ­l’assemblage d’un ­million de ces neurones artificiels, une taille nécessaire pour, par exemple, ­diriger un robot ou une voiture autonome. 

(1)    Neuromorphic computing with nanoscale spintronic oscillators, J. Torrejon et al., Nature, 547, pp. 428–431 (2017)

  

Algorithme
versus neurones bioinspirés

La lecture de l’article aura peut-être suscité l’interrogation de certains: Pourquoi Nature a-t-il cru bon de publier un article célébrant un neurone qui peine à identifier les 10 chiffres alors que n’importe quelle I.A. fait beaucoup mieux depuis longtemps ? Pourquoi se donner comme objectif lointain un assemblage de processeurs capables de piloter une voiture autonome… alors que de telles voitures existent déjà ? C’est que les réseaux de neurones dont on parle tant et qui ont permis à l’I.A. de réaliser des exploits (comme de battre le champion du monde du jeu de go) sont des algorithmes qui simulent le fonctionnement de diverses unités de calcul liées entre elles, unités (les neurones) qui sont des fonctions mathématiques. 

Le tout fonctionnant sur des supports traditionnels comme des transistors. Ils sont donc purement numériques et n’existent pas réellement. Au contraire, comme on l’a vu, les neurones artificiels de Julie Grollier sont des objets (des jonctions tunnel) nanométriques, parfaitement visibles au microscope électronique. Ils représentent l’avenir de l’informatique par leur – future – puissance avec des encombrements fortement réduits et surtout, une consommation électrique très faible. 

Share This