
Inspirée par le cerveau humain, une équipe scientifique a développé un nouveau transistor synaptique capable de « penser » à un niveau supérieur ; L’appareil peut traiter et stocker des informations simultanément, tout comme notre cerveau.
La description du transistor qui tente d'imiter l'intelligence humaine et qui fonctionne à température ambiante est publiée dans la revue Nature , dans un article dans lequel les chercheurs démontrent que l'appareil va au-delà des simples tâches d'apprentissage automatique pour catégoriser les données, et est capable d’apprentissage associatif.
Bien que des études antérieures aient exploité des stratégies similaires pour développer des dispositifs informatiques de type cerveau, ces transistors ne peuvent pas fonctionner en dehors des températures cryogéniques.
Le nouveau modèle, en revanche, est stable à température ambiante et fonctionne également à grande vitesse, consomme très peu d'énergie et conserve les informations stockées même lorsque l'alimentation est coupée, "ce qui le rend idéal pour les applications du monde réel".
La recherche est codirigée par Mark C. Hersam, de la Northwestern University, et par l'Espagnol Pablo Jarillo-Herrero, du Massachusetts Institute of Technology (MIT).
Les progrès récents de l'intelligence artificielle (IA) ont motivé les chercheurs à développer des ordinateurs qui fonctionnent davantage comme le cerveau humain, rappelle une déclaration de Northwestern.

Depuis plusieurs décennies, souligne Hersam, le paradigme de l'électronique a consisté à tout construire avec des transistors - des semi-conducteurs qui redressent et amplifient les impulsions électriques - et à utiliser la même architecture de silicium.
« De nombreux progrès ont été réalisés simplement en intégrant de plus en plus de transistors dans les circuits intégrés. Le succès de cette stratégie est indéniable, mais elle se fait au prix d’une consommation d’énergie élevée, surtout à l’ère actuelle du big data où l’informatique numérique est en passe de submerger les réseaux.
Pour cette raison, nous devons repenser « le matériel informatique, en particulier pour les tâches d’IA et d’apprentissage automatique ».
Les systèmes informatiques numériques conventionnels disposent d'unités de traitement et de stockage séparées, ce qui fait que les tâches gourmandes en données consomment de grandes quantités d'énergie.
En revanche, dans le cerveau, explique Hersam, la mémoire et le traitement de l'information sont situés au même endroit et entièrement intégrés, ce qui se traduit par une efficacité énergétique d'un ordre de grandeur supérieur. "Notre transistor synaptique réalise de la même manière une fonctionnalité simultanée de mémoire et de traitement de l'information pour imiter plus fidèlement le cerveau."
Pour y parvenir, l'équipe a exploré la physique des motifs de moiré , un type de conception géométrique qui apparaît lorsque deux motifs sont superposés en couches, et a combiné deux types différents de matériaux atomiquement fins : le graphène bicouche et le nitrure de bore hexagonal.

Lorsque des matériaux bidimensionnels, tels que le graphène , sont empilés, de nouvelles propriétés émergent qui n'existent pas dans une seule couche, et lorsque ces couches sont tordues pour former l'effet moiré, un réglage sans précédent des propriétés électroniques est possible.
Ainsi, en faisant tourner une couche par rapport à l’autre, les chercheurs ont obtenu des propriétés électroniques différentes dans chaque couche de graphène, même si elles n’étaient séparées que par des dimensions à l’échelle atomique.
"Avec le couple comme nouveau paramètre de conception, le nombre de permutations est énorme", déclare Hersam. "Le graphène et le nitrure de bore hexagonal sont très similaires sur le plan structurel, mais suffisamment différents pour obtenir des effets de moiré exceptionnellement puissants", ajoute-t-il.
Formation sur les transistors
Pour tester le transistor, l’équipe l’a entraîné à reconnaître des modèles similaires, mais pas identiques.
Tout d’abord, il a montré à l’appareil le modèle 000, puis a demandé à l’IA d’identifier des modèles similaires, tels que 111 ou 101.
"Si nous l'entraînons à détecter 000 et lui donnons ensuite 111 et 101, il sait que 111 ressemble plus à 000 qu'à 101", souligne Hersam, pour qui la reconnaissance de la similarité est une forme supérieure de cognition connue sous le nom d'apprentissage associatif.
(Avec informations de l'EFE)