Programmeur.chprogrammeur.ch
  • Intelligence artificielle

L'apprentissage automatique qui a posé les bases de l'intelligence artificielle, la découverte des lauréats du prix Nobel de physique.

Publié le 08.10.2024
John Hopfield et Geoffrey Hinton apparaissent à l'écran lors d'une conférence de presse annonçant qu'ils ont remporté le prix Nobel de physique, à Stockholm, Suède (TTNews Agency/Christine Olsson via REUTERS)

Hopfield est né en 1933 à Chicago et poursuit sa recherche à la Université de Princeton, États-Unis. Hinton est né en 1947 à Londres et est chercheur à l'Université de Toronto, Canada.

En présentant les lauréats, le comité Nobel a souligné que « bien que les ordinateurs ne puissent pas penser, les machines peuvent maintenant imiter des fonctions comme la mémoire et l'apprentissage. Les récipiendaires de cette année en physique ont contribué à rendre cela possible. »

En utilisant des principes de la physique, les deux scientifiques ont réalisé des avancées clés qui ont jeté les bases des réseaux de neurones artificiels, une structure computationnelle inspirée du fonctionnement du cerveau. Cette découverte a non seulement changé la manière dont les machines traitent et stockent l'information, mais a également été essentielle au développement de l'intelligence artificielle (IA) moderne, notamment dans le domaine de l'apprentissage profond.

Comprendre le cerveau pour créer des réseaux de neurones artificiels

John Hopfield et Geoffrey Hinton ont été reconnus pour leur travail sur des algorithmes fondamentaux qui propulsent l'intelligence artificielle moderne, approfondissant les structures qui imitent l'activité cérébrale (Image Illustrative Infobae)

Le travail de Hopfield, de l'Université de Princeton, et Hinton, de l'Université de Toronto, est profondément lié aux concepts de la physique et de la biologie. Bien que nous associions aujourd'hui l'apprentissage automatique aux ordinateurs et aux algorithmes, les premiers pas vers la création de réseaux de neurones artificiels sont nés du désir de comprendre comment fonctionne le cerveau humain et comment il traite l'information. Hopfield, un physicien théorique, a joué un rôle décisif en appliquant des concepts physiques à la neuroscience pour expliquer comment le cerveau peut stocker et récupérer de l'information.

En 1982, il a développé le réseau de Hopfield, un modèle de réseau de neurones artificiels capable de stocker des motifs d'information et, par la suite, de les récupérer même lorsqu'ils sont incomplets ou altérés. Ce concept, connu sous le nom de mémoire associative, imite la capacité humaine de se souvenir, par exemple, d'un mot qui est sur le bout de la langue, en traitant d'autres mots proches dans leur signification jusqu'à trouver le bon.

Hopfield a appliqué des connaissances de physique, telles que les principes régissant les systèmes de spin atomique, pour créer son réseau. En physique, le spin est une propriété des particules subatomiques qui génère un champ magnétique. Inspiré par ce comportement, Hopfield a conçu un système dans lequel les neurones, ou nœuds, étaient connectés entre eux avec différentes intensités, de manière similaire à la façon dont les atomes d'un matériau magnétique influencent les directions de leurs spins voisins.

Cette approche a permis au réseau d'associer et de reconstruire des motifs de manière efficace, une idée révolutionnaire qui a marqué le début d'une nouvelle ère dans la calculabilité neuronale.

Inspiré par la neuroscience, Hopfield a conçu un modèle qui reproduit même des motifs incomplets, appliquant des principes physiques similaires au comportement des matériaux magnétiques (Image Illustrative Infobae)

Le réseau de Hopfield et la mémoire associative

Le réseau de Hopfield représente une avancée significative car il est basé sur un système capable de stocker plusieurs motifs simultanément. Lorsqu'on lui présente un motif incomplet, le réseau peut trouver celui le plus proche parmi ceux qu'il a déjà mémorisés et reconstruire celui-ci. Ce processus ressemble à faire rouler une boule sur un paysage de sommets et de vallées : si la boule est laissée tomber près d'une vallée (motif), elle roulera jusqu'au fond, où elle trouvera le motif le plus proche.

En termes techniques, le réseau est programmé avec une image en noir et blanc en assignant des valeurs binaires à chaque nœud (0 pour noir, 1 pour blanc). Ensuite, une formule d'énergie est utilisée pour ajuster les connexions entre les nœuds, ce qui permet au réseau de réduire l'énergie totale du système et, éventuellement, d'atteindre un état stable où le motif original a été recréé. Cette approche était non seulement nouvelle, mais a également prouvé être scalable : le réseau pouvait stocker et différencier plusieurs images, ouvrant la voie à une forme de stockage distribué d'informations qui inspirerait davantage les avancées en intelligence artificielle.

Hinton et la machine de Boltzmann

La machine de Boltzmann de Hinton et l'apprentissage par motifs est un système innovant qui utilise des principes de physique statistique pour prévoir des configurations dans les données (REUTERS/Mark Blinch/File Photo)

Tandis que Hopfield développait son réseau, Geoffrey Hinton explorait comment les machines pouvaient apprendre à traiter des motifs d'une manière similaire aux humains, trouvant leurs propres catégories sans besoin d'instructions explicites.

Hinton a été pionnier de la machine de Boltzmann, un type de réseau neuronal qui utilise des principes de la physique statistique pour découvrir des structures dans de grandes quantités de données.

La physique statistique s'occupe de systèmes formés par de nombreux éléments similaires, comme les molécules d'un gaz, dont les états individuels sont imprévisibles, mais qui peuvent être analysés collectivement pour déterminer des propriétés telles que la pression et la température. Hinton a exploité ces concepts pour concevoir une machine capable d'analyser la probabilité qu'un ensemble spécifique de connexions dans un réseau se produise, basé sur l'énergie du réseau dans son ensemble. Inspiré par l'équation de Ludwig Boltzmann, Hinton a utilisé cette formule pour calculer la probabilité de différentes configurations au sein du réseau.

La machine de Boltzmann a deux types de nœuds : visibles et cachés. Les premiers reçoivent l'information initiale, tandis que les nœuds cachés génèrent des motifs à partir de cette information, ajustant les connexions du réseau pour que les exemples entraînés aient la plus grande probabilité possible de se produire. Ainsi, la machine apprend par les exemples, non par des instructions, et peut reconnaître des motifs même lorsque l'information est nouvelle, mais ressemble aux exemples précédemment vus.

Les bases de l'apprentissage profond de l'Intelligence Artificielle

Les avancées de Hopfield et Hinton ont jeté les bases de l'apprentissage profond pour le développement de l'IA moderne (Image illustrative Infobae)

Le travail de Hopfield et Hinton n'a pas seulement revitalisé l'intérêt pour les réseaux de neurones, mais a également ouvert la voie au développement de l'apprentissage profond, un domaine de l'IA qui aujourd'hui propulse la plupart des innovations technologiques, allant des assistants virtuels aux véhicules autonomes.

Les réseaux de neurones profonds, qui sont des modèles avec de nombreuses couches de neurones, doivent leur existence à ces avancées précoces dans les réseaux de neurones artificiels.

De nos jours, les réseaux de neurones sont des outils fondamentaux pour analyser de grandes quantités de données, identifier des motifs complexes dans les images et les sons, et améliorer la prise de décisions dans des secteurs allant de la médecine à l'astrophysique.

Grâce aux découvertes de Hopfield et Hinton, l'IA continue d'évoluer à un rythme fulgurant. Dans le domaine de la biologie moléculaire, par exemple, les réseaux de neurones sont utilisés pour prévoir la structure des protéines, ce qui a des implications directes dans le développement de médicaments. De plus, dans le domaine de l'énergie renouvelable, les réseaux sont utilisés pour concevoir des matériaux avec de meilleures propriétés pour des cellules solaires plus efficaces.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.