
Ilya Sutskever , scientifique en chef chez OpenAI , a joué un rôle central dans le développement de systèmes d'intelligence artificielle (IA) conversationnelle qui commencent à changer la société. Depuis ses débuts d’étudiant ambitieux jusqu’à devenir un acteur clé dans la création de ChatGPT, Sutskever a fait preuve d’un mélange d’intelligence et d’empressement à obtenir des résultats, ce qui lui a valu une reconnaissance dans le domaine de l’IA.
Selon Nature , alors qu'il était adolescent, Sutskever a frappé à la porte de Geoffrey Hinton à l'Université de Toronto, à la recherche d'une opportunité d'emploi dans le domaine de l'IA. Hinton, connu comme le parrain de l'IA moderne, a été impressionné par les instincts et les idées du jeune homme.
Sous sa tutelle, Sutskever a contribué aux avancées fondamentales de l'apprentissage profond et des grands modèles de langage (LLM), fondements des robots d'IA conversationnels d'aujourd'hui. Malgré son succès, Sutskever a exprimé son inquiétude quant à l'avenir de l'IA, dirigeant le projet « superalignement » chez OpenAI pour étudier comment diriger et contrôler les systèmes d'IA plus intelligents que nous.
Sutskever et d'autres membres du conseil d'administration d'OpenAI ont licencié Sam Altman , alors PDG de l'entreprise, en novembre, mais après des drames internes et des menaces de démission de la part des employés, Altman a été réintégré et Sutskever s'est excusé et a été démis du conseil d'administration. "Il a un sens moral très fort", a déclaré Hinton à propos de Sutskever, soulignant son engagement en faveur de la sécurité de l'IA.
Cependant, il y a des voix critiques comme Sarah Myers West de l'AI Now Institute, qui affirme que les préoccupations à long terme détournent l'attention des dangers actuels, tels que les biais dans les données de formation et les fuites d'informations privées.
Ilya Sutskever est né en Union soviétique en 1986 et a toujours été un jeune apprenant. Ayant quitté Israël pour le Canada, il s'est plongé dans l'apprentissage profond avec Hinton en 2003 et a connu des succès importants, notamment en développant AlexNet en 2012. Plus tard, chez Google, il a contribué à la création d'AlphaGo. En 2015, avec Elon Musk et Sam Altman , il a cofondé OpenAI en tant qu'organisation à but non lucratif.
Sutskever y a vu une opportunité de travailler vers l’intelligence artificielle générale (AGI). "Chez OpenAI, nous prenons la liberté d'avoir une vue d'ensemble", a déclaré Sutskever plus tôt cette année, selon Nature . Sa vision a été cruciale pour la transition d'OpenAI vers un modèle à « profit limité », attirant les investissements de Microsoft et conduisant au développement de ChatGPT.

Malgré les turbulences internes et les débats éthiques, Sutskever a maintenu sa position audacieuse sur l’IA. Il a déclaré que l'IA pourrait être « légèrement consciente » et anticipe le développement d'une « superintelligence » dans des années ou des décennies, suscitant des réactions diverses. "À ce jour, je suis étonné de voir à quel point il est optimiste", a déclaré Andrew Ng , chercheur en IA et ancien superviseur de Sutskever, à propos de son insistance à aller dans la direction qu'il estime être la bonne, quel que soit le consensus général.
Superalignement
OpenAI , l'institution qui a promis de développer une intelligence artificielle qui profiterait à toute l'humanité, même lorsque l'IA est considérablement plus intelligente que ses créateurs, a annoncé que son équipe de recherche Superalignment , créée en juillet, commence à voir des résultats prometteurs. rapporté par Wired. "L'intelligence générale artificielle (AGI) approche à grands pas", déclare Leopold Aschenbrenner , chercheur à OpenAI. L'entreprise a consacré un cinquième de sa puissance de calcul au projet.
Le groupe Superalignment co-dirigé par Ilya Sutskever , co-fondateur et scientifique en chef d'OpenAI, a rapporté les résultats d'expériences conçues pour tester des méthodes dans lesquelles un modèle d'IA inférieur peut guider le comportement d'un modèle plus intelligent sans réduire ses capacités.

Ce scénario simule un avenir dans lequel les humains doivent collaborer avec des systèmes d’IA plus avancés. Les chercheurs étudient comment automatiser le processus de surveillance utilisé pour affiner des systèmes tels que GPT-4 , le modèle de langage derrière ChatGPT .
Dans une expérience, l'enseignement de GPT-4 à l'aide du générateur de texte GPT-2 a réduit ses compétences, ce qui a conduit à tester deux méthodes pour éviter cela. L’un a progressivement augmenté la taille des modèles et l’autre a inclus un ajustement algorithmique dans GPT-4 .
Ce dernier s'est avéré plus efficace, même s'ils reconnaissent qu'il ne garantit pas un comportement parfait du modèle le plus puissant, servant de point de départ à des recherches ultérieures. "C'est formidable de voir qu'OpenAI s'attaque de manière proactive au problème du contrôle des IA surhumaines ", a déclaré Dan Hendryks du Center for AI Safety à Wired.

Aschenbrenner et d'autres membres de l'équipe qui ont parlé avec Wired, tels que Collin Burns et Pavel Izmailov , sont optimistes quant à cette première étape vers la maîtrise d'éventuelles IA surhumaines. "Même un élève de sixième connaît moins les mathématiques qu'un étudiant, mais il peut quand même exprimer ce qu'il veut réaliser", a déclaré Izmailov. L'analogie reflète l'objectif du groupe de permettre des modèles d'IA moins avancés en guidant les plus développés.
L'avenir de Sutskever chez OpenAI semblait incertain à la suite de la crise de gouvernance de l'entreprise, où il était l'un des membres du conseil d'administration qui ont voté pour licencier le PDG Sam Altman , pour ensuite revenir sur la décision et menacer de démissionner s'il n'était pas réintégré. Sutskever est co-auteur de l'article publié, mais OpenAI ne l'a pas mis à disposition pour discuter du projet. Aschenbrenner remercie Sutskever , le décrivant comme une énorme motivation et une force motrice pour le projet.
Les travaux d' OpenAI sur la supervision de l'IA surhumaine mettent en évidence la tension entre le progrès technologique et la garantie du contrôle sur des technologies qui pourraient dépasser l'intelligence humaine. Avec une communauté attentive aux démarches de l’entreprise, le chemin vers l’intelligence artificielle générale présente des défis et des opportunités pour le futur de l’IA.
(Avec des informations de Nature et Wired)