
C'était cinq jours très étranges avant que Sam Altman ne semble rester chez OpenAI après tout. Le 17 novembre, le conseil d'administration du fabricant de Chatgpt a brutalement évincé son PDG. Le 19, il semblait qu'Altman allait rejoindre Microsoft , le plus gros investisseur d' OpenAI . Mais les employés de la startup se sont rebellés et presque tous, y compris l'un des premiers conspirateurs du conseil d'administration, ont menacé de partir si Altman n'était pas réintégré. Entre des réunions frénétiques, les hauts fonctionnaires se tweetaient des émojis de cœur et des messages d’amour. Le 21, la boucle était bouclée.
Tout cela semble encore plus étrange si l'on considère que ces événements se déroulaient au sein de la start -up la plus en vogue au monde, dont la valorisation était estimée à 90 milliards de dollars . Cette rareté est en partie le signe de la rapidité avec laquelle la technologie relativement jeune de l’intelligence artificielle générative a été propulsée sur le devant de la scène. Mais elle recèle également des leçons plus profondes et plus inquiétantes.
L'un d'eux est la force des talents en IA . Alors que les salariés menaçaient de démissionner, le message « OpenAI n’est rien sans ses collaborateurs » résonnait sur les réseaux sociaux. Depuis le lancement de Chatgpt il y a un an, la demande d’experts en IA est très forte. Alors que le chaos régnait, Microsoft et d’autres entreprises technologiques étaient prêtes à accueillir à bras ouverts le personnel mécontent. Cela a donné à Altman et aux programmeurs d'OpenAI un énorme pouvoir de négociation et a fatalement sapé les tentatives du conseil d'administration d'exercer un contrôle.
L'épisode met également en lumière la structure inhabituelle d' OpenAI . Il a été fondé en 2015 en tant que laboratoire de recherche à but non lucratif visant à développer en toute sécurité une intelligence artificielle générale (IAG), capable d'égaler ou de surpasser les humains dans tous les types de pensée. Mais il est vite devenu évident que cela nécessiterait d’énormes quantités de puissance de traitement coûteuse, si cela était même possible. Pour le financer, une filiale à but lucratif a été créée pour vendre des outils d'intelligence artificielle, comme Chatgpt . Et Microsoft a investi 13 milliards de dollars en échange d'une participation de 49 %.
Sur le papier, le pouvoir restait entre les mains du conseil d'administration de l'association, dont le but est de garantir que l'AGI profite à tous, et dont la responsabilité n'est donc pas envers les actionnaires, mais envers « l'humanité ». Cette illusion a été brisée lorsque les employés ont exigé le retour d' Altman et lorsque la perspective d'une société rivale hébergée au sein de Microsoft , cherchant le maximum de profit, est apparue.
La principale leçon est la folie des technologies policières à travers des structures d’entreprise. À mesure que le potentiel de l’IA générative est devenu évident, les contradictions de la structure d’OpenAI ont été révélées. Un seul organisme ne peut pas parvenir au meilleur équilibre entre faire progresser l’IA, attirer les talents et les investissements, évaluer les menaces liées à l’IA et protéger l’humanité. Les conflits d’intérêts dans la Silicon Valley ne sont pas rares. Même si les gens d’ OpenAI étaient aussi brillants qu’ils le pensent, la tâche les dépasserait.
De nombreuses raisons avancées par le conseil d'administration pour licencier M. Altman restent inconnues. Même si les dirigeants avaient réellement à l’esprit les intérêts de l’humanité, ils risquaient de voir les investisseurs et les employés affluer vers une autre entreprise qui continuerait malgré tout à faire progresser la technologie. On ne sait pas non plus exactement ce qui qualifie une poignée de citoyens privés pour représenter les intérêts des 7,9 milliards d’habitants restants de la Terre . Au moment où nous publiions cet article, de nouveaux rapports suggéraient qu'un conseil de remplacement serait éventuellement nommé, comprenant M. Altman et un représentant de Microsoft . Mais les changements de personnel ne suffisent pas : la structure de l’entreprise doit également être revue.
Des conseils dénués de sens
Heureusement pour l’humanité, il existe des organisations qui prétendent représenter ses intérêts de manière beaucoup plus convaincante : les gouvernements élus. En édictant des réglementations, ils peuvent fixer les limites dans lesquelles des entreprises comme OpenAI doivent opérer. Et comme le montre l’intense activité du mois dernier, ils s’intéressent à l’intelligence artificielle. La technologie de l’intelligence artificielle est trop importante pour être laissée au risque des dernières intrigues commerciales.
© 2022, Journal The Economist Limité. Tous droits réservés.