
La technologie de l'intelligence artificielle devrait être considérée comme un risque sociétal et priorisée comme les pandémies et les guerres nucléaires. Ceci est indiqué dans une déclaration signée par les principaux experts de l'industrie technologique, qui comprend des scientifiques et des dirigeants de Microsoft, Google et d'autres sociétés telles que OENIA elle-même, créateur de ChatGPT.
La déclaration a été signée par des centaines de cadres et d'universitaires, dont Demis Hassabis, PDG de Google DeepMind ; Sam Altmany PDG d'OpenAI ; et Kevin Scott , directeur technique de Microsoft. Il a été publié mardi par le Center for AI Safety au milieu des inquiétudes croissantes concernant la réglementation et les risques que la technologie pose à l'humanité.
"Les experts en IA, les journalistes, les décideurs et le public discutent de plus en plus d'un large éventail de risques importants et urgents liés à l'IA", expliquent-ils. "Pourtant, il peut être difficile d'exprimer des inquiétudes concernant certains des risques les plus graves de l'IA avancée. L'énoncé succinct suivant vise à surmonter cet obstacle et à ouvrir la discussion. Il vise également à créer une compréhension commune du nombre croissant d'experts et de personnalités publiques qui prennent également au sérieux certains des risques les plus graves de l'IA avancée.
La déclaration se lit simplement : "L'atténuation du risque d'extinction de l'IA devrait être une priorité mondiale avec d'autres risques sociétaux tels que les pandémies et la guerre nucléaire."
L'intelligence artificielle est probablement le développement le plus important du 21ème siècle. Dans deux décennies, les aspects de la vie humaine quotidienne seront complètement différents. L'informaticien John McCarthy a inventé le terme lors du légendaire projet de recherche d'été de Dartmouth en 1956 sur l'IA.

Comme l'a écrit Kai-Fu Lee , ancien président de Google Chine et auteur à succès de AI Superpowers, et le célèbre romancier Chen Qiufan dans AI 2041 : Ten Visions For Our Future (Currency), AI va générer une richesse sans précédent, révolutionner la médecine et l'éducation par l'homme -la symbiose des machines et créera de nouvelles formes de communication et de divertissement.
Cependant, en nous libérant du travail routinier, l'IA remettra également en cause les principes organisateurs de notre ordre économique et social. Pendant ce temps , cela apportera de nouveaux risques sous la forme d'armes autonomes et de technologies intelligentes qui héritent des préjugés humains.
L'IA est maintenant à un point de basculement.
"Il est difficile de voir comment vous pouvez empêcher les mauvais acteurs de l'utiliser pour de mauvaises choses", a-t-il averti, affirmant que l'IA pourrait bientôt être un risque pour les emplois, mais pire, à un moment donné, cela pourrait être un risque pour l'humanité. .
Il est particulièrement préoccupé par le fait que les futures versions de la technologie constituent une menace pour l'humanité car elles apprennent souvent un comportement inattendu à partir des vastes quantités de données qu'elles analysent. "Cela devient un problème car les individus et les entreprises autorisent les systèmes d'intelligence artificielle non seulement à générer leur propre code informatique, mais également à exécuter ce code par eux-mêmes."

« L'idée que ces choses pourraient en fait devenir plus intelligentes que les gens, croyaient certaines personnes. Mais la plupart des gens pensaient que c'était trop loin. Et je pensais que c'était trop loin. Je pensais que c'était dans 30 à 50 ans ou même plus. Évidemment, je ne pense plus à ça », a-t-il prévenu.
C'est juste que les craintes que l'IA devienne plus intelligente que les humains et se déchaînent semblaient jusqu'à récemment relever du domaine de la science-fiction. Mais ces craintes se sont intensifiées avec l'émergence d'une nouvelle race de chatbots hautement qualifiés comme ChatGPT .
Ces avertissements de la communauté scientifique de l'industrie technologique commencent à s'accumuler, alors que les pays du monde entier se précipitent pour élaborer des réglementations visant à freiner le développement de l'IA.
La loi de l'Union européenne sur l'intelligence artificielle , qui pourrait être adoptée dans les prochaines années, pourrait être le premier règlement complet sur cette technologie. Il vise à réglementer des outils tels que la reconnaissance faciale et la surveillance biométrique.
L'IA sera précisément l'un des thèmes centraux de la quatrième réunion ministérielle du Conseil du commerce et de la technologie, qui se tiendra en Suède les 30 et 31 mai. Les algorithmes d'IA générative tels que ChatGPT d'OpenAI seront abordés.
Les fondateurs d'OpenAI, Greg Brockman et Ilya Sutskever, et le PDG Sam Altman ont récemment appelé à une réglementation de la technologie d'IA "super intelligente". Pour cela, ils ont proposé la création d'un organisme international de contrôle , comme l'Agence internationale de l'énergie atomique.
"Ce sera plus puissant que les autres technologies auxquelles l'humanité a dû faire face dans le passé", ont-ils averti. "Compte tenu de la possibilité d'un risque existentiel, nous ne pouvons pas simplement être réactifs",
Continuer à lire: