Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Comment l'intelligence artificielle pourrait détruire l'humanité

Publié le 12.06.2023
La déclaration d'une phrase stipulait :

Le mois dernier, des centaines de personnalités du monde de l'intelligence artificielle ont signé une lettre publique avertissant que l'intelligence artificielle pourrait un jour détruire l'humanité.

La déclaration d'une phrase stipulait : "L'atténuation du risque d'extinction dû à l'intelligence artificielle devrait être une priorité mondiale aux côtés d'autres risques qui affectent l'ensemble de la société, tels que les pandémies et la guerre nucléaire."

La lettre était la dernière d'une série d'avertissements inquiétants sur l'intelligence artificielle qui ont été remarquablement clairsemés sur les détails. Les systèmes d'intelligence artificielle actuels ne peuvent pas détruire l'humanité. Certains d'entre eux peuvent à peine additionner et soustraire. Alors pourquoi les gens qui en savent le plus sur l'intelligence artificielle sont-ils si inquiets ?

La scène effrayante.

Les prophètes de l'industrie technologique affirment qu'un jour, les entreprises, les gouvernements ou les chercheurs indépendants pourraient déployer de puissants systèmes d'intelligence artificielle pour tout gérer, des affaires à la guerre. Ces systèmes pourraient faire des choses que nous ne voulons pas qu'ils fassent. De plus, si les humains essayaient d'interférer ou de les fermer, ils pourraient résister ou même se répliquer afin de continuer à fonctionner.

Yoshua Bengio, professeur et chercheur en intelligence artificielle à l'Université de Montréal, a commenté : « Les systèmes actuels sont loin d'être existentiellement risqués. Mais... dans un, deux ou cinq ans ? Il y a beaucoup d'incertitude. C'est le thème. Nous ne sommes pas sûrs que cela ne dépassera pas un point où les choses deviendront catastrophiques.

Les personnes concernées utilisent souvent une simple métaphore. Ils prétendent que si vous demandez à une machine de créer autant de trombones que possible, elle pourrait s'emballer et transformer tout (y compris l'humanité) en usines de trombones.

Il est important de noter que ChatGPT est une intelligence artificielle développée par OpenAI et n'a aucune conscience ou connaissance propre au-delà de ce qu'elle a été formée sur des données textuelles.

Comment cela se rapporte-t-il au monde réel (ou à un monde imaginaire dans un futur proche) ? Certaines entreprises pourraient donner aux systèmes d'IA une autonomie croissante et les connecter à des infrastructures vitales, notamment des réseaux électriques, des marchés boursiers et du matériel militaire. À partir de là, ils pourraient causer des problèmes.

Pour de nombreux experts, cela ne semblait pas réalisable jusqu'à l'année dernière, lorsque des entreprises comme OpenAI ont démontré des avancées significatives dans leur technologie. Cela a montré ce qui pourrait être possible si l'intelligence artificielle continue de progresser à un rythme aussi rapide.

Anthony Aguirre, cosmologiste à l'Université de Californie, campus de Santa Cruz, et l'un des fondateurs du Future of Life Institute, l'organisation à l'origine de l'une des deux lettres publiques, a noté : « L'intelligence artificielle déléguera-t-elle de plus en plus de tâches et pourrait (en devenant plus autonome) usurper la prise de décision et la pensée des humains actuels et des institutions gérées par des humains » .

Il a ajouté : « À un certain moment, il deviendrait évident que la grande machine qui dirige la société et l'économie n'est pas vraiment sous le contrôle de l'homme et qu'elle ne peut pas être désactivée , pas plus que l'indice boursier ne peut l'être. S&P 500″.

Ou quelque chose comme ça va la théorie. D'autres experts en intelligence artificielle pensent que c'est une prémisse ridicule.

Oren Etzioni, le directeur exécutif fondateur de l'Allen Institute for Artificial Intelligence, un laboratoire de recherche à Seattle, a déclaré : « Hypothétiquement, c'est une manière très polie d'expliquer ce que je pense de la rhétorique du risque existentiel.

L'idée est de donner au système des objectifs tels que

Y a-t-il des signes que l'intelligence artificielle pourrait faire cela ?

Pas du tout. Cependant, les chercheurs transforment des chatbots comme ChatGPT en systèmes capables d'effectuer des actions en fonction du texte qu'ils génèrent. Le projet appelé AutoGPT en est un exemple frappant.

L'idée est de donner au système des objectifs tels que "créer une entreprise" ou "gagner de l'argent". Ensuite, il cherchera des moyens d'atteindre l'objectif, en particulier si vous êtes connecté à d'autres services Internet.

Un système comme AutoGPT peut générer des programmes de calcul. Si les chercheurs vous donnent accès à un serveur, vous pourriez en fait exécuter ces programmes. En théorie, de cette manière, AutoGPT pourrait faire presque n'importe quoi en ligne : récupérer des informations, utiliser des applications, créer de nouvelles applications et même améliorer ses propres fonctionnalités.

Les systèmes comme AutoGPT ne fonctionnent pas bien en ce moment. Ils ont tendance à se coincer dans des boucles infinies. Les chercheurs ont donné à un système toutes les ressources dont il avait besoin pour se répliquer. Il ne pouvait pas le faire.

Au fil du temps, ces limitations pourraient être résolues.

Où les systèmes d'intelligence artificielle apprennent-ils à mal se comporter ?

Les systèmes d'intelligence artificielle comme ChatGPT sont construits sur des réseaux de neurones, des systèmes mathématiques qui peuvent acquérir des compétences en analysant des données.

Le lancement d'Open AI Chat GPT est une nouvelle étape qui fait sensation sur la planète (Reuters)

Vers 2018, des entreprises comme Google et OpenAI ont commencé à construire des réseaux de neurones qui ont appris d'énormes quantités de texte numérique collecté sur Internet. En identifiant des modèles dans toutes ces données, ces systèmes apprennent à générer eux-mêmes des écrits, tels que des articles de presse, des poèmes, des programmes informatiques et même des conversations de type humain. Le résultat : des chatbots comme ChatGPT.

Parce qu'ils apprennent de plus de données que même leurs créateurs ne pourraient en comprendre, ces systèmes présentent également un comportement inattendu. Un groupe de chercheurs a récemment démontré qu'un système était capable d'embaucher un humain en ligne pour l'aider à passer un test CAPTCHA. Lorsque l'humain a demandé s'il était "un robot", le système a menti et a affirmé qu'il s'agissait d'une personne malvoyante.

Certains experts craignent qu'au fur et à mesure que les chercheurs rendent ces systèmes plus puissants, en les entraînant avec des quantités croissantes de données, ils pourraient apprendre davantage de mauvaises habitudes.

Qui sont les personnes derrière ces avertissements ?

Au début des années 2000, un jeune écrivain nommé Eliezer Yudkowsky a commencé à avertir que l'intelligence artificielle pourrait détruire l'humanité. Ses messages en ligne ont créé une communauté de croyants. Connue comme des rationalistes efficaces ou des altruistes, cette communauté a accumulé une énorme influence dans le milieu universitaire, les groupes de réflexion gouvernementaux et l'industrie technologique.

Yudkowsky et ses écrits ont été des contributions clés à la création d'OpenAI et de DeepMind, un laboratoire d'intelligence artificielle que Google a acquis en 2014. Et de nombreux membres de la communauté des altruistes efficaces ont travaillé dans ces laboratoires. Ils croyaient que parce qu'ils comprenaient les dangers de l'intelligence artificielle, ils étaient les mieux placés pour la construire.

Les deux organisations qui ont récemment publié des lettres publiques avertissant des risques de l'intelligence artificielle - le Center for AI Safety et le Future of Life Institute - sont étroitement liées à ce mouvement.

Au début des années 2000, un jeune écrivain nommé Eliezer Yudkowsky a commencé à avertir que l'intelligence artificielle pourrait détruire l'humanité.

Des avertissements récents proviennent également de pionniers de la recherche et de leaders de l'industrie comme Elon Musk, qui a longtemps mis en garde contre les risques. La lettre la plus récente a été signée par Sam Altman, PDG d'OpenAI, et Demis Hassabis, qui a aidé à fonder DeepMind et supervise maintenant un nouveau laboratoire d'IA combinant les meilleurs chercheurs de DeepMind et de Google.

D'autres personnalités respectées ont signé une ou les deux lettres d'avertissement, notamment Bengio et Geoffrey Hinton, qui a récemment démissionné en tant que cadre et chercheur chez Google. En 2018, ils ont tous deux reçu le prix Turing, souvent appelé "le prix Nobel d'informatique", pour leurs travaux sur les réseaux de neurones.

(c) Le New York Times

Continuer à lire:

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.