Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Pourquoi Stephen Hawking avait peur de l'avancement de l'intelligence artificielle

Publié le 04.05.2023
Stephen Hawking craignait que l'intelligence artificielle puisse s'améliorer et dépasser les capacités des humains. (photo : as.com)

Bien que certaines personnes aient été favorables au développement de technologies artificielles, comme Sam Altman, le PDG d' OpenAI , la société responsable de la création de ChatGPT , et Bill Gates , qui a été très favorable à ces logiciels, il existe également d'autres experts qui s'y sont opposés.

L'un d'eux, plusieurs années à l'avance, Stephen Hawking, qui assurait que cette technologie ne devait pas se développer tant qu'elle aurait le potentiel de "détruire l'humanité" car, selon ses idées, ces programmes informatiques numériques pourraient acquérir un comportement et une volonté de eux-mêmes, de telle manière qu'ils pourraient dépasser les capacités des gens.

Le physicien et astronome britannique a fondé ses idées sur un type d' intelligence artificielle qui n'existe pas jusqu'à présent, puisque c'est la plus extrême de toutes, puisqu'elle développerait des caractéristiques "humaines" qui continueraient à se développer d'elles-mêmes sans l'autorisation de une personne.

Non seulement cela, mais aussi, dans le même style que les films de science-fiction, Hawking considérait que les systèmes d'intelligence artificielle auraient la capacité de «s'améliorer» eux-mêmes. Pour le scientifique , « (l'intelligence artificielle) va se prendre en main et se reconcevoir à un rythme de plus en plus rapide. Les humains, qui sont limités par l'évolution biologique, ne pourraient pas rivaliser et seraient surclassés."

Stephen Hawking a assuré qu'il était nécessaire de continuer à enquêter sur les avantages et les problèmes que le développement de l'intelligence artificielle pourrait apporter. (Freepik)

En ce sens, la peur de Hawking est basée sur l'idée d'un programme autonome qui prend ses propres décisions et est conscient de son identité en tant que système développé pour obéir aux commandes . Ceci, ajouté au fait qu'il aurait la possibilité d'égaler ou de surpasser ce qu'un humain pourrait faire. Essentiellement, les rendre défectueux ou "obsolètes".

Cependant, la peur de Hawking ne l'a pas empêché de continuer à se référer à cette technologie en termes de curiosité. Dans les années qui ont précédé sa mort, le physicien a indiqué qu'il serait positif de générer plus d'informations à son sujet par le biais de recherches pour déterminer quels seraient les dangers et les avantages de l'intelligence artificielle dans la société.

En plus d'avoir plusieurs arguments contre elle, Hawking a également considéré que cette technologie aurait la capacité d'éliminer les guerres, la pauvreté et les maladies, coïncidant dans ce dernier domaine avec Bill Gates , qui estime que l'intelligence artificielle peut être appliquée pour améliorer les services de santé. dans les hôpitaux.

"En raison du grand potentiel de l'IA , il est important d'étudier comment exploiter ses avantages et éviter les effets négatifs potentiels", déclare une lettre ouverte intitulée "Priorités de recherche pour une intelligence artificielle robuste et bénéfique", qui a été signée par Hawking lui-même dans le année 2015.

Sam Altman estime que les craintes que les gens peuvent avoir à propos de l'intelligence artificielle prenant conscience et déterminant de sa

Régulation de l'intelligence artificielle

Pour Altman , en tant que fondateur d' OpenAI , les craintes que les gens pourraient avoir à propos de l'intelligence artificielle prenant conscience et déterminant par "sa propre volonté" qu'elle veut dominer le monde, ne correspondraient pas à la réalité.

"Ces modèles attendent qu'une personne leur propose une indication, une tâche à effectuer (...) c'est un outil qui est sous le contrôle de l'homme (...) si un ingénieur considère qu'il vaut mieux laisser cet outil sans système fonctionnel, c'est quelque chose qui peut être fait », a-t-il déclaré lors d'une récente interview.

Le PDG d'OpenAI a également assuré que l'une des actions qu'il soutient est la régulation qui peut être exercée sur le développement de l'intelligence artificielle par les institutions gouvernementales, notamment pour protéger les utilisateurs d'éventuelles utilisations négatives de ces plateformes.

Cependant, il a aussi assuré qu'il serait contre-productif que le travail lié à son évolution reste en marge de la société , puisque cela priverait le monde de s'adapter progressivement aux avancées qui s'offrent à lui.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.