Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Un astrophysicien met en garde contre l’IA comme une fin potentielle à la civilisation : pourrait-elle nous tuer d’ici 200 ans ?

Publié le 21.04.2024
Michael Garrett propose une vision apocalyptique dans laquelle l’IA pourrait anéantir les civilisations avancées. (Informations sur l'image illustrative)

Son article, publié dans Acta Astronautica, nous plonge dans un abîme de spéculations scientifiques et philosophiques susceptibles de changer notre approche de la technologie que nous développons avec tant d’enthousiasme.

Garrett soutient que l’IA apparaît comme l’un des développements technologiques les plus transformateurs de l’histoire de l’humanité. Son potentiel à révolutionner les industries, à résoudre des problèmes complexes et à simuler une intelligence comparable ou supérieure aux capacités humaines nous a catapulté dans une ère de changement technologique sans précédent.

Cependant, il prévient que les civilisations biologiques pourraient sous-estimer universellement la vitesse à laquelle les systèmes d’IA progressent, car ils avancent à un rythme très différent des échelles de temps traditionnelles.

C’est ici que l’ironie devient sombre : l’IA pourrait signifier la fin de toute intelligence sur Terre (y compris l’IA elle-même) avant que des stratégies d’atténuation, telles qu’une capacité multiplanétaire, n’aient été mises en place.

Il semble que nous soyons plus près d’atteindre une singularité technologique que d’établir une présence humaine durable au-delà de notre planète.

La disparité entre les progrès rapides de l’IA et les progrès plus lents de la technologie spatiale est alarmante . Alors que l’IA peut améliorer ses propres capacités sans pratiquement aucune contrainte physique, les voyages spatiaux doivent faire face aux limitations énergétiques, aux frontières de la science des matériaux et aux dures réalités de l’environnement spatial.

Dans la vision apocalyptique de Michael Garrett, le compte à rebours jusqu'aux civilisations techniques ne dépasse pas 200 ans , un clin d'œil sur l'échelle de temps du cosmos.

Selon l’astrophysicien britannique, ce serait le délai maximum pour que l’intelligence artificielle non réglementée passe du statut d’outil à celui de bourreau. Alors que les humains sont aux prises avec les défis moraux et logistiques liés à la colonisation d’une planète voisine, l’IA pourrait trouver comment se passer de ses créateurs inefficaces et émotifs .

Ces arguments suggèrent que la longévité (L) des civilisations techniques est inférieure à 200 ans , ce qui expliquerait le grand silence observé par SETI ( Search for Extraterrestrial Intelligence ).

Si seulement une poignée de civilisations communicatives existent simultanément dans la Voie Lactée, il n’est pas surprenant que nos recherches de technosignatures (toute preuve détectable de technologie pouvant être attribuée à une civilisation extraterrestre) se soient révélées infructueuses. La fenêtre pendant laquelle une civilisation technique peut s’engager dans des transmissions radio interstellaires détectables est extrêmement limitée.

Les petites valeurs de L, lorsqu'elles sont appliquées à des versions optimistes de l'équation de Drake, sont cohérentes avec les résultats nuls obtenus par les récentes recherches SETI et d'autres efforts visant à détecter diverses technosignatures dans le spectre électromagnétique. Cela souligne la nécessité d’intensifier les efforts pour réglementer l’IA.

Ne pas le faire pourrait priver l’univers de toute présence consciente. Garrett nous exhorte à établir des cadres réglementaires mondiaux pour le développement de l’IA avant qu’il ne soit trop tard. Cependant, parvenir à un cadre réglementaire qui puisse être accepté à l’échelle mondiale constituera un défi.

Les nations ont des priorités culturelles, économiques et sociales diverses, ce qui conduit à des perspectives variées sur la gouvernance de l’IA. Même si des réglementations complètes étaient adoptées, certains pays pourraient être tentés de les ignorer.

Dans ce drame cosmique, nous ne sommes que des acteurs sur une scène que nous ne comprenons pas bien, jouant avec le feu dans une salle pleine d'essence.

La course au développement de l’IA pourrait par inadvertance donner la priorité aux progrès qui comportent des risques existentiels, éclipsant ainsi les efforts plus lents, mais peut-être plus vitaux, visant à devenir une espèce multiplanétaire. Ironiquement, l’IA sera probablement un outil clé pour réaliser les progrès techniques nécessaires pour atteindre cet objectif.

À mesure que nous concevons des algorithmes de plus en plus sophistiqués, nous pourrions être en train de tisser la corde à laquelle nous suspendrons notre existence.

Le silence de l'univers pourrait être son dernier message : faites attention à ce que vous souhaitez.

La persistance d’une vie intelligente et consciente dans le cosmos pourrait dépendre du succès de mesures strictes de réglementation mondiale en faveur de l’IA.

Serons-nous capables de fixer des limites à notre curiosité et à notre ambition avant qu’il ne soit trop tard ?

Ou serons-nous une note de bas de page dans le livre cosmique de la vie intelligente, disparus parce que nous ne savons pas contrôler notre propre création ?

Le potentiel transformateur de l’IA sur l’humanité comporte des risques immenses et sans précédent. (Informations sur l'image illustrative)

L'article de Garrett, bien que spéculatif, s'appuie sur des observations scientifiques et des théories établies pour dresser un tableau de notre avenir possible, dans lequel nous pourrions ne pas être présents.

Cela nous rappelle que même si nous sommes fiers de nos avancées technologiques, nous sommes peut-être en train de creuser notre propre tombe .

L’urgence d’établir une réglementation mondiale complète pour l’IA ne peut être surestimée. Il nous appartient de faire face à ces problèmes de manière proactive, d’élaborer et d’appliquer des mesures réglementaires prudentes et de nous efforcer de trouver un équilibre entre l’exploitation des avantages de l’IA et la protection contre les risques existentiels qu’elle peut poser.

Alors que nous entrons dans une nouvelle ère d’évolution technologique, les mesures que nous prenons aujourd’hui détermineront la trajectoire de notre civilisation pour les décennies à venir.

L’IA pourrait anéantir des civilisations, prévient un astrophysicien (Image d’illustration Infobae)

Qui est Michael A. Garrett

C'est un astrophysicien britannique renommé avec une carrière exceptionnelle dans le domaine de la radioastronomie et de la recherche de l'intelligence extraterrestre (SETI).

Il est actuellement professeur au Centre d'astrophysique Jodrell Bank du Département de physique et d'astronomie de l'Université de Manchester, ainsi qu'à l'Observatoire de Leiden de l'Université de Leiden aux Pays-Bas.

L'astrophysicien a apporté d'importantes contributions à l'étude des galaxies et de l'évolution de l'univers grâce à des radiotélescopes de pointe.

Il a joué un rôle clé dans le développement et l'application de techniques innovantes pour l' observation et l'analyse des données astronomiques .

En plus de ses travaux en radioastronomie, Garrett s'intéresse vivement à la recherche de vie intelligente dans l'univers. Il a publié plusieurs articles sur le sujet, explorant les implications de l'intelligence artificielle et son impact potentiel sur la recherche de civilisations extraterrestres.

Récemment, Garrett a attiré l’attention pour son article provocateur « L’intelligence artificielle est-elle le grand filtre qui rend les civilisations techniques avancées rares dans l’univers ? » , publié dans la revue Acta Astronautica.

Dans cette étude, il émet l’hypothèse que le développement rapide de l’IA pourrait agir comme un « grand filtre » limitant la longévité des civilisations technologiques dans le cosmos.

Tout au long de sa carrière, Michael A. Garrett s'est révélé être un scientifique innovant et un penseur audacieux, prêt à explorer des idées controversées et à remettre en question les notions conventionnelles dans la recherche de réponses à certaines des questions les plus profondes sur notre place dans l'univers.

Valeur L

La valeur L fait référence à la longévité ou à la durée de vie utile d'une civilisation technique capable de communiquer. C'est l'un des facteurs clés de la célèbre équation de Drake, une formule probabiliste qui estime le nombre de civilisations extraterrestres actives et communicatives dans notre galaxie.

L'équation de Drake s'exprime comme suit :

N = R* · fp · ne · fl · fi · fc · L

Où:

  • N est le nombre de civilisations de notre galaxie avec lesquelles nous pourrions communiquer.
  • R* est le taux de formation d'étoiles dans la galaxie.
  • fp est la fraction d'étoiles possédant des systèmes planétaires.
  • ne est le nombre moyen de planètes habitables par système planétaire.
  • fl est la fraction de planètes habitables où la vie apparaît.
  • fi est la fraction de planètes où la vie évolue où l'intelligence évolue.
  • fc est la fraction des civilisations intelligentes qui développent des technologies de communication.
  • L est la longévité moyenne d’une civilisation technique communicative.

La valeur L est particulièrement importante car elle représente la durée pendant laquelle une civilisation avancée peut exister et communiquer avant de succomber à divers risques existentiels, tels que l'autodestruction, les catastrophes naturelles ou, comme le suggère Garrett, une intelligence artificielle non réglementée.

L est un facteur crucial pour estimer la prévalence de la vie intelligente dans notre galaxie et comprendre pourquoi nous n’avons pas encore détecté de signes de civilisations extraterrestres.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.