Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Polémique sur la lettre qui demande d'arrêter l'avancée de l'Intelligence Artificielle pendant six mois : le rôle d'Elon Musk

Publié le 31.03.2023
Image de stock. Le fondateur de Tesla, Elon Musk (REUTERS)

La lettre, datée du 22 mars et avec plus de 1 800 signatures en date de vendredi , appelait à une pause de six mois sur le développement de systèmes "plus puissants" que le nouveau GPT-4 d'OpenAI, soutenu par Microsoft, qui peuvent tenir des conversations de type humain. , composer des chansons et résumer de longs documents.

Depuis la sortie de ChatGPT, le prédécesseur de GPT-4, l'année dernière, les entreprises concurrentes se sont précipitées pour sortir des produits similaires.

PHOTO DE FICHIER : Un texte généré par ChatGPT (Reuters)

La lettre ouverte affirme que les systèmes d'IA dotés d'une « intelligence humaine compétitive » posent de graves risques pour l'humanité, citant 12 enquêtes menées par des experts, y compris des universitaires et des employés actuels et anciens d'OpenAI, de Google et de sa filiale DeepMind.

Des groupes de la société civile des États-Unis et de l'UE ont depuis fait pression sur les parlementaires pour mettre fin à l'enquête OpenAI . OpenAI n'a pas immédiatement répondu aux demandes de commentaires de l'agence de presse Reuters .

Les critiques ont accusé le Future of Life Institute (FLI), l'organisation à l'origine de la lettre et qui est principalement financée par la Musk Foundation , de donner la priorité aux scénarios apocalyptiques imaginés par rapport aux préoccupations plus immédiates concernant l'IA, telles que les préjugés racistes ou sexistes qui sont programmés dans les machines.

Parmi les recherches citées figure "Sur les dangers des perroquets stochastiques", un article populaire co-écrit par Margaret Mitchell, qui supervisait auparavant la recherche sur l'éthique de l'IA chez Google.

L'Islande formerait GPT-4 pour empêcher sa langue locale de disparaître face à l'avancée numérique. (Freepik)

Mitchell, maintenant responsable de l'éthique scientifique de la société d'intelligence artificielle Hugging Face, a critiqué la lettre, déclarant à Reuters qu'il n'était pas clair ce qui était considéré comme "plus puissant que GPT4". "En prenant pour acquises de nombreuses idées douteuses, la lettre affirme un ensemble de priorités et un récit sur l'IA qui profite aux partisans du FLI ", a-t-il déclaré. "Ignorer les dégâts actifs en ce moment est un privilège que certains d'entre nous n'ont pas"

Ses co-auteurs Timnit Gebru et Emily M. Bender ont critiqué la lettre sur Twitter, cette dernière qualifiant certaines de ses affirmations de "déséquilibrées".

Le président du FLI, Max Tegmark, a déclaré à Reuters que la campagne n'était pas une tentative d'entraver l'avantage commercial d'OpenAI. « C'est assez drôle. J'ai vu des gens dire: "Elon Musk essaie de ralentir la concurrence" », a-t-il déclaré, ajoutant que Musk n'avait joué aucun rôle dans la rédaction de la lettre. "Ce n'est pas une entreprise."

risques maintenant

Shiri Dori-Hacohen, professeur adjoint à l'Université du Connecticut, a également critiqué la mention de son travail dans la lettre. L'année dernière, Dori-Hacohen a co-écrit une étude affirmant que l'utilisation généralisée de l'intelligence artificielle posait déjà de sérieux risques.

Ses recherches ont fait valoir que l'utilisation actuelle des systèmes d'IA pourrait influencer la prise de décision en ce qui concerne le changement climatique , la guerre nucléaire et d'autres menaces existentielles .

Il a déclaré à Reuters : "L'IA n'a pas besoin d'atteindre une intelligence de niveau humain pour aggraver ces risques." "Il y a des risques non existentiels qui sont très, très importants, mais ils ne reçoivent pas le même taux d'attention au niveau d'Hollywood."

Lorsqu'on lui a demandé de commenter les critiques, Tegmark de FLI a déclaré que les risques à court et à long terme de l'IA devaient être pris au sérieux.

« Si nous citons quelqu'un, cela signifie seulement que nous affirmons qu'il approuve cette phrase. Cela ne signifie pas qu'ils approuvent les paroles, ou que nous approuvons tout ce qu'ils pensent", a-t-il déclaré à Reuters .

Dan Hendrycks, directeur du Center for AI Safety basé en Californie, également cité dans la lettre, a défendu son contenu, déclarant à Reuters qu'il était judicieux de prendre en compte les cas de cygne noir, ceux qui semblent peu probables, mais qui auraient des conséquences dévastatrices.

(Avec des informations de Reuters)

Continuer à lire:

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.