Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Alerte GPT-4 : plus d'un millier de PDG et d'universitaires demandent l'arrêt de tous les tests d'intelligence artificielle pendant six mois

Publié le 29.03.2023
Le fondateur de Tesla, Elon Musk (NTB/Carina Johansen via REUTERS)

Un groupe composé d'universitaires, d'experts en intelligence artificielle (IA) et de cadres comme Elon Musk appelle à une pause de six mois sur le développement de systèmes plus puissants, qui a récemment publié le GPT-4 d'OpenAI , dans une lettre ouverte citant des risques potentiels à la société et à l'humanité .

Plus tôt ce mois-ci, OpenAI, soutenu par Microsoft, a dévoilé la quatrième version de son programme d'IA GPT (Generative Pre-trained Transformer), qui a séduit les utilisateurs avec sa large gamme d'applications, allant de l'engagement des utilisateurs dans des conversations similaires à celles que les humains peuvent avoir, même composer des chansons et résumer de longs documents.

La lettre , émise par l' Institut à but non lucratif Future of Life et signée par plus de 1 000 personnes, dont Musk, appelant à une pause sur le développement avancé de l'IA jusqu'à ce que des experts indépendants développent, mettent en œuvre et auditent des protocoles de sécurité partagés pour de telles conceptions. "De puissants systèmes d'intelligence artificielle ne devraient être développés qu'une fois que nous sommes sûrs que leurs effets seront positifs et que leurs risques seront gérables", indique la lettre.

La lettre détaille les risques potentiels pour la société et la civilisation du mouvement des systèmes d'IA compétitifs vers les humains sous la forme de perturbations économiques et politiques, et appelle les développeurs à travailler avec les législateurs sur la gouvernance et les autorités de réglementation. Et les cosignataires comprenaient Emad Mostaque, PDG de Stability AI, des chercheurs de DeepMind, propriété d'Alphabet, et des poids lourds de l'IA Yoshua Bengio, souvent désigné comme l'un des "parrains de l'IA", et Stuart Eussel, un pionnier de la recherche sur le terrain.

L'Islande formerait GPT-4 pour empêcher sa langue locale de disparaître face à l'avancée numérique. (Freepik)

Préoccupation de l'Union européenne

Les inquiétudes surgissent alors que la force de police de l'UE , Europol, a rejoint lundi un chœur de préoccupations éthiques et juridiques concernant l'IA avancée comme ChatGPT , mettant en garde contre l'utilisation abusive potentielle du système dans les tentatives de phishing, la désinformation et la cybercriminalité. Pendant ce temps , le gouvernement britannique a dévoilé des propositions pour un cadre réglementaire "adaptatif" autour de l'intelligence artificielle.

L'approche du gouvernement, décrite dans un document politique publié mercredi, diviserait la responsabilité de la gouvernance de l'intelligence artificielle (IA) entre ses régulateurs des droits de l'homme, de la santé et de la sécurité et de la concurrence, plutôt que de créer un nouvel organisme dédié à la technologie. .

Autant qu'Elon Musk, dont le constructeur automobile Tesla utilise l'IA pour un système de pilotage automatique, a exprimé des inquiétudes concernant le développement de l'IA.

Une réponse de ChatGPT, un bot d'intelligence artificielle qui a développé OpenAI (REUTERS/Florence Lo/Illustration/File)

L'affaire TPG

Depuis sa sortie l'année dernière, ChatGPT d'OpenAI a conduit ses rivaux à accélérer le développement de grands modèles de langage similaires et les entreprises à intégrer des modèles d'IA générative dans leurs produits . La semaine dernière, OpenAI a annoncé qu'elle s'était associée à une douzaine d'entreprises pour intégrer leurs services dans son chatbot, permettant aux utilisateurs de ChatGPT de commander des courses via Instacart ou de réserver des vols via Expedia .

Sam Altman, directeur général d'OpenAI, n'a pas signé la lettre , a déclaré à Reuters un porte-parole de Future of Life.

"La lettre n'est pas parfaite, mais l'esprit est bon : nous devons ralentir jusqu'à ce que nous comprenions mieux les ramifications", a déclaré Gary Marcus, professeur à l'Université de New York qui a signé la lettre. "Les grands acteurs deviennent de plus en plus secrets sur ce qu'ils font, ce qui rend plus difficile pour la société de se défendre contre tout mal qui pourrait se matérialiser."

Bien que les critiques aient accusé les signataires de la lettre de promouvoir le « battage médiatique sur l'IA » , ils ont fait valoir que les affirmations sur le potentiel actuel de la technologie avaient été grossièrement exagérées.

"Ce genre de déclarations est destiné à générer de l'enthousiasme. Ils sont destinés à inquiéter les gens », Johanna Björklund, chercheuse en IA et professeure associée à l'Université d'Umeå. "Je ne pense pas qu'il soit nécessaire de tirer le frein de stationnement." Au lieu d'arrêter l'enquête, a-t-il déclaré, les chercheurs en IA devraient être soumis à des exigences de transparence accrues. "Si vous faites de la recherche sur l'IA, vous devez être très transparent sur la façon dont vous le faites."

La lettre complète :

Les systèmes d'intelligence artificielle (IA) dotés d'une intelligence humaine compétitive peuvent poser de graves risques pour la société et l'humanité, comme le montrent des recherches approfondies et reconnus par les principaux laboratoires d'IA. Comme indiqué dans les principes d'Asilomar AI largement approuvés, l'IA avancée pourrait représenter un changement profond dans l'histoire de la vie sur Terre, qui doit être planifié et géré avec soin et ressources. Malheureusement, ce niveau de planification et de gestion ne se produit pas, malgré le fait que ces derniers mois, les laboratoires d'IA sont entrés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que quiconque, pas même leurs créateurs, ne peut comprendre de manière fiable. , prédire ou contrôler.

Les systèmes d'IA contemporains deviennent désormais compétitifs avec les humains dans les tâches générales et nous devons nous demander : devrions-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les travaux, y compris ceux que nous aimons ? Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? De telles décisions ne doivent pas être déléguées à des leaders technologiques non élus. Des systèmes d'IA puissants ne devraient être développés qu'une fois que nous sommes sûrs que leurs effets seront positifs et que leurs risques sont gérables. Cette confiance doit être bien justifiée et augmenter avec l'ampleur des effets potentiels d'un système. La récente déclaration de la société OpenAI concernant l'intelligence artificielle en général, stipule que : « À un moment donné, il peut être important d'obtenir un examen indépendant avant de commencer à former de futurs systèmes, et pour des efforts plus avancés de s'entendre pour limiter le taux de croissance. de l'informatique utilisée pour créer de nouveaux modèles. Nous sommes d'accord. Ce point est maintenant.

Par conséquent, nous appelons tous les laboratoires d'IA à suspendre immédiatement pendant au moins 6 mois la formation des systèmes d'IA les plus puissants comme GPT-4. Cette pause doit être publique et vérifiable, et inclure toutes les parties prenantes clés. Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire.

Les laboratoires d'IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d'IA qui sont rigoureusement audités et surveillés par des experts tiers indépendants. Ces protocoles doivent garantir que les systèmes qui y adhèrent sont sécurisés au-delà de tout doute raisonnable. Cela ne signifie pas une pause dans le développement de l'IA en général, juste un pas en arrière par rapport à la course périlleuse vers des modèles de boîtes noires imprévisibles toujours plus grands avec des capacités émergentes.

La recherche et le développement de l'IA doivent être recentrés pour rendre les puissants systèmes de nouvelle génération d'aujourd'hui plus précis, sécurisés, interprétables, transparents, robustes, alignés, fiables et loyaux.

En parallèle, les développeurs d'IA doivent travailler avec les décideurs politiques pour accélérer considérablement le développement de systèmes de gouvernance de l'IA robustes. Celles-ci devraient inclure au minimum : de nouvelles autorités de réglementation compétentes dédiées à l'IA ; surveillance et surveillance de systèmes d'IA à haute capacité et de grands ensembles de puissance de calcul ; des systèmes de provenance et des filigranes pour aider à distinguer les fuites réelles des fuites synthétiques et les modèles de trace ; un solide écosystème d'audit et de certification ; responsabilité pour les dommages causés par l'IA ; un financement public solide pour la recherche technique sur la sécurité de l'IA ; et des institutions bien équipées pour faire face aux perturbations économiques et politiques dramatiques (en particulier dans la démocratie) que l'IA entraînera.

L'humanité peut profiter d'un avenir florissant avec l'IA. Après avoir réussi à créer de puissants systèmes d'IA, nous pouvons maintenant profiter d'un « été de l'IA » où nous récoltons les fruits, concevons ces systèmes pour le bénéfice de tous et donnons à la société une chance de s'adapter. La société s'est arrêtée sur d'autres technologies avec des effets potentiellement catastrophiques sur la société. Nous pouvons le faire ici. Profitons d'un long été d'IA, ne nous précipitons pas pour tomber sans préparation.

(Avec des informations de Reuters)

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.