Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Quels sont les effets catastrophiques que l'IA peut provoquer, selon les scientifiques

Publié le 13.04.2023
5 500 experts du monde entier ont publié une lettre ouverte préconisant pendant un certain temps de suspendre les expériences avec l'IA la plus puissante et la plus avancée

Des scientifiques de nombreux centres de recherche et universités de divers pays ont mis en garde, dans un article publié aujourd'hui dans la revue Science , contre les risques élevés de l'Intelligence Artificielle (IA) et des conséquences catastrophiques que peuvent entraîner les défaillances de cette technologie.

Les chercheurs ont souligné que les systèmes d'IA ont déjà été mis à l'épreuve dans un large éventail d'applications, du diagnostic médical à la navigation automobile autonome, mais ont averti qu'il s'agissait de scénarios "à haut risque" dans lesquels les marges d'erreur sont minces et les conséquences de une panne peut être fatale.

L'entrée dans Science intervient quinze jours seulement après que 5 500 experts du monde entier ont publié une lettre ouverte dans laquelle ils préconisaient de suspendre un moment les expériences avec l'IA la plus puissante et la plus avancée - la soi-disant "générative" et capable de créer des textes. ou des images à partir de données déjà existantes - compte tenu des risques que cela peut entraîner pour la société.

Aujourd'hui, des chercheurs de diverses institutions académiques et scientifiques ont adhéré à Science , dont les universités de Cambridge, Harvard, Stanford, Shandong (Chine), la Valencia Polytechnic, l'Imperial College London, le Massachusetts Institute of Technology (MIT), et plusieurs entreprises, dont Google ou le britannique DeepMind, l'une des plus grandes multinationales du secteur de l'Intelligence Artificielle.

Les scientifiques qui se sont abonnés aujourd'hui à la revue ont souligné la nécessité que toutes les publications sur ce sujet incluent en détail toutes les données indispensables à la compréhension et au traitement des erreurs intermédiaires pouvant conduire à d'éventuels échecs, et que toutes ces données à la disposition de la communauté scientifique que d'empêcher que les mêmes erreurs se reproduisent.

Ils ont décrit, par exemple, un scénario hypothétique dans lequel un algorithme de reconnaissance faciale atteint le taux de précision « impressionnant » de 90 % pour distinguer les visages masculins des visages féminins ; cependant, un examen attentif pourrait révéler qu'il classe mal les visages des femmes à la peau foncée dans 35 % des cas ; et que ce taux d'erreur ne se produit que chez 0,8% des hommes à la peau claire.

Par conséquent, ils ont exigé des rapports beaucoup plus détaillés et une plus grande disponibilité de toutes les données qui ont été utilisées pour les analyses, et ont estimé que de cette manière, la recherche sur l'IA se rapprocherait des protocoles déjà enregistrés dans d'autres disciplines, comme la médecine. ou physique.

Ils sont capables de créer des œuvres d'art et des textes impressionnants, mais ils présentent également de nouveaux risques pour la société : la création de contenus faux, trompeurs ou même dangereux (REUTERS/Dado Ruvic/Illustration/File Photo)

Parmi les signataires de l'article figure l'Espagnol Fernando Martínez-Plumed , scientifique et professeur à l'Institut valencien de recherche en intelligence artificielle (Université polytechnique de Valence), qui a assuré qu'essayer d'arrêter l'IA "est une tâche très difficile, voire impossible". », et a observé que la recherche et le développement impliquent l'industrie, le milieu universitaire ou la société et que chacun a ses intérêts différents « et parfois contraires ».

Mais il est crucial, selon lui, de réduire et d'atténuer les risques et de garantir une utilisation responsable et sûre, et parmi les différentes stratégies à suivre, il a souligné celle des chercheurs et développeurs travaillant ensemble pour créer des technologies "plus sûres, plus éthiques", transparent et équitable » et que les entreprises et les gouvernements établissent des réglementations et des normes.

Dans des déclarations à l'EFE , Martínez-Plumed a précisé que certaines technologies d'IA peuvent présenter plus de risques que d'autres, telles que celles qui impliquent une prise de décision critique ou l'accès à des informations privées , des systèmes de surveillance ou des algorithmes d'embauche ; ou le plus moderne, capable de générer du texte, des images, de l'audio ou de la vidéo.

"Ils sont capables de créer des œuvres d'art et de texte impressionnantes, mais ils présentent également de nouveaux risques pour la société : la création de contenus faux, trompeurs voire dangereux , tels que des fausses nouvelles, des contenus offensants, discriminatoires et illégaux", a déclaré le chercheur.

Mais au final, a-t-il réfléchi, les systèmes d'IA s'entraînent et apprennent à partir d'ensembles de données qui reflètent et amplifient les mêmes préjugés et inégalités qui existent dans la société (machisme, racisme, classisme ou autres).

Et il a cité des exemples éprouvés de systèmes de recrutement formés sur des données de recrutement historiques qui montrent des préjugés sexistes ou raciaux , des méthodes de détection de visage qui ne reconnaissent pas les femmes noires, des algorithmes de recherche avec des stéréotypes négatifs sur les filles noires ; et même des préjugés linguistiques en montrant des préférences pour certains accents ou dialectes.

"Les biais dans les systèmes d'IA ne sont pas intrinsèques à la technologie, mais reflètent plutôt des préjugés dans les données et les décisions humaines utilisées pour former les modèles", a déclaré le chercheur à EFE , soulignant l'importance de les identifier et de les traiter afin d'avancer vers " des systèmes d'IA plus équitables et plus justes, guidés par des valeurs éthiques et sociales, et pas seulement par des considérations techniques ou économiques.

Fernando Martínez-Plumed a conclu que l'intelligence artificielle peut être un outil puissant pour résoudre certains des problèmes les plus urgents de la société, "mais elle ne peut être efficace que si elle est utilisée de manière responsable et réfléchie".

(Avec les informations de l'EFE)

Continuer à lire:

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.