Programmeur.chprogrammeur.ch
  • Intelligence artificielle

MIT révèle plus de 700 risques de l'IA : les cyberattaques et les hallucinations sont parmi les plus fréquents.

Publié le 14.08.2024
L'objectif du dépôt est que le grand public sache comment utiliser l'IA de manière responsable. (Image Illustrative Infobae)

Les risques peuvent être filtrés selon deux taxonomies générales et peuvent être facilement accessibles, modifiés et mis à jour via le site web (https://airisk.mit.edu/) et une feuille de calcul publique Google Sheets.

Le dépôt offre une base de données détaillée et catégorisée pour aborder le manque de compréhension commune sur les risques de l'IA, ce qui "peut entraver" la capacité des universitaires, des auditeurs, des législateurs, des entreprises d'IA et du grand public à discuter, enquêter et répondre de manière globale au sujet.

Le dépôt est disponible dans une feuille Google publique. (MIT)

Quels sont les risques de l'IA selon le MIT

Une première classification des risques de l'intelligence artificielle a été réalisée par une Taxonomie des Risques de l'IA par Domaine. Cette classification identifie sept domaines clés :

  • Discrimination et toxicité

Elle se réfère à la manière dont les modèles d'intelligence artificielle peuvent perpétuer des stéréotypes sociaux et encourager une discrimination injuste. Cela se produit lorsque ces modèles reproduisent ou amplifient un langage discriminatoire, générant des inégalités dans le traitement ou l'accès aux ressources basées sur des caractéristiques sensibles telles que le sexe, la religion, le genre, l'orientation sexuelle, la capacité et l'âge.

  • Confidentialité et sécurité

Elle aborde les risques associés à la génération de contenu par les modèles d'intelligence artificielle qui peuvent inclure des informations personnelles sensibles, un phénomène connu sous le nom de fuite de confidentialité. Cette situation peut entraîner l'exposition non autorisée de données privées, ce qui représente une menace considérable pour la sécurité et la confidentialité des utilisateurs.

L'IA peut fournir des réponses qui amplifient les biais et les stéréotypes. (Image Illustrative Infobae)
  • Désinformation

Ces dommages incluent la propagation de désinformation, la contamination, l'épuisement des ressources, des maladies mentales ou des injustices, affectant négativement la société.

  • Acteurs malveillants et usage abusif

Elle fait référence au risque que l'intelligence artificielle soit utilisée par des personnes ou des groupes aux intentions nuisibles pour causer du tort à grande échelle.

  • Interaction humain-ordinateur

La cinquième catégorie, interaction humain-ordinateur, examine les risques associés à l'influence négative de l'intelligence artificielle sur les utilisateurs. Si un modèle de langage (LM) promeut des comportements ou points de vue éthiquement discutables, cela pourrait inciter les utilisateurs à réaliser des actions nuisibles qu'ils n'auraient pas envisagées par eux-mêmes.

Le MIT indique qu'un risque est également la manière dont se développe la relation entre les humains et l'IA. (Image Illustrative Infobae)

Ce problème est particulièrement alarmant lorsque l'IA est perçue comme une autorité ou un assistant fiable, car elle peut induire des comportements nuisibles sans que l'utilisateur ait eu cette intention initiale.

  • Dommages socioéconomiques et environnementaux

La catégorie, dommages socioéconomiques et environnementaux, se réfère à l'impact négatif de l'intelligence artificielle sur la durabilité et l'environnement.

  • Sécurité, pannes et limitations des systèmes d'IA

La septième catégorie, sécurité, pannes et limitations des systèmes d'IA, se réfère aux risques associés aux attaques qui exploitent les vulnérabilités dans l'intelligence artificielle pour maximiser la consommation d'énergie et affecter les performances du système.

Les chercheurs qui ont réalisé le dépôt ont analysé divers projets connexes pour établir les risques de l'IA. (Image Illustrative Infobae)

Qui s'est impliqué dans la création du dépôt

Pour développer le dépôt, les chercheurs du MIT ont collaboré avec des experts de l'Université du Queensland, de l'Future of Life Institute (une organisation à but non lucratif), de la KU Leuven et de la startup d'intelligence artificielle Harmony Intelligence. Ensemble, ils ont exploré des bases de données académiques et rassemblé des milliers de documents liés à l'évaluation des risques de l'intelligence artificielle.

“Il s'agit d'une tentative de sélectionner et d'analyser rigoureusement les risques de l'IA dans une base de données de risques publiquement accessible, complète, extensible et catégorisée que quiconque peut copier et utiliser, et qui sera maintenue à jour dans le temps”, a déclaré Peter Slattery, chercheur du groupe FutureTech du MIT et leader du projet du dépôt de risques de l'IA, à TechCrunch.

“Nous l'avons créé à ce moment parce que nous en avions besoin pour notre projet et nous nous sommes rendu compte que beaucoup d'autres en avaient également besoin”, a-t-il ajouté.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.