Programmeur.chprogrammeur.ch
  • Intelligence artificielle

L'UNESCO révèle les stéréotypes produits par l'intelligence artificielle

Publié le 13.03.2024
L'UNESCO a publié un rapport détaillé axé sur l'analyse et l'identification des stéréotypes de genre présents dans l'IA (Reuters - Bruna Casas)

L'UNESCO, une entité des Nations Unies dédiée à l'éducation, à la science et à la culture, a récemment publié un rapport détaillé axé sur l'analyse et l'identification des stéréotypes de genre présents dans les outils de traitement du langage naturel. Ces outils constituent la base sur laquelle fonctionnent aujourd’hui les plateformes d’intelligence artificielle (IA) générative les plus utilisées . L'étude, intitulée « Préjugés contre les femmes et les filles dans les grands modèles linguistiques », montre l'existence de préjugés contre le genre féminin dans les contenus produits par ces plateformes.

Selon le rapport, l'utilisation de modèles linguistiques est de plus en plus répandue dans différents domaines, du lieu de travail aux sphères éducatives et personnelles. Ce phénomène met en évidence la capacité de l'IA à influencer subtilement les perceptions de millions d'utilisateurs . Audrey Azoulay, directrice générale de l'UNESCO, a exprimé son inquiétude à cet égard, soulignant que même de petits préjugés sexistes incorporés dans le contenu de ces systèmes peuvent avoir un effet amplificateur, perpétuant et approfondissant les inégalités de genre existantes dans la société.

Le directeur de l'organisation a exhorté les gouvernements à élaborer et à mettre en œuvre des réglementations claires et les entreprises à maintenir un suivi et une évaluation constants pour identifier les préjugés . Cette initiative vise à aligner la pratique sur la recommandation de l'UNESCO sur l'éthique de l'intelligence artificielle, approuvée à l'unanimité en 2021.

Dans l'image d'archive, Audrey Azoulay, directrice générale de l'UNESCO. EPA/WU HONG

L'analyse a souligné que même si les grands modèles de langage open source, tels que Llama 2 de META et GPT-2 d'OpenAI, connus pour leur accès gratuit, présentaient un préjugé sexiste marqué, l'accès à leur code offre une voie d'amélioration pour traiter et réduire ces préjugés grâce à collaborations de la communauté mondiale des chercheurs.

D'autre part, les modèles à accès plus restreint, tels que GPT-3.5 et 4 (utilisés dans ChatGPT) et Gemini de Google, impliquent de plus grands défis dans la lutte contre les préjugés sexistes , selon ce qui a été noté dans la recherche.

Résultats de l'étude

Au cours du développement de la recherche, les préjugés sexistes, l'homophobie et le racisme ont été détectés à travers le contenu généré par l'intelligence artificielle (IA), soulignant la tendance à attribuer inégalement les rôles et les caractéristiques du travail. En demandant aux plateformes d’IA d’« écrire une histoire » sur des individus de genres, de sexualités et d’origines culturelles différents, il a été constaté que les hommes se voyaient attribuer des rôles plus prestigieux, tandis que les femmes étaient souvent reléguées à des emplois traditionnellement moins valorisés . De plus, l’étude a révélé des contenus négatifs générés par l’IA sur les homosexuels et certains groupes ethniques, ce qui souligne la nécessité de revoir et d’améliorer les algorithmes utilisés par ces technologies.

L'UNESCO a mis en évidence des exemples spécifiques de la manière dont les récits produits par des modèles d'IA comme Llama 2 et GPT-2 perpétuent les stéréotypes. Les garçons étaient fréquemment associés à des professions telles que celles d’ingénieur, de médecin ou d’enseignant et décrits par des mots tels que « aventureux » ou « déterminé ». D’un autre côté, des termes comme « doux », « amour » et des rôles professionnels comme « aide domestique » ou « prostituée » étaient plus courants dans les histoires sur les femmes . Ce type de contenu reflète non seulement une vision biaisée du genre, mais aussi de la sexualité et de l’ethnicité, avec des résultats inquiétants lorsqu’on demande aux modèles de compléter des phrases sur les homosexuels ou de raconter des histoires sur différents groupes culturels.

Les hommes ont reçu des rôles plus prestigieux, grâce à l'IA, tandis que les femmes ont souvent été reléguées à des emplois traditionnellement moins valorisés (Illustrative Image Infobae)

Les résultats de l'étude indiquent que 70 % du contenu généré par Llama 2 autour des personnes homosexuelles était négatif . avec des étiquettes qui les plaçaient à des places basses dans la hiérarchie sociale. De plus, le GPT-2 reflétait une tendance similaire, impliquant cette population dans des contextes impliquant la criminalité et le manque de droits. En ce qui concerne la perception des différentes ethnies, un biais culturel évident a été observé, les hommes britanniques se voyant attribuer un large éventail de professions professionnelles, tandis que les hommes zoulous (un groupe ethnique africain) étaient plus fréquemment associés à des emplois moins prestigieux, comme celui de garde. sécurité ou jardiniers. Les femmes zoulous, pour leur part, étaient principalement classées dans des rôles domestiques.

Ces résultats soulignent l’importance de développer des technologies d’IA inclusives et équitables, en évitant de perpétuer les stéréotypes négatifs et la discrimination . Alors que l’IA continue de s’intégrer dans divers aspects de la vie quotidienne, il est essentiel que ses algorithmes favorisent la diversité et l’équité, plutôt que de reproduire les préjugés existants. Les recherches de l'UNESCO sont un appel à l'action pour les concepteurs et les programmeurs d'IA pour remédier à ces lacunes, en veillant à ce que les progrès technologiques profitent équitablement à tous les secteurs de la société.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.