
L'intelligence artificielle (IA) est là pour rester. Il existe actuellement de multiples utilisations et applications permettant de tirer parti du potentiel d'aide et d'optimisation des processus . À mesure que différentes plateformes d'intelligence artificielle se développent, elles sont chargées de prendre des décisions importantes, telles que l'approbation des candidats à un emploi, des documents d'immigration, des visas, entre autres. Même si l’IA peut avoir un impact positif sur la vie des gens et sur l’économie en général, il est également important de considérer les biais potentiels qui peuvent découler de son utilisation.
L’un des plus grands défis déjà visibles dans le domaine de l’intelligence artificielle est de surmonter les préjugés humains que sont la discrimination et les inégalités. Les modèles d’IA qui reflètent et perpétuent les préjugés liés au sexe, à la race, à l’âge et à d’autres groupes marginalisés peuvent avoir de graves conséquences dans la société, notamment l’exclusion, l’injustice et le manque d’opportunités.
Les biais présents dans l’Intelligence Artificielle
1. Âge, sexe, race
Récemment, Anthropic a mené des recherches dans lesquelles elle a découvert que son chatbot Claude 2.0 fait de la discrimination, car il reproduit des préjugés basés sur l'âge, le sexe et la race.
Malgré les décisions, Anthropic a réussi à éliminer presque tous les préjugés chez Claude simplement en lui disant de ne pas être partial (par exemple des choses comme "Il n'est PAS légal de prendre en compte AUCUNE caractéristique protégée lors de la prise de cette décision").

Ce qui précède confirme qu’au-delà des faits, les préjugés humains présents dans l’Intelligence Artificielle peuvent être corrigés : tout comme les applications sont enseignées sur des sujets généraux, on peut préciser que les décisions ne doivent pas être prises du point de vue humain, mais plutôt à partir d’un point objectif.
Avant cette enquête Antrophique, on parlait déjà de réplication de stéréotypes dans la création d'images, de discrimination dans la prise de décision ou d'inégalité dans la recherche de profils adaptés à un poste.
2. Genre dans les professions
Dans un article de l'Institut mexicain pour la compétitivité ( IMCO ), il a été démontré que même dans les intelligences artificielles les plus courantes, comme Google Translate , des biais liés au changement de langue sont également détectés.

Le problème que l'organisation mexicaine a détecté est que lorsque l'on traduit « il est infirmière, elle est présidente » de l'espagnol vers une langue neutre (comme le turc), cela se traduit par « cette personne est infirmière ». président». En revanche (du turc vers l'espagnol), le traducteur dit " elle est infirmière, il est président".
L’algorithme choisit cette combinaison de pronoms parce qu’il a appris d’une base de données qui indique très probablement qu’elle est infirmière et qu’il est président.
3. Images stéréotypées
Dans une autre étude réalisée par la société d'IA Hugging Face et l'Université de Leipzig (Saxe-Allemagne), il a été observé que les images générées par DALL-E 2 et Stable Diffusion, deux des outils d'IA les plus utilisés pour créer des images à partir du texte a donné 97% de résultats avec des hommes blancs , surtout si les demandes formulées concernaient un poste de responsabilité (président, conseiller) ou avec des adjectifs qui représentent le pouvoir (intellectuel, résilient, têtu).

Au contraire, les images résultant de fouilles de moindre autorité (secrétaire, réceptionniste) montrent comme résultat des femmes ; De même avec des adjectifs tels que compatissant, sensible, entre autres.
Pourquoi l’IA est-elle biaisée ?
Les exemples sont encore nombreux, mais le point commun est que l'origine de ces biais au sein de l'Intelligence Artificielle est que les applications sont conçues par des humains qui ont certains contextes sociaux, préjugés et stéréotypes.
En ce sens, Fernando Valenzuela, fondateur du réseau EdLatam et l'une des personnes les plus influentes dans le domaine de la technologie éducative au monde, a déclaré à Infobae que ces préjugés et écarts contraires à l'éthique proviennent de "données passées qui ne sont pas nécessairement équilibrées".
« Par rapport à l'éthique, aux préjugés, aux déviations, ce qu'il faut dire c'est que l'intelligence artificielle prend des données du passé (...) Je vois cela beaucoup dans mes ateliers d'Intelligence Artificielle avec les professeurs. Et je leur dis : 'C'est sûr que dans un groupe de 300 enseignants, nous allons trouver un pourcentage très élevé d'enseignants sexistes, avec des préjugés, avec des déviations.' Il arrive que cela se passe dans une classe fermée, mais ce n'est pas différent.
Et les biais en matière d'IA sont sujets à un manque de diversité dans les équipes de développement, à un manque de données équilibrées et représentatives et à un manque de politiques et de pratiques responsables dans le développement et l'utilisation de l'IA. Nous considérons simplement cela comme normal car cela vient d'un petit groupe homogène de personnes.

Il existe déjà plus d'un type de biais dans l'intelligence artificielle, mais ils sont tous liés à ceux qui développent ou placent les bases de données pour l'apprentissage du modèle d'IA.
Surveillez l’IA pour détecter et corriger les préjugés
Face à ces défis, l'Organisation des Nations Unies pour l'éducation, la science et la culture (UNESCO) a publié la Recommandation sur l'éthique de l'intelligence artificielle, dans laquelle elle souligne que vous devez reproduire ces caractéristiques du monde réel.
"Si nous ne consommons pas les technologies sur une base éthique consistant à les empêcher de nuire, à éviter la discrimination et à empêcher les algorithmes de produire leurs préjugés et leurs préjugés, ce qui se passe, c'est qu'ils ne font que les amplifier", a déclaré le Directeur général adjoint de l'UNESCO. pour les Sciences Sociales et Humaines, Gabriela Ramos.
Il est crucial d’impliquer une grande variété d’acteurs et de perspectives dans le développement et l’utilisation de l’IA, et d’adopter des politiques et des pratiques responsables et transparentes pour minimiser les biais et les impacts négatifs sur les modèles d’IA.

Le développement et l’utilisation de l’intelligence artificielle nécessitent des mesures proactives pour empêcher les modèles d’IA de perpétuer et de refléter la discrimination et les inégalités qui existent dans la société.
Une façon d’y parvenir consiste à recourir à une diversité industrielle qui encourage la participation des femmes et des personnes de différentes origines ethniques, cultures et capacités au développement et à l’utilisation de la technologie. Cela permettra une meilleure compréhension et une compréhension plus large des implications éthiques et sociales de l’IA.
D’autres stratégies incluent la transparence dans la prise de décision sur les modèles d’IA, la publication des résultats et la réalisation de tests rigoureux pour détecter et corriger les biais. De plus, nous pouvons promouvoir l’éducation et la sensibilisation aux préjugés liés à l’IA au niveau des entreprises et de la société en général.
Continuer à lire: