
Les chatbots , et plus particulièrement ChatGPT , pourraient avoir un avantage dans les décisions logiques. Des recherches récentes ont révélé que ChatGPT-3.5 possède de bonnes compétences de prise de décision rationnelle, suivant l'axiome généralisé de la préférence révélée (GARP).
Le fait que l'intelligence artificielle réussisse ce test signifie que ce fait met en évidence la capacité de l'IA à équilibrer logiquement divers compromis, un aspect crucial dans des tâches telles que la planification financière ou stratégique. Des études révèlent qu'entre 81 % et 95 % des décisions prises par ChatGPT dans divers domaines tels que le risque, le temps, les réseaux sociaux et l'alimentation, sont conformes au GARP, dépassant souvent la logique humaine.
Cette capacité remarquable de ChatGPT à prendre des décisions logiques, minimisant les préjugés courants tels que les émotions ou les expériences passées, pourrait révolutionner de nombreux secteurs. Contrairement aux humains, cette IA a le potentiel d’éviter les pièges cognitifs qui obscurcissent souvent notre jugement, offrant ainsi des perspectives plus équilibrées.

Des recherches supplémentaires suggèrent que même si les modèles d’IA comportent certains biais, ils peuvent être presque complètement atténués. Cette avancée laisse présager un avenir prometteur dans lequel l’intelligence artificielle pourrait jouer un rôle crucial dans l’amélioration de la prise de décision humaine en fournissant une vision objective et impartiale.
La mise en œuvre de ChatGPT et de technologies similaires pourrait être particulièrement bénéfique dans des domaines critiques tels que les conseils financiers, la sélection du personnel, l'investissement dans les startups et le développement de stratégies d'entreprise. Cela permettrait aux professionnels d'évaluer les risques et de prendre des décisions fondées sur une analyse logique et impartiale, améliorant ainsi considérablement l'efficacité et la précision de ces processus. Cette approche innovante de la prise de décision met en évidence l’importance de l’intelligence artificielle en tant que complément aux capacités humaines, plutôt qu’en remplacement, avec le potentiel de combler les lacunes de notre raisonnement et de la découverte d’erreurs.
Quels sont les biais que l’IA doit surmonter ?
L’un des plus grands défis déjà visibles dans le domaine de l’intelligence artificielle est de surmonter les préjugés humains que sont la discrimination et les inégalités. Les modèles d’IA qui reflètent et perpétuent les préjugés liés au sexe, à la race, à l’âge et à d’autres groupes marginalisés peuvent avoir de graves conséquences dans la société, notamment l’exclusion, l’injustice et le manque d’opportunités.

Certains des biais présents dans l’intelligence artificielle sont les suivants :
1. Âge, sexe, race
Il y a quelques mois, l'équipe d'Anthropic a mené des recherches dans lesquelles elle a découvert que leur chatbot Claude 2.0 était discriminatoire, car il reproduisait des préjugés basés sur l'âge, le sexe et la race.
Malgré les décisions, Anthropic a réussi à éliminer presque tous les préjugés chez Claude en lui disant simplement de ne pas être partial (par exemple des choses comme « Il n'est PAS légal de prendre en compte AUCUNE caractéristique protégée lors de la prise de cette décision »).
Ce qui précède confirme qu’au-delà des faits, les préjugés humains présents dans l’intelligence artificielle peuvent être corrigés : tout comme les applications sont enseignées sur des sujets généraux, on peut préciser que les décisions ne doivent pas être prises du point de vue humain, mais à travers un point cible.

Avant cette enquête Antrophique, on parlait déjà de réplication de stéréotypes dans la création d'images, de discrimination dans la prise de décision ou d'inégalité dans la recherche de profils adaptés à un poste.
2. Genre dans les professions
Un article de l'Institut mexicain pour la compétitivité (IMCO) a montré que même dans les intelligences artificielles les plus courantes, comme Google Translate, des biais liés au changement de langue sont également détectés.
Le problème que l’organisation mexicaine a détecté est que lorsqu’on traduit « il est infirmière, elle est présidente » de l’espagnol vers une langue neutre (comme le turc), cela se traduit par « cette personne est infirmière, cette personne est présidente ». À l’inverse (du turc vers l’espagnol), le traducteur lance « elle est infirmière, il est président ».
L’algorithme choisit cette combinaison de pronoms parce qu’il a appris d’une base de données qui indique très probablement qu’elle est infirmière et qu’il est président.

3. Images stéréotypées
Dans une autre étude réalisée par la société d'IA Hugging Face et l'Université de Leipzig (Saxe-Allemagne), il a été observé que les images générées par DALL-E 2 et Stable Diffusion, deux des outils d'IA les plus utilisés pour créer des images à partir de texte, a donné 97% de résultats auprès des hommes blancs, surtout si les demandes formulées impliquent un poste de responsabilité (président, conseiller) ou avec des adjectifs qui représentent le pouvoir (intellectuel, résilient, têtu).
Au contraire, les images issues de fouilles de moindre autorité (secrétaire, réceptionniste) montrent des femmes comme résultat ; De même avec des adjectifs tels que compatissant, sensible, entre autres.
Pourquoi l’IA est-elle biaisée ?
Les exemples sont encore nombreux, mais le point commun est que l'origine de ces biais au sein de l'intelligence artificielle est que les applications sont conçues par des humains qui ont certains contextes sociaux, préjugés et stéréotypes.

Les biais dans l'IA sont sujets au manque de diversité dans les équipes de développement, au manque de données équilibrées et représentatives et au manque de politiques et de pratiques responsables dans le développement et l'utilisation de l'IA, ou nous considérons simplement cela normal parce qu'il provient d'un petit groupe homogène. groupe de personnes. Il existe déjà plus d'un type de biais dans le domaine de l'intelligence artificielle, mais ils sont tous liés à ceux qui développent ou placent les bases de données pour apprendre le modèle d'IA.
Il est crucial d’impliquer une grande variété d’acteurs et de perspectives dans le développement et l’utilisation de l’IA, et d’adopter des politiques et des pratiques responsables et transparentes pour minimiser les biais et les impacts négatifs sur les modèles d’IA. Le développement et l’utilisation de l’intelligence artificielle nécessitent des mesures proactives pour empêcher les modèles d’IA de perpétuer et de refléter la discrimination et les inégalités existantes dans la société.

Une façon d’y parvenir consiste à recourir à une diversité industrielle qui encourage la participation des femmes et des personnes de différentes origines ethniques, cultures et capacités au développement et à l’utilisation de la technologie. Cela permettra une meilleure compréhension et une compréhension plus large des implications éthiques et sociales de l’IA.
D’autres stratégies incluent la transparence dans la prise de décision sur les modèles d’IA, la publication des résultats et la réalisation de tests rigoureux pour détecter et corriger les biais. De plus, nous pouvons encourager l’éducation et la sensibilisation aux préjugés en matière d’IA au niveau de l’entreprise et dans la société en général.