Programmeur.chprogrammeur.ch
  • Intelligence artificielle

Xbox ajoute l'intelligence artificielle pour contrôler les mauvaises pratiques dans les jeux vidéo

Publié le 08.11.2023
Le troisième rapport de transparence de Xbox montre l'évolution de son approche visant à créer des expériences de jeu plus sûres grâce à l'intelligence artificielle. (XBox)

Xbox a intensifié ses efforts en matière de modération en utilisant des systèmes automatisés et des outils d'intelligence artificielle pour améliorer le processus d'identification et d'examen des contenus inappropriés.

En effet, lors du dernier rapport de transparence de la marque de jeux vidéo créée et détenue par Microsoft , il a été souligné à quel point la modération communautaire devient de plus en plus complexe à mesure que la plateforme atteint des millions d'utilisateurs quotidiens.

Cependant, le rapport qui couvre le premier semestre 2023 révèle également que 87 % des actions de modération ont été activées automatiquement, grâce à ces technologies innovantes qui permettent de signaler automatiquement le contenu pour son examen par des modérateurs humains , sans que les joueurs aient besoin de signaler des informations spécifiques. problèmes.

La société fondée par Bill Gates derrière Xbox reconnaît l'importance de maintenir un environnement de jeu sûr et amusant pour les utilisateurs, tout en partageant son engagement à se tenir au courant des changements dans l'industrie qui peuvent affecter négativement l'expérience du joueur.

Nouveaux outils

03/01/2021 Ressource de jeu sur Xbox RECHERCHE ET TECHNOLOGIE POLITIQUE MICROSOFT

Deux outils clés mentionnés dans le rapport font partie de cette initiative qui utilise l'IA comme alliée dans la lutte contre les contenus inappropriés sur Xbox.

Le premier est Community Sift , une fonctionnalité de modération développée par TwoHat, filiale de Microsoft, qui a traité plus de 36 millions de signalements de joueurs en 22 langues, lui permettant d'évaluer lesquels nécessitent l'attention d'un modérateur humain.

Mais malgré la mise en place de ce système de filtrage, le nombre d' actions coercitives « réactives » (celles en réponse aux signalements des joueurs) n'a pas augmenté de manière significative. Bien qu'il y ait eu une diminution du nombre total de rapports de joueurs, peut-être en raison d'une augmentation des actions « proactives » mises en œuvre par Microsoft avant que les joueurs ne signalent un problème.

Pour renforcer ces actions proactives, Microsoft utilise le modèle d'intelligence artificielle Turing Bletchley v3 , qui scanne automatiquement toutes les images générées par les utilisateurs sur la plateforme Xbox.

Ce système analyse les images et les compare aux normes communautaires de l'entreprise, transmettant tout contenu suspect à une file d'attente pour modération humaine. Résultat : 4,7 millions d'images ont été bloquées au premier semestre, soit une augmentation de 39 % par rapport aux six mois précédents.

Campagne contre les comptes « non authentiques »

Xbox a lancé la fonctionnalité Voice Report, offrant aux joueurs la possibilité de capturer et de signaler des discussions vocales inappropriées dans le jeu. (XBox)

Xbox fait également front ouvert contre les comptes « non authentiques » , qui incluent les tricheurs, les spammeurs et les profils qui nuisent à l'expérience de jeu. Microsoft a supprimé 16,3 millions de ces comptes au premier semestre 2023, soit une augmentation de 276 % par rapport à la même période de l'année dernière.

La plupart de ces comptes sont supprimés avant que les joueurs n'aient la possibilité de les signaler, renforçant ainsi la sécurité et la qualité de la plateforme Xbox.

Le rapport révèle également que l'élargissement de la définition de « contenu vulgaire » a conduit à une augmentation des mesures coercitives contre ce type de contenu. Malgré cela, la lutte contre ce contenu continue d'être dépassée par d'autres violations, telles que les grossièretés, le harcèlement, les contenus à caractère sexuel pour adultes et le spam.

En ce qui concerne les réexamens de cas d'interdiction ou de suspension, seuls 4,1 % environ sur plus de 280 000 cas ont été rétablis au cours des six premiers mois de 2023. Cela représente une légère diminution par rapport à l'année précédente.

Le rapport de transparence souligne l'importance d'actions proactives en matière de modération du contenu. Au cours des six premiers mois de 2023, 17,09 millions d'actions ont été menées de manière proactive, ce qui représente 87 % du total des actions réalisées au cours de cette période.

De plus, plus de 4,7 millions de contenus toxiques ont été bloqués avant d’atteindre les joueurs, soit une augmentation de 39 % par rapport à la période précédente.

L'entreprise a également mis en œuvre des mesures proactives contre le harcèlement et l'intimidation, avec une augmentation de 95 pour cent des actions entreprises dans ce domaine, pour un total de 84 000 actions . Et un nouveau développement notable dans ce domaine est l’introduction de la fonction de signalement vocal, qui permet aux joueurs de capturer et de signaler le harcèlement vocal dans le jeu.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.