
La semaine dernière, près d'un an plus tard, le réseau social a annoncé la création d'un nouveau centre d'excellence en matière de confiance et de sécurité à Austin , au Texas . L'équipe de 100 personnes de modérateurs de contenu vantée par un représentant de X dans un reportage de Bloomberg est nettement plus petite que l'équipe de 500 personnes initialement envisagée, selon un ancien membre du personnel de confiance et de sécurité. Et on ne sait pas encore si la plateforme a embauché plus d’une douzaine de personnes jusqu’à présent.
Pourtant, à l'heure où les législateurs américains intensifient la pression sur les sociétés de médias sociaux parce qu'elles mettent les enfants en danger, le centre de sécurité de X à Austin a une vision claire des relations publiques. Le nouveau centre « fera appel à davantage d’agents internes pour accélérer notre impact », a déclaré la PDG Linda Yaccarino lors d’une audition au Sénat mercredi.
Alors que certains critiques ont pris note du timing opportuniste de l'annonce, les détails du plan Austin de X soulèvent une question plus large concernant la plateforme appartenant à Musk :
L'approche non conventionnelle du magnat en matière de modération de contenu pourrait-elle surmonter le triste bilan de sécurité en ligne de l'industrie des médias sociaux, ou représente-t-elle simplement un autre moyen de réduire les coûts pour une organisation peu intéressée à décider quel contenu est-il approprié pour vos utilisateurs ?
Selon plusieurs experts en modération de contenu et avec lesquels Xers Fortune , actuel ou ancien, s'est entretenu, une équipe de spécialistes internes pourrait offrir des avantages significatifs par rapport aux normes actuelles de l'industrie. Mais beaucoup ont également souligné l’importance d’une politique sous-jacente cohérente et d’investissements dans les outils et la technologie.
"X+100 est mieux que X, en termes de capacité de modération", a expliqué une source proche de X. « Le nombre d’humains devant les ordinateurs importe moins, à certains égards, que l’existence de politiques claires basées sur des stratégies éprouvées de réduction des risques et sur les outils et systèmes nécessaires pour mettre en œuvre ces politiques à grande échelle ; "Les deux choses ont été démantelées depuis fin 2022", a-t-il ajouté.
X n'a pas répondu aux demandes d'interview ou de commentaire pour cette histoire.

Pourquoi X a décidé d'intégrer la police du contenu dans son entreprise
L'avalanche de contenus problématiques sur X est devenue un sujet fréquent de débat public (et de différends) depuis la clôture de l'acquisition de Musk pour 44 milliards de dollars en novembre 2022.
Après que le Center for Countering Digital Hate ait publié un rapport affirmant que X n’avait pas réussi à modérer les « discours de haine extrême », Musk a poursuivi le groupe pour avoir causé un préjudice calculé avec des « allégations sans fondement ».
Pendant ce temps, des vidéos montrant des abus explicites envers des animaux auraient été largement diffusées sur la plateforme. Et pas plus tard que la semaine dernière, du contenu explicite généré par l'IA mettant en vedette Taylor Swift a circulé sans contrôle pendant 17 heures jusqu'à ce que la plateforme ferme la possibilité de rechercher son nom.
X s'appuie également fortement sur sa fonctionnalité Community Notes, qui permet aux utilisateurs approuvés d'ajouter une note aux publications avec un contexte supplémentaire, pour modérer ses millions d'utilisateurs actifs, a déclaré l'ancien membre du personnel de confiance et de sécurité.
Mais l’intéressé a souligné qu’il s’agit simplement d’« un outil » qui doit être utilisé à des fins de modération. De plus, une enquête de Wired a révélé des efforts coordonnés au sein de la fonction pour diffuser de la désinformation, soulignant un manque de surveillance significative de la part de l'entreprise.
Selon certaines estimations, Musk a supprimé 80 % des ingénieurs dédiés à la confiance et à la sécurité et réduit les rangs des modérateurs de contenu externalisés dont le travail consiste à surveiller et à supprimer les contenus qui enfreignent les politiques de l'entreprise.
En juillet, Yaccarino a annoncé au personnel que trois dirigeants superviseraient divers aspects de la confiance et de la sécurité, tels que les opérations d'application de la loi et la perturbation des menaces, a rapporté Reuters . Cependant, selon une autre source de
Cependant, au sein de l'entreprise de médias sociaux de Musk , il y a également eu un effort pour repenser la façon dont le travail est effectué.

Changement de plans : bienvenue à Austin
Le nouveau hub d’Austin a en fait commencé comme un hub de la Bay Area . L'intention était d'établir le centre dans une ville comme San Francisco , ce qui aiderait à recruter des talents multilingues de premier plan, ce qui est crucial pour lutter contre les trolls sur Internet, puisque plus de 80 % de la base d'utilisateurs de X ne vit pas aux États-Unis . a déclaré à Fortune une source familière avec les problèmes de confiance et de sécurité.
Compte tenu des nuances de chaque langue et des idiomes et expressions uniques de chacune, l'idée était qu'une personne familière avec une langue ou une culture spécifique pourrait, par exemple, mieux distinguer une blague d'une menace qu'un travailleur contractuel généraliste mal payé et sans compétences. .spécialisé.
"En fait, ils ont commencé par embaucher des gens dans la Bay Area pour tester leur niveau de qualité et déterminer si cela fonctionnerait mieux que l'externalisation", a déclaré l'ancien employé. « [X] a embauché une petite équipe de personnes et a testé leur capacité à prendre des décisions précises », a-t-il ajouté. Le plan prévoyait de commencer avec 75 employés et de l'étendre éventuellement à une équipe de 500 personnes si cela fonctionnait.
Cependant, Musk , à l'époque, penchait vers un emplacement plus rentable, privilégiant Austin , car il était confiant dans sa capacité à attirer et potentiellement à relocaliser des personnes compétentes dans plusieurs langues. Le changement a ajouté quelques « rides » au projet.
"Devoir embaucher des centaines de personnes, les mettre en route et les former et tout cela prend environ deux ou trois mois", a expliqué l'ancien membre du personnel de X. "Ensuite, vous commencez la formation et, en réalité, cela prend trois, quatre ou cinq mois. avant de former une équipe. Cela suppose que le marché du travail soit fantastique, non ? Et vous n'avez pas besoin de déplacer les gens et toutes ces choses amusantes », a-t-il ajouté.
Selon LinkedIn , une douzaine de recrues ont rejoint
On ne sait pas exactement s'il s'agit de services d'Accenture dans le passé.

Le problème de l’application de règles en constante évolution
Il y a beaucoup de questions sur ce sur quoi exactement l’équipe d’Austin va se concentrer. Vont-ils se concentrer sur des contenus impliquant uniquement des mineurs ou uniquement aux États-Unis ? Vont-ils se concentrer sur des publications individuelles ou mener des enquêtes sur l’exploitation sexuelle ?
"Une centaine de personnes à Austin constitueraient un petit nœud dans ce qui doit être un réseau mondial de modération de contenu", a déclaré Anne Collier , ancienne membre du Conseil de confiance et de sécurité de Twitter , à Fortune . "100 personnes à Austin, je vous souhaite bonne chance", a-t-il ajouté.
Quelle que soit sa mission, les experts en modération des réseaux sociaux s’accordent sur le fait que l’entreprise devra investir massivement dans les outils d’intelligence artificielle pour rendre l’équipe plus efficace.
Facebook , par exemple, employait environ 15 000 modérateurs dans le monde en 2020 lorsqu'il a annoncé qu'il « mariait l'IA et les évaluateurs humains pour faire moins d'erreurs totales », rapportait à l'époque le Verge . Snap fonctionne de la même manière et a déclaré dans un article de blog qu'il utilise « une combinaison d'outils automatisés et d'examen humain pour la modération ».
Selon l'ancien initié de X , la société a expérimenté la modération de l'IA . Et la dernière avancée de Musk dans la technologie de l'IA via X.AI , une startup vieille d'un an qui a développé son propre grand modèle de langage, pourrait fournir une ressource précieuse pour l'équipe de modérateurs humains.
Un système d'intelligence artificielle « peut vous dire en trois secondes environ pour chacun de ces tweets s'ils sont politiques ou non et, d'ailleurs, ils ont des niveaux de précision d'environ 98 %, alors qu'avec les modérateurs humains, ils ne le savent pas. ", a commenté la source. « L'entreprise a un niveau de précision supérieur à 65 % », a-t-il expliqué.
"Vous voulez voir en même temps et en parallèle ce qui peut être fait avec l'IA par rapport aux seuls humains, donc je pense que vous verrez quel est le bon équilibre", a conclu l'initié.
Mais quelle que soit la qualité des outils d’IA et des modérateurs, les performances sont aussi bonnes que la politique qui les anime, et c’est un domaine dans lequel X a eu du mal sous Musk.
Les politiques doivent être suffisamment flexibles pour s'adapter aux contextes culturels, mais elles doivent également être suffisamment prévisibles pour que chacun comprenne quelles sont les règles, a expliqué la source familière avec la confiance et la sécurité dans X.
Ceci est particulièrement important lors de la modération de contenu sur une grande plateforme « où des centaines, voire des milliers de modérateurs doivent comprendre et interpréter un ensemble stable de règles. « Vous ne pouvez pas mettre en œuvre des règles de manière cohérente et précise si elles changent constamment », a déclaré la personne.
L'assouplissement des règles et le manque de clarté qui en résulte ont été une constante chez X sous Musk .
Après l'acquisition de Musk, il a rétabli un certain nombre de comptes qui avaient été interdits pour violation des politiques de la plateforme : la représentante Marjorie Taylor Greene a violé les politiques de désinformation sur le COVID-19, Babylon Bee a publié une histoire transphobe qui a violé la politique de conduite de Twitter Hate Network, Andrew Tate (banni de Facebook , Instagram et TikTok) a été interdit pour avoir déclaré que les femmes devraient assumer « une certaine responsabilité » en cas d’agression sexuelle. Toutes ces personnes ont été réintégrées sous la nouvelle direction.
Certains médias ont émis l'hypothèse qu'il y avait un lien entre le départ d' Ella Irwin , la dernière responsable de la confiance et de la sécurité pendant le mandat de Musk , et les critiques du magnat de la décision de l'équipe de retirer le transphobe.
"Qu'est-ce qu'une femme ?" de Matt Walsh, est un documentaire qui a violé les règles de X. Malgré la violation de la politique écrite du réseau social, Musk a insisté pour que le documentaire soit valable.
« Il n’est plus évident pour moi que X modère selon sa politique. Les règles du site mises en ligne apparaissent comme un écran de fumée prétexte pour masquer que son propriétaire décide finalement des choses comme bon lui semble », a ajouté la source proche de la modération de X.
Julie Inman Grant, ancienne membre du conseil de confiance et de sécurité de Twitter qui poursuit désormais l'entreprise pour manque de transparence concernant le CSAM , est plus directe dans son évaluation : "Vous ne pouvez pas simplement remettre le doigt dans la digue." pour arrêter un tsunami d’enfants, une exposition sexuelle ou une avalanche de pornographie deepfake qui prolifère sur la plateforme », a-t-il déclaré.
"D'après mon expérience sur Twitter de 2014 à 2016, il m'a fallu littéralement des années pour développer cette expérience, et il en faudra bien plus que cela pour apporter des changements significatifs sur une plateforme devenue si toxique qu'elle en est presque méconnaissable", a-t-il conclu.
(C) 2024, Fortune