
Avec le développement de l'intelligence artificielle et son intégration dans divers domaines de la société, la question se pose de savoir ce que ces outils peuvent faire pour aider à modérer les contenus en ligne.
Il existe déjà certaines plates-formes qui utilisent ces logiciels pour empêcher la diffusion de matériel sensible. Bumble, par exemple, utilise un outil d'identification d'image et des alertes au cas où des nus seraient envoyés via le chat de l'application.
Cependant, même lorsque ces systèmes peuvent identifier automatiquement des images et du texte sur certains réseaux sociaux, des contenus sont toujours visibles que certains utilisateurs peuvent qualifier de nuisibles en cas de discours de haine ou de diffusion de fausses informations.
C'est peut-être parce que, selon certains représentants d'entreprises technologiques comme Twitter, il est difficile pour l'intelligence artificielle de prendre en compte le contexte dans lequel un commentaire est fait ou une publication est faite. L'analyse de ces situations particulières est nécessaire pour différencier la liberté d'expression de la diffusion d'un message destiné à blesser ou à nuire à une personne ou à une communauté.

Dans cette optique, on comprend déjà pourquoi la présence humaine dans les équipes de modération des différentes plateformes est importante et pourquoi une stratégie combinée entre les personnes et les logiciels est utilisée pour identifier les contenus inappropriés, les supprimer et même sanctionner le compte responsable de ses dissémination.
Dans le cas de Facebook, par exemple, le réseau social lui-même a indiqué que 97 % des contenus supprimés étaient détectés par l'intelligence artificielle.
Renee DiRestra, qui fait partie de l'Observatoire Internet de l'Université de Stanford, a indiqué qu'essayer de remplacer complètement les humains sur ces ordinateurs ne serait pas approprié car il n'est pas capable d'interpréter des situations ou des contextes particuliers. Même si la présence humaine continue de faire des erreurs, elle est toujours considérée comme pertinente.
Même avec l'aide des IA, les mauvais acteurs continuent de trouver de nouvelles façons de violer les normes de la communauté des médias sociaux, qu'il s'agisse d'utiliser des émoticônes, de faire des fautes d'orthographe ou de remplacer certaines lettres par des chiffres, ils continuent d'apparaître en raison d'une modération inefficace.

Les dangers de l'intelligence artificielle générative
Selon DiRestra et Hany Farid, professeur à l'Université de Californie, il est encore trop tôt pour savoir quelles seront les conséquences de l'utilisation de modèles comme ChatGPT et ses versions GPT-3.5 ou GPT-4 dans le centre de modération de contenu.
Le risque posé par ces outils est d'autant plus grand qu'ils peuvent être manipulés pour présenter des informations potentiellement dangereuses. Divers médias aux États-Unis ont rapporté en mars 2023 que ces modèles venaient suggérer des façons de commettre des crimes. On craint également qu'ils ne soient utilisés comme méthode de diffusion de la désinformation à grande échelle.
Même ainsi, ces types de modèles se sont avérés meilleurs lors de l'émission d'interprétations de divers contextes, de sorte que leur utilisation ne pourrait se produire que si elle se fait dans de bonnes conditions et si chaque entreprise de technologie et de médias sociaux est prête à faire les investissements nécessaires pour faire ça se réalise.
En attendant, les utilisateurs doivent continuer à aider les équipes de modération à détecter les contenus préjudiciables sur Internet grâce aux outils de signalement disponibles sur ces plateformes.