
Une étude menée par des chercheurs de l'Université du Kansas aux États-Unis, a réussi à générer un algorithme qui permet de détecter avec plus de 99% d'efficacité les textes qui ont été rédigés avec une intelligence artificielle générative telle que ChatGPT et de les différencier de ceux qui ont été écrits par les humains.
Le document, qui a été publié par la revue scientifique Cell Reports , indique qu'un modèle a été formé avec 64 articles scientifiques écrits par des humains, en plus de 128 autres documents similaires générés avec l'intelligence artificielle sur la base de ce qui a été appris en traitant les originaux.
"Chaque jeu de test avait 30 articles créés par des humains et 60 dérivés de ChatGPT ", indique l'étude, qui assure également que plus de 1 210 paragraphes ont été inclus entre les deux types de textes et le résultat a été qu'environ 60% d'entre eux ont été générés à l'aide l'IA.
Après quelques évaluations, il est conclu que l'algorithme créé peut détecter quels articles ont été écrits par ChatGPT 100 % du temps, mais sa précision est réduite entre 92 % et 94 % lorsque ceux-ci sont analysés paragraphe par paragraphe. Dans l'ensemble, les chercheurs ont attribué une précision de 99,5 % au modèle entraîné.

Lors de l'élaboration de l' enquête , il a été indiqué qu'il existe quatre critères de base pour déterminer si un texte a été généré par une intelligence artificielle (pas nécessairement ChatGPT ) ou s'il a été écrit par un humain :
- La longueur des paragraphes.
- Diversité dans la longueur d'une peine.
- Différences de ponctuation.
- Les "mots populaires" au sein d'un groupe social donné
Les écrivains humains, par exemple, ne mesurent pas la longueur d'un paragraphe , il est donc courant de voir que certains peuvent être plus longs que d'autres. De la même manière, les phrases et les signes de ponctuation sont utilisés de manière beaucoup plus organique grâce au fait que le vocabulaire est plus étendu.
Dans le cas des soi-disant "mots populaires", ceux-ci peuvent faire référence à des expressions ou connecteurs courants tels que "bien que", "mais" ou "cependant".
En revanche, un échec courant dans le cas des intelligences artificielles génératives et notamment dans le cas de ChatGPT , c'est que les outils d'IA n'améliorent toujours pas leur capacité à citer les sources d'information qu'ils utilisent pour créer leurs textes , donc dans ce cas particulier, il est évident qu'un document est généré avec cette technologie .

Même si les résultats étaient positifs pour les enquêteurs dans un premier temps, le document d'étude final indique que "des études de suivi sont nécessaires pour déterminer l'étendue de l'applicabilité de cette approche". Selon le document, il serait possible d'appliquer ce modèle à d'autres domaines que les articles scientifiques .
Avec l'avancée de l'intelligence artificielle et surtout des modèles génératifs comme ChatGPT , des études ont déjà commencé sur l'impact que cette technologie pourrait avoir en milieu de travail. OpenAI a mené sa propre étude dans laquelle elle a déterminé quels emplois risquaient d'être remplacés par un système similaire.
Le document « Les GPT sont des GPT : Un regard préliminaire sur l'impact potentiel des grands modèles linguistiques sur le marché du travail », indique que ceux qui ont besoin d'une activité physique sont les moins exposés à ce danger.
La société a indiqué que l'impact général des modèles de langage qui incluent l'intelligence artificielle aura un impact sur toutes les industries , bien que dans des mesures différentes. Cependant, il a déclaré que les tâches impliquant le traitement des données et de l'information sont fortement exposées au remplacement causé par cette technologie .