
Une étude récente publiée par l'Université Cornell (États-Unis) qui teste la capacité de différents programmes d'intelligence artificielle à réussir le soi-disant « Test de Turing » , une évaluation dans laquelle un ordinateur et sa capacité à imiter le comportement d'un humain .
Grâce à un chat virtuel, les 652 personnes qui ont participé à l'étude ont dû réaliser jusqu'à 1 810 évaluations et déterminer si les réponses à une série de questions étaient générées par un humain ou par une intelligence artificielle qui tentait de l'imiter.
Les chercheurs, Cameron Jones et Benjamin Bergen, ont utilisé une sélection de jusqu'à 25 grands modèles de langage (LLM) différents comprenant les différentes versions de ChatGPT , y compris GPT-4 , ainsi que d'autres programmes, qui ont été soumis à cette évaluation et ont donné ce qui donne une proximité maximale de 41 % avec un comportement similaire à une personne réelle.
L'évaluation, qui consistait en des humains interagissant avec un chat pendant une durée maximale de 5 minutes et avec des messages d'une longueur maximale de 300 caractères , a indiqué qu'une intelligence artificielle classique, comme celle appelée ELIZA , ne passe le test que 27 % du temps, alors que des modèles comme GPT-3.5 (créés par OpenAI ) dépassent à peine les 14 % .

Cependant, le résultat le plus proche du comportement humain est GPT-4 , également créé par OpenAI , avec un taux de réussite de 41 %. Cela signifie que parmi toutes les évaluations auxquelles l’ intelligence artificielle a été soumise, elle a été capable de « tromper » un humain dans 41 tentatives sur 100 .
Bien que le test de Turing indique que l’objectif « idéal » est qu’une intelligence artificielle réussisse l’évaluation au moins 50 % (voire 70 %) du temps, et que GPT-4 n’a pas encore atteint ce chiffre (bien que ce soit très proche du minimum), le taux de réussite reflète la différence de capacités entre GPT (logiciel gratuit) et GPT-4 (logiciel payant).
Bien qu'à l'heure actuelle il n'existe aucun modèle d'intelligence artificielle capable de surpasser GPT-4, on sait qu'il existe déjà des tentatives pour créer des logiciels améliorés, il est donc très probable que cette hypothétique nouvelle IA pourrait approcher 50 % de succès en imitation. du comportement humain.
L’intelligence artificielle peut devenir incontrôlable
Dans un article récent sur son blog GatesNotes , Bill Gates, co-fondateur de Microsoft , a soutenu que, même s'il est possible que l'intelligence artificielle (IA) considère les humains comme une menace, la probabilité que cela se produise n'est pas imminente.

La théorie proposée par Gates suit la ligne de Sam Altman , actuel PDG d' OpenAI , qui a indiqué que les systèmes d'IA créés par son entreprise n'exécutent aucune action sans ordres humains préalables. Pour sa part , Gates a mis en garde contre le danger potentiel de l'utilisation de l'intelligence artificielle dans le domaine militaire et a suggéré qu'une mesure positive à cet égard serait une réglementation rigoureuse de ses applications.
En plus de partager ses inquiétudes concernant l'utilisation militaire de l'intelligence artificielle , Gates s'est également montré optimiste pour l'avenir, estimant que les limites actuelles de ce type de technologie seront dépassées plus tôt qu'on ne l'imaginait, de sorte qu'en général, l'intelligence artificielle peut difficilement être surmontée. contrôle représente une menace pour l’humanité et son développement.
Malgré le risque existant, Gates insiste sur le fait que le développement réalisé est positif et que ces premiers pas de l'humanité dans la création d' intelligences artificielles ne sont que le début d'une ère dans laquelle ces consciences numériques pourront montrer de quoi elles sont capables. « Quoi qu’ils aient maintenant, ils disparaîtront avant que nous nous en rendions compte », a-t-il déclaré.