
L'intelligence artificielle (IA) est un ensemble d' algorithmes qui a parmi ses avantages la possibilité de traiter les données rapidement et avec précision. En complément de l'intervention des êtres humains , c'est un outil idéal pour prendre des décisions de manière agile et avec un large éventail d' informations sur la table.
L'un des modèles d'IA les plus utilisés est GPT, qui est lié à l'utilisation d'un « transformateur génératif pré-formé » , générant des informations et des communications basées sur des textes. Cet outil est souvent utilisé dans la programmation de chatbot, que ce soit pour le service client ou pour la production de données qui émulent les actions des êtres humains.
Cependant, la portée et les risques de cette technologie sont encore en cours d'analyse par des experts, car il s'agit d'une avancée relativement nouvelle. En ce sens, récemment, une étude scientifique menée par des chercheurs des États-Unis, d'Inde, d'Allemagne et d'Israël a suggéré que le modèle GPT-3 « peut influencer les opinions des gens à une échelle inconnue ».
Selon ces préceptes, les auteurs de l'ouvrage ont postulé que "les grands modèles de langage tels que GPT-3 font de plus en plus partie de la communication humaine". Ils produisent un langage de type humain en prédisant de manière itérative les mots suivants probables en fonction de la séquence des mots précédents. Les interactions avec cette technologie peuvent influencer non seulement le comportement mais aussi les opinions, car lorsqu'elles produisent certaines opinions plus fréquemment que d'autres, elles peuvent persuader leurs utilisateurs ».

« Les applications de cet outil, telles que l'assistant d'écriture, la prise en charge de la grammaire et la traduction automatique, injectent la sortie des modèles dans ce que les gens écrivent et lisent. Les architectures de l'information, telles que l'ordre des options présentées, affectent le comportement des gens", ont-ils approfondi dans l'étude, qui a été publiée dans les archives numériques de l' Association for Computing Machinery ( ACM, pour son sigle en anglais). .
Les auteurs viennent de l'Université Cornell aux États-Unis, de l'Université de Bayreuth en Allemagne, de l'Université de Tel Aviv en Israël et de l'Institut indien de technologie de Bombay, en Inde.
"L'utilisation de grands modèles de langage dans notre communication quotidienne peut changer la façon dont nous formons des opinions et nous influençons les uns les autres. Dans les formes conventionnelles de persuasion, un persuasif élabore un message convaincant et le transmet aux destinataires, soit en face à face, soit par l'intermédiaire de la technologie contemporaine. Avec l'émergence de grands modèles qui produisent un langage de type humain (comme GPT-3), les interactions avec la technologie peuvent influencer les opinions et les comportements », ont ajouté les scientifiques.

Mor Naaman, l'un des auteurs de cet article, a inventé le terme « persuasion latente » pour désigner l'influence de l'IA sur l'opinion des gens. « La personne peut même ne pas savoir qu'elle est influencée. Dans le processus de co-écriture, je n'ai pas l'impression d'être persuadé ; J'ai l'impression de faire quelque chose de très naturel et organique : j'exprime mes propres pensées avec de l'aide", a-t-il averti dans un communiqué.
Et il a ajouté : « Nous nous précipitons pour mettre en œuvre ces modèles d'IA dans tous les domaines de la vie, mais nous devons mieux comprendre leurs implications. Outre l'augmentation de l'efficacité et de la créativité, il pourrait y avoir d'autres conséquences pour les individus et aussi pour notre société : des changements de langage et d'opinions ».
Pour parvenir à ces conclusions, Naaman et ses collègues ont demandé à 1 506 participants d'écrire une réflexion sur les bénéfices des réseaux sociaux pour les personnes, en utilisant l'outil GTP-3 comme aide à la rédaction.
"L'utilisation de GTP-3 a affecté les opinions exprimées dans l'écriture des participants et a changé leurs opinions dans une enquête ultérieure qui a été examinée par un jury indépendant", ont-ils révélé. Selon les chercheurs, l'algorithme d'IA pourrait avoir des biais qui biaisent les opinions lors de la capture des textes. "Les commentaires intégrés dans les technologies de langage d'IA devraient être surveillés et conçus avec plus d'attention", ont-ils suggéré.

Maurice Jakesch, un autre des auteurs de cette recherche, a souligné : "Plus ces technologies deviennent puissantes et plus elles s'enracinent profondément dans le tissu social de nos sociétés, plus nous devons être prudents quant à la manière dont nous gouvernons les valeurs , les priorités et les opinions qui y sont incorporées ».
L'IA peut-elle lire dans les pensées ?
Il y a quelques semaines, une expérience menée par des spécialistes de l'université du Texas, aux États-Unis, cherchait à répondre à une inconnue latente dans le domaine : savoir si l'outil GPT peut lire la pensée des gens et la traduire en mots.
À l'aide d'un programme basé sur l'Intelligence Artificielle (IA) et en particulier le GPT-1, un ordinateur a réussi à décoder et à décrire l'essentiel des histoires sous forme audio que les participants à l'étude ont entendues, simplement en regardant leurs résonances magnétiques fonctionnelles. De plus, selon ces résultats publiés dans la revue scientifique Nature Neuroscience , ce décodeur -appelé "sémantique"- était capable de verbaliser ce que les gens pensaient et observaient.
Les experts ont utilisé le programme GPT-1. Ce modèle de langage, développé par le laboratoire d'intelligence artificielle OpenAI, utilise l'apprentissage en profondeur pour générer du texte. En esta investigación, lo entrenaron con las imágenes fMRI del cerebro de tres personas a las que hicieron oÃr 16 horas de audios de un podcast del New York Times y del programa The Moth Radio Hour , logrando hacer corresponder lo que veÃan con su representación dans la tête. L'idée est que, lorsqu'ils entendent à nouveau un autre texte, le système peut l'anticiper en se basant sur les schémas de ce qui a déjà été appris.

« Nous avons été un peu surpris que cela fonctionne aussi bien. Je travaille là-dessus depuis 15 ans, donc c'était choquant et excitant quand cela a finalement fonctionné », a expliqué Huth, le neuroscientifique qui a dirigé les travaux à l'Université du Texas à Austin.
"Il s'agit du GPT d'origine, pas du nouveau [ChatGPT est pris en charge par la dernière version de GPT, version 4]. Nous avons collecté une tonne de données, puis construit ce modèle, qui prédit les réponses du cerveau aux histoires », a-t-il ajouté.
Le décodeur pourrait reconstruire la parole avec une précision étonnante tandis que les gens écoutaient une histoire, ou même en imaginaient une en silence, en utilisant uniquement des données d'analyse IRMf. Les systèmes de décodage du langage antérieurs nécessitaient des implants chirurgicaux pour placer un réseau d'électrodes directement dans le cerveau.
Mais cette dernière percée soulève la possibilité de nouvelles façons de restaurer la parole chez les patients qui ont du mal à communiquer en raison d'un accident vasculaire cérébral ou d'une maladie des motoneurones.
Continuer à lire: