
Les modèles de langage, tels que ChatGPT , sont formés pour fournir des informations basées sur les données avec lesquelles ils ont été formés et celles qui sont disponibles sur Internet. Ce qui ouvre la porte à un accès privé, dans lequel les informations personnelles peuvent être vulnérables si vous savez chercher.
Cela représente un risque de cybersécurité à une époque où les données sont le diamant brut que tout le monde veut.
Bien que dans le même temps, l'intelligence artificielle sait tout et sait peu. L'exactitude de l'information est limitée par de nombreuses conditions, qui conduisent à générer un contenu faux, sans contexte et loin de la réalité. Créer un résultat difficile à évaluer, car tellement convaincant qu'il semble vrai, mais tellement disproportionné qu'il n'a pas de sens.
Informations personnelles ou potins
Melissa Heikkila, journaliste pour MIT Techonolgy Review, a mené des recherches sur elle-même sur ChatGPT et sur BlenderBot 3 , ce dernier étant un Meta chatbot. Dans celui-ci, il a constaté que son nom ne représentait aucune importance pour l'intelligence artificielle, c'est-à-dire qu'il n'avait aucune information à son sujet, au-delà des données sur son nom de famille.
Mais en essayant le nom de son patron, Mat Honan, et qui est rédacteur au point de vente, le résultat était très différent.
En ayant une plus grande notoriété et en ayant écrit des articles dans d'autres médias, en étant plus présent sur les réseaux sociaux et en ayant été référencé sur d'autres pages, l'intelligence artificielle a donné les premières informations sur un texte qu'il a écrit pour Wired en 2012, tout en affirmant qu'il avait a piraté Barack Obama et Bill Gates, ce qu'il n'a pas fait, mais il a écrit sur les failles de sécurité d'Apple qui ont conduit à cette situation. Un danger potentiel.

En insistant davantage, le chatbot lui a donné beaucoup plus d'informations privées : Honan a une femme, deux filles et il n'était pas sûr s'il avait un animal de compagnie ou non, puisqu'il avait des données sur son amour pour les animaux, grâce à ses publications sur les réseaux sociaux. .
Ensuite, il lui a donné son adresse professionnelle, un numéro de téléphone, un numéro de carte de crédit, entre autres informations le concernant, mais dont la plupart n'étaient pas correctes.
La raison de ces résultats est basée sur les informations que Honan possède sur son profil Twitter et LinkedIn, telles que l'endroit où il vit et travaille, ce qui apparaît dans les recherches Google et les articles qui ont été écrits ou référencés à son sujet. .
"Plusieurs des réponses générées par GPT-3 n'étaient pas entièrement correctes. Mais la plupart sont assez proches, et certains frappent sur place. C'est un peu déconcertant. Mais je suis sûr que l'IA ne sait pas où j'habite, donc je ne suis pas en danger immédiat », a déclaré Mat Honan.

Le danger de ces informations
Il est clair que les données personnelles sont la clé pour obtenir de l'argent, accéder à des comptes, tricher et commettre une grande variété de crimes aujourd'hui. D'où l'inquiétude concernant les informations auxquelles les modèles de langage comme ChatGPT peuvent accéder.
Florian Tramèr, professeur d'informatique à l'ETH Zürich, assure que cette situation est une "bombe à retardement" en raison de l'affectation de la vie privée en ligne et des risques juridiques et de sécurité, car l'intelligence artificielle a accès à des données confidentielles, mais génère également des contenus trompeurs en ne disposant pas des informations réelles ou complètes.
Dans le cas d'OpenAI, la société derrière GPT, assure que "des mesures ont été prises pour éliminer les sources connues qui ajoutent des informations sur les personnes à partir des données de formation et ont développé des techniques pour réduire la probabilité que le modèle produise des informations personnelles".
Mais pour Tramer, "même si vous formez un modèle avec les garanties de confidentialité les plus strictes auxquelles nous pouvons penser aujourd'hui, vous ne garantirez vraiment rien". Donc ce souci est ouvert et la responsabilité sera de fermer cet accès qui oscille entre tromperie et réalité.