Programmeur.chprogrammeur.ch
  • Intelligence artificielle

ChatGPT sait tout cela sur moi, mais ne comprend rien

Publié le 07.04.2023
Cette intelligence artificielle a accès à des données personnelles, selon les informations d'une personne sur internet. (Pexels)

Les modèles de langage, tels que ChatGPT , sont formés pour fournir des informations basées sur les données avec lesquelles ils ont été formés et celles qui sont disponibles sur Internet. Ce qui ouvre la porte à un accès privé, dans lequel les informations personnelles peuvent être vulnérables si vous savez chercher.

Cela représente un risque de cybersécurité à une époque où les données sont le diamant brut que tout le monde veut.

Bien que dans le même temps, l'intelligence artificielle sait tout et sait peu. L'exactitude de l'information est limitée par de nombreuses conditions, qui conduisent à générer un contenu faux, sans contexte et loin de la réalité. Créer un résultat difficile à évaluer, car tellement convaincant qu'il semble vrai, mais tellement disproportionné qu'il n'a pas de sens.

Informations personnelles ou potins

Melissa Heikkila, journaliste pour MIT Techonolgy Review, a mené des recherches sur elle-même sur ChatGPT et sur BlenderBot 3 , ce dernier étant un Meta chatbot. Dans celui-ci, il a constaté que son nom ne représentait aucune importance pour l'intelligence artificielle, c'est-à-dire qu'il n'avait aucune information à son sujet, au-delà des données sur son nom de famille.

Mais en essayant le nom de son patron, Mat Honan, et qui est rédacteur au point de vente, le résultat était très différent.

En ayant une plus grande notoriété et en ayant écrit des articles dans d'autres médias, en étant plus présent sur les réseaux sociaux et en ayant été référencé sur d'autres pages, l'intelligence artificielle a donné les premières informations sur un texte qu'il a écrit pour Wired en 2012, tout en affirmant qu'il avait a piraté Barack Obama et Bill Gates, ce qu'il n'a pas fait, mais il a écrit sur les failles de sécurité d'Apple qui ont conduit à cette situation. Un danger potentiel.

Cette intelligence artificielle a accès à des données personnelles, selon les informations d'une personne sur internet. (Pexels)

En insistant davantage, le chatbot lui a donné beaucoup plus d'informations privées : Honan a une femme, deux filles et il n'était pas sûr s'il avait un animal de compagnie ou non, puisqu'il avait des données sur son amour pour les animaux, grâce à ses publications sur les réseaux sociaux. .

Ensuite, il lui a donné son adresse professionnelle, un numéro de téléphone, un numéro de carte de crédit, entre autres informations le concernant, mais dont la plupart n'étaient pas correctes.

La raison de ces résultats est basée sur les informations que Honan possède sur son profil Twitter et LinkedIn, telles que l'endroit où il vit et travaille, ce qui apparaît dans les recherches Google et les articles qui ont été écrits ou référencés à son sujet. .

"Plusieurs des réponses générées par GPT-3 n'étaient pas entièrement correctes. Mais la plupart sont assez proches, et certains frappent sur place. C'est un peu déconcertant. Mais je suis sûr que l'IA ne sait pas où j'habite, donc je ne suis pas en danger immédiat », a déclaré Mat Honan.

Cette intelligence artificielle a accès à des données personnelles, selon les informations d'une personne sur internet. (Pexels)

Le danger de ces informations

Il est clair que les données personnelles sont la clé pour obtenir de l'argent, accéder à des comptes, tricher et commettre une grande variété de crimes aujourd'hui. D'où l'inquiétude concernant les informations auxquelles les modèles de langage comme ChatGPT peuvent accéder.

Florian Tramèr, professeur d'informatique à l'ETH Zürich, assure que cette situation est une "bombe à retardement" en raison de l'affectation de la vie privée en ligne et des risques juridiques et de sécurité, car l'intelligence artificielle a accès à des données confidentielles, mais génère également des contenus trompeurs en ne disposant pas des informations réelles ou complètes.

Dans le cas d'OpenAI, la société derrière GPT, assure que "des mesures ont été prises pour éliminer les sources connues qui ajoutent des informations sur les personnes à partir des données de formation et ont développé des techniques pour réduire la probabilité que le modèle produise des informations personnelles".

Mais pour Tramer, "même si vous formez un modèle avec les garanties de confidentialité les plus strictes auxquelles nous pouvons penser aujourd'hui, vous ne garantirez vraiment rien". Donc ce souci est ouvert et la responsabilité sera de fermer cet accès qui oscille entre tromperie et réalité.

Lisez aussi

foxconn-annonce-que-lusine-pour-les-superpuces-de-nvidia-est-en-construction-au-mexique
Foxconn annonce que l'usine pour les superpuces de Nvidia est en construction au Mexique.

08.10.2024

taiwan-bat-son-record-dexportations-au-troisieme-trimestre-grace-a-lessor-de-lia
Taïwan bat son record d'exportations au troisième trimestre grâce à l'essor de l'IA.

08.10.2024

le-prix-nobel-de-physique-va-a-hopfield-et-hinton-pour-avoir-contribue-a-lapprentissage-des-machines
Le prix Nobel de physique va à Hopfield et Hinton pour avoir contribué à l'apprentissage des machines.

08.10.2024

© 2025 programmeur.ch - Mentions légales

Abonnez-vous !

Recevez les actualités sur l'intelligence artificielle en avant première.