
Lors de Meta Connect , la plateforme a présenté de nombreuses nouveautés intégrant l'intelligence artificielle générative, comme les chatbots à l'image de Kendall Jenner ou Snoop Dogg . Ils ont assuré que ces outils étaient soumis à un examen « rigoureux » de la confidentialité, ce qui en théorie permet de garantir une utilisation responsable des données des utilisateurs.
Parallèlement aux fonctionnalités annoncées, un guide de confidentialité de l'IA générative a été publié pour aider les gens à comprendre comment les modèles sont construits et quels sont les contrôles et les droits dont ils disposent en matière de confidentialité des données.
De quoi parle le guide ?
Les outils d'IA générative destinés aux consommateurs récemment introduits ont été développés à partir de travaux effectués sur le grand modèle de langage de Meta, Llama 2 . Les données de certains produits et services ont été utilisées, comme Bing, le moteur de recherche Web de Microsoft.

Les publications Instagram et Facebook partagées publiquement (y compris les photos et le texte) faisaient partie des données utilisées pour former les modèles d'IA génératifs qui sous-tendent lesdites fonctionnalités dans Connect.
« Nous ne formons pas ces modèles en utilisant des messages privés de personnes. "Nous n'utilisons pas non plus le contenu de vos messages privés avec vos amis et votre famille pour entraîner nos IA", a déclaré Meta .
De plus, des mesures de confidentialité et des actions d’intégrité supplémentaires ont été intégrées à mesure que de nouveaux modèles étaient créés.

Informations partagées avec les chatbots
Ils ont assuré qu'ils utilisent les informations que les gens partagent lorsqu'ils interagissent avec leurs fonctions d'IA générative, telles que Meta AI ou les entreprises qui utilisent l'IA générative, pour « améliorer leurs produits et à d'autres fins ».
Cependant, ils ont souligné qu '"ils ont formé et ajusté leurs modèles d'IA générative pour limiter la possibilité que les informations privées partagées avec les fonctions d'IA générative apparaissent dans les réponses d'autres personnes". Ils ont expliqué que cela se produit grâce à la mise en œuvre d'une technologie qui fonctionne avec des critères humains pour examiner les interactions de l'IA afin qu'il soit possible, entre autres, de réduire la probabilité que les résultats des modèles incluent les informations personnelles d'une personne.
Contrôle utilisateur
Les chatbots ont intégré des commandes qui permettent de supprimer les informations partagées dans n'importe quel chat avec une IA sur Messenger, Instagram ou WhatsApp. Par exemple, les utilisateurs peuvent supprimer leurs messages IA en tapant « /reset-ai » dans une conversation.

L'utilisation d'une fonctionnalité d'IA générative fournie par Meta ne relie pas les informations de votre compte WhatsApp aux informations de compte sur Facebook, Instagram ou toute autre application fournie par Meta.
De la manière dont Meta AI fonctionne aujourd'hui, Meta ne peut pas vous faire participer au chat sur WhatsApp, Instagram ou Messenger, et il ne peut pas envoyer le premier message de chat avec vous ou votre groupe.
Dans les discussions de groupe avec des amis et la famille où quelqu'un demande à Meta AI de se joindre, cette IA conversationnelle ne lit que les messages qui invoquent @Meta AI ou les messages dans lesquels une réponse invoque @Meta AI. Meta AI n'accède pas aux autres messages du chat.

De même, une fenêtre de transparence a été intégrée aux interactions des personnes avec les fonctions d'IA générative et du matériel pédagogique sur l'IA générative et la confidentialité a été développé.
Par exemple, les gens sont informés que les chatbots peuvent ne pas disposer des informations les plus complètes ou les plus récentes. De plus, les images photoréalistes créées par les fonctionnalités d'IA générative de Meta incluent des filigranes visuels pour indiquer clairement que l'image a été créée à l'aide de ces moyens.
Meta participe avec d'autres pairs du secteur au partenariat sur le cadre de médias synthétiques de l'IA et a signé des engagements volontaires en matière d'IA à la Maison Blanche.