
Il y a quelques semaines, un vendredi après-midi, j'étais en Roumanie , mon pays natal, pour rendre visite à ma famille pour des funérailles, lorsque j'ai commencé à penser : le moment était-il venu d'apprendre à mes enfants à parler roumain ? Je vis au Royaume-Uni depuis 15 ans, où mes enfants sont nés et ont grandi. Ils adorent leurs grands-parents roumains, mais ont du mal à communiquer avec eux, et je voulais faire quelque chose à ce sujet.
J'ai donc commencé à chercher des solutions. J'ai cherché sur Internet pendant une heure, mais je n'ai rien trouvé d'utile, alors je suis retourné à mon après-midi. Quelques jours plus tard, je parcourais mon flux Instagram lorsqu'une publicité pour une application d'apprentissage des langues est apparue. Depuis que je travaillais pour une entreprise de médias sociaux, je savais ce qui s'était passé : l'entreprise avait suivi mon activité en ligne, vu que j'étais intéressé par les applications d'apprentissage des langues et avait décidé de placer une annonce sur moi. Et ce n'est pas grave : j'ai vécu des expériences similaires dans le passé et j'ai même décidé d'acheter des produits basés sur ce type de publicité ciblée.
Au cours des jours suivants, j’ai reçu de plus en plus d’annonces pour la même application linguistique. Mais quand j’ai commencé à y prêter plus attention, j’ai réalisé qu’il y avait quelque chose de plus inquiétant.
Alors que certaines publicités mettaient en vedette de vraies personnes m’encourageant à télécharger l’application et à l’essayer « sans risque », d’autres me semblaient étrangement familières. Ils mettaient en scène des personnes me parlant directement en français ou en chinois et affirmant maîtriser une langue étrangère en quelques semaines grâce aux capacités miraculeuses de l'application . Cependant, ce qui se passait réellement n’était pas miraculeux, mais plutôt alarmant : les vidéos étaient manipulées avec la technologie deepfake , potentiellement sans le consentement des personnes qui y apparaissaient.
Alors que les médias générés par l'IA peuvent être utilisés à des fins de divertissement, d'éducation ou d'expression créative inoffensives, les deepfakes peuvent potentiellement être utilisés à des fins malveillantes , telles que la diffusion de fausses informations, la fabrication de preuves ou, dans ce cas, la perpétration d'escroqueries.

Ayant travaillé dans le domaine de l'IA pendant près d'une décennie, j'ai facilement réalisé que les personnes figurant dans ces publicités n'étaient pas réelles, pas plus que leurs compétences linguistiques. Au lieu de cela, grâce à une enquête menée par Sophia Smith Galer , j'ai appris qu'une application avait été utilisée pour cloner de vraies personnes à leur insu ou sans leur permission, érodant leur autonomie et potentiellement endommageant leur réputation.
Un aspect préoccupant de ces publicités deepfakes était le manque de consentement inhérent à leur création. L'application linguistique a probablement utilisé les services d'une plate-forme de clonage vidéo développée par une société chinoise d'IA générative qui a changé de nom quatre fois au cours des trois dernières années et qui n'a mis en place aucune mesure pour empêcher le clonage non autorisé de personnes ni aucun mécanisme évident pour supprimer l'image de quelqu'un de ses bases de données.
Cette exploitation est non seulement contraire à l’éthique, mais elle mine la confiance dans le paysage numérique, où l’authenticité et la transparence font déjà défaut. Prenons l'exemple d'Olga Loiek , une étudiante ukrainienne qui possède une chaîne YouTube sur le bien-être . Récemment, ses abonnés l'ont alertée que des vidéos d'elle étaient apparues en Chine. Sur Internet, l'image de Loiek s'est transformée en avatar d'une femme russe qui voulait épouser un Chinois.
Elle a découvert que son contenu YouTube avait été diffusé sur la même plateforme utilisée pour générer les publicités frauduleuses qu'elle avait vues sur Instagram, et un avatar de son image proclamait désormais son amour pour les hommes chinois et louait la puissance militaire russe sur les réseaux sociaux chinois. applications médiatiques. Non seulement cette offensive contre Loiek était personnelle à cause de la guerre en Ukraine, mais c'était le type de contenu auquel il n'aurait jamais accepté de participer s'il avait eu la possibilité de refuser son consentement.
J'ai contacté Loiek pour me dire ce qui lui était arrivé. Voici ce qu'il a dit : « Manipuler mon image pour faire des déclarations que je n'approuverais jamais viole mon autonomie personnelle et signifie que nous avons besoin de règles strictes » pour protéger les gens comme moi de telles invasions d'identité. »

Le consentement est un principe fondamental qui sous-tend nos interactions dans les domaines physique et numérique. C'est la pierre angulaire d'une conduite éthique et affirme le droit des personnes à contrôler leur propre image, leur voix et leurs données personnelles. Sans consentement, nous risquons de violer la vie privée, la dignité et le libre arbitre des personnes, ouvrant ainsi la porte à la manipulation, à l'exploitation et aux préjudices.
Dans le cadre de mon travail en tant que responsable des affaires générales d'une société d'IA, j'ai collaboré à une campagne appelée #MyImageMyChoice , qui vise à sensibiliser à la façon dont les images non consensuelles générées avec des applications deepfake ont ruiné la vie de milliers de filles et de femmes .
Aux États-Unis, un adulte sur 12 a déclaré avoir été victime d’abus liés à l’image. J'ai lu des histoires déchirantes de certaines de ces victimes qui ont raconté comment leur vie a été détruite par des images ou des vidéos générées par des applications d'IA. Lorsqu’ils ont tenté de supprimer les applications DMCA, soit ils n’ont reçu aucune réponse, soit on leur a dit que les entreprises qui les créaient n’étaient pas soumises à cette législation.
Nous entrons dans une ère Internet dans laquelle de plus en plus de contenus que nous voyons seront générés par l’IA. Dans ce nouveau monde, le consentement revêt une plus grande importance. À mesure que les capacités de l’IA progressent, nos cadres éthiques et nos garanties réglementaires doivent également évoluer.
Nous avons besoin de mécanismes solides pour garantir que le consentement des personnes est obtenu et respecté lors de la création et de la diffusion de contenu généré par l'IA. Cela comprend des lignes directrices claires pour l’utilisation de la technologie de reconnaissance faciale et vocale, ainsi que des mécanismes permettant de vérifier l’authenticité des médias numériques.

En outre, nous devons tenir pour responsables ceux qui cherchent à exploiter la technologie des deepfakes à des fins frauduleuses ou trompeuses, ainsi que ceux qui publient des applications deepfakes qui ne disposent pas de garde-fous pour empêcher leur utilisation abusive. Esto requiere la colaboración entre las empresas tecnológicas , los responsables políticos y la sociedad civil para desarrollar y aplicar normativas que disuadan a los actores maliciosos y protejan a los usuarios de los daños del mundo real , en lugar de centrarse únicamente en escenarios catastróficos imaginarios de películas de science fiction.
Par exemple, nous ne devrions pas permettre aux entreprises de clonage vidéo ou vocal de mettre sur le marché des produits qui créent des contrefaçons de personnes sans leur consentement et, pendant le processus d'obtention du consentement, nous devrions peut-être également obliger ces entreprises à introduire des étiquettes d'information indiquant aux utilisateurs comment leur image sera utilisée, où elle sera stockée et pendant combien de temps.
Ces étiquettes peuvent être ignorées par de nombreux consommateurs, mais il peut y avoir des conséquences réelles si le deepfake d'une personne est stocké sur des serveurs dans des pays comme la Chine , la Russie ou la Biélorussie , où les victimes d'abus de deepfake n'ont aucun réel recours.
Enfin, nous devons donner aux gens des mécanismes leur permettant de refuser que leur image soit utilisée en ligne, surtout s’ils n’ont aucun contrôle sur la manière dont elle est utilisée. Dans le cas de Loiek, la société qui a développé la plateforme utilisée pour la cloner sans son consentement n'a pas répondu ni pris aucune mesure lorsqu'elle a été contactée par des journalistes pour commentaires.
En attendant qu’une meilleure réglementation soit mise en place, nous devons intensifier les efforts de sensibilisation du public et d’éducation numérique pour former les gens à reconnaître la falsification et à protéger leurs données biométriques en ligne. Nous devons donner aux consommateurs les moyens de prendre des décisions plus éclairées sur les applications et les plateformes qu’ils utilisent et reconnaître les conséquences potentielles du partage d’informations personnelles, notamment de données biométriques, dans les espaces numériques et avec des entreprises sujettes à la surveillance gouvernementale ou aux violations de données.

Les applications d’IA générative présentent un attrait indéniable, notamment auprès des plus jeunes. Mais lorsque des personnes téléchargent des images ou des vidéos contenant leur image sur ces plateformes, elles s’exposent sans le savoir à des risques infinis, tels que la violation de la vie privée, le vol d’identité et une éventuelle exploitation.
Même si j'espère qu'un jour mes enfants pourront communiquer avec leurs grands-parents grâce à la traduction automatique en temps réel, je suis profondément préoccupé par l'impact de la technologie deepfake sur la prochaine génération , surtout quand je vois ce qui est arrivé à Taylor . Swift , ou aux victimes qui ont partagé leurs histoires avec #MyImageMyChoice , ou aux innombrables autres femmes qui subissent du harcèlement et des abus sexuels et qui ont été contraintes de garder le silence.
Mes enfants grandissent dans un monde où la tromperie numérique est de plus en plus sophistiquée . Leur enseigner le consentement , la pensée critique et l’éducation aux médias est essentiel pour les aider à naviguer dans ce paysage complexe et à préserver leur autonomie et leur intégrité. Mais cela ne suffit pas : nous devons demander des comptes aux entreprises qui développent cette technologie .
Nous devons également faire pression sur les gouvernements pour qu’ils agissent plus rapidement. Par exemple, le Royaume-Uni commencera bientôt à appliquer la loi sur la sécurité en ligne , qui criminalise les deepfakes et devrait obliger les plateformes technologiques à prendre des mesures et à les supprimer. D’autres pays devraient emboîter le pas.
Et surtout, nous, dans l’industrie de l’IA, ne devrions pas avoir peur de prendre la parole et de rappeler à nos collègues que cette approche libre de la création d’une technologie d’IA générative n’est pas acceptable.
(c) 2024, Fortune