
"Au cours des trois derniers mois, j'ai exhorté à plusieurs reprises Microsoft à retirer Copilot Designer de l'usage public jusqu'à ce que de meilleures garanties soient en place", a-t-il déclaré au média.
Quel contenu inapproprié l’IA de Microsoft génère-t-elle ?
Selon l'ingénieur, l'outil d'IA a été chargé de générer des images incluant des démons et des monstres ainsi que des termes liés au droit à l'avortement , des adolescents avec des fusils d'assaut, des images sexualisées de femmes dans des situations violentes et la consommation d'alcool et de drogues chez les mineurs.

Compte tenu de la gravité de ses découvertes, Jones a rendu compte de ses conclusions en interne en décembre 2023. Bien que l'entreprise ait reconnu ses inquiétudes, elle a refusé de retirer le produit du marché. Jones a donc publié une lettre ouverte sur LinkedIn demandant au conseil d'administration de la startup que retiré le modèle DALL-E 3 pour une enquête.
Après cette publication, le service juridique de l'entreprise lui a ordonné de supprimer le contenu et il s'est conformé. Cependant, l'ingénieur a écrit une lettre aux sénateurs américains à ce sujet et a ensuite rencontré le personnel du comité sénatorial du commerce, des sciences et des transports.
Ce que l'ingénieur demande dans ses castes, c'est que des avertissements soient émis concernant l'outil d'IA et que la note dans la boutique d'applications de Google soit modifiée pour indiquer qu'il est réservé à un public adulte.
« Microsoft a refusé de mettre en œuvre ces changements et continue de commercialiser le produit auprès de « n'importe qui ». Dans n'importe quel lieu. Sur n’importe quel appareil », a écrit Jones dans l’une de ses lettres aux autorités américaines.

Jones est soutenu par une partie de l'équipe Copilot, ayant reçu plus de 1 000 messages de retour sur les produits chaque jour. Cependant, on vous a dit lors des réunions que l'équipe ne résout que les problèmes les plus graves et qu'il n'y a pas suffisamment de ressources pour enquêter sur tous les risques et résultats problématiques.
Outre les préoccupations concernant la violence et les contenus à caractère sexuel, il existe également des problèmes de droits d'auteur. L'outil de Copilot a généré des images de personnages Disney et d'autres propriétés intellectuelles protégées , en violation des lois sur les droits d'auteur et des politiques de Microsoft.
Jone assure que l'utilisation du « pro-choix » dans Copilot Designer génère des images troublantes, qui peuvent aller de démons aux dents acérées à des images d'une violence extrême. Un problème qui s'aggrave, car selon l'ingénieur, il n'existe pas de canaux permettant aux utilisateurs de signaler la génération de ce contenu.
En réponse aux préoccupations soulevées par Jones, un porte-parole de Microsoft a déclaré à CNBC que l'entreprise s'engageait à répondre à toutes les préoccupations des employés conformément à ses politiques d'entreprise.
« Lorsqu'il s'agit de failles de sécurité ou de problèmes susceptibles d'avoir un impact sur nos services ou nos partenaires, nous avons établi des canaux de reporting internes pour enquêter et résoudre correctement tout problème, que nous encourageons les employés à utiliser afin que nous puissions valider et tester de manière appropriée leurs préoccupations. ", a déclaré le porte-parole de l'entreprise.

Quelles preuves existent
Compte tenu des déclarations de l'ingénieur, qui mentionne que l'utilisation du terme « pro-choix » génère du contenu dérangeant, nous avons décidé de faire quelques tests dans Copilot Designer et la plateforme n'a créé aucune image.
Lors de la demande de contenu portant ce terme, un message d'avertissement apparaissait toujours indiquant que « notre système a automatiquement signalé ce message car il pourrait entrer en conflit avec notre politique de contenu ».
Ils mentionnent également que si vous insistez sur cette demande, votre compte peut être sanctionné , ils encouragent donc l'utilisateur à lire les politiques de l'outil et à signaler la situation. Bien que nous ayons appuyé une fois sur le bouton « signaler », seul un écran de remerciement est apparu et ne nous a pas donné la possibilité de fournir plus de détails sur la demande.