
La Federal Trade Commission (FTC) a ouvert une enquête approfondie sur OpenAI , afin de déterminer si son chatbot d'intelligence artificielle (IA) ChatGPT a violé les lois sur la protection des consommateurs en mettant en péril sa réputation et les données personnelles des utilisateurs, comme le rapporte The Washington Poste jeudi.
La commission a envoyé cette semaine une plainte d'enquête civile de 20 pages à la startup dirigée par Sam Altman , posant plusieurs questions à OpenAI, notamment ses pratiques de formation de modèles d'IA et sa gestion des informations personnelles des utilisateurs.
Parmi les divers exemples détaillés dans la longue lettre, vue par le Washington Post , figurait un incident de 2020 dans lequel la société a divulgué un bogue qui permettait aux utilisateurs d'afficher des informations sur d'autres chats et des informations relatives au paiement d'autres utilisateurs .
ChatGPT a gagné en popularité après son lancement public gratuit en novembre dernier et a atteint un record de 100 millions de téléchargements en 2 mois.

La FTC a demandé à OpenAI de fournir des descriptions détaillées de toutes les plaintes qu'elle avait reçues au sujet de ses produits qui faisaient des déclarations "fausses, trompeuses, désobligeantes ou préjudiciables" .
En outre, selon la lettre, la commission enquête pour savoir si l'entreprise s'est livrée à des pratiques déloyales ou trompeuses qui ont entraîné des "atteintes à la réputation" des consommateurs .
Dans l'une de ses réponses, ChatGPT a déclaré qu'un avocat (qui existait réellement) avait fait des commentaires sexuellement suggestifs et tenté de peloter un élève lors d'un voyage scolaire, citant un article que le chatbot aurait paru dans le Washington Post .
Mais aucun article de ce genre n'existait, le voyage n'a jamais eu lieu et l'avocat a affirmé qu'il n'avait jamais été accusé d'avoir harcelé un étudiant.

L'agence a également exigé une description détaillée des données qu'OpenAI utilise pour former ses produits et comment elle travaille pour empêcher ce que l'on appelle dans l'industrie technologique "l'hallucination", un problème qui survient lorsque les réponses des chatbots sont bien structurées mais complètement fausses.
Si la FTC détermine qu'une entreprise enfreint les lois sur la protection des consommateurs, elle peut imposer des amendes ou soumettre l'entreprise à un décret de consentement, qui peut dicter la manière dont l'entreprise traite les données.
(Avec les informations de l'EFE)
Continuer à lire: