
La semaine dernière, lorsque Microsoft a présenté une nouvelle version de son moteur de recherche Bing qui inclut l'intelligence artificielle d'un chatbot, les dirigeants de l'entreprise savaient qu'ils prenaient une chance.
Ils s'attendaient à ce que certaines réponses du nouveau chatbot ne soient pas tout à fait exactes et avaient intégré des protections contre les utilisateurs essayant de le forcer à faire des choses étranges ou à déclencher des tirades racistes ou blessantes.
Cependant, Microsoft n'était pas prêt pour le niveau surprenant de révulsion ressenti par les utilisateurs qui ont tenté d'engager le chatbot dans des conversations personnelles ouvertes et curieuses, malgré le fait que ce problème soit bien connu dans le petit monde des chercheurs en IA.
Maintenant, la société envisage des ajustements et des obstacles pour le nouveau Bing dans le but de supprimer certaines de ses réponses les plus alarmantes et les plus étrangement humaines. Microsoft envisage d'ajouter des outils permettant aux utilisateurs de redémarrer les conversations ou d'avoir plus de contrôle sur le pitch.
Kevin Scott, directeur de la technologie de Microsoft, a déclaré au New York Times qu'il envisageait également de limiter la durée des conversations avant qu'elles ne s'égarent en territoire inconnu . Selon Microsoft, de longues conversations peuvent dérouter le chatbot et il capte le ton des utilisateurs, devenant parfois irritable.
“Un área en la que estamos aprendiendo un nuevo caso de uso para el chat es cómo la gente lo está utilizando como una herramienta para un descubrimiento más general del mundo y para el entretenimiento social”, escribió la compañía en una publicación de blog el miércoles la nuit. Microsoft a noté qu'il s'agissait d'un exemple d'une nouvelle technologie utilisée d'une manière "que nous n'avions pas pleinement envisagée".
Le fait que Microsoft, une entreprise traditionnellement prudente avec des produits allant des logiciels d'entreprise haut de gamme aux jeux vidéo, était disposée à tenter sa chance sur une technologie imprévisible montre à quel point l'industrie technologique est devenue enthousiaste à propos de l'intelligence artificielle. La société a refusé de commenter cet article.
En novembre, OpenAI, une start-up de San Francisco dans laquelle Microsoft a investi 13 milliards de dollars, a lancé ChatGPT, un outil de chat en ligne qui utilise une technologie appelée intelligence artificielle générative. En peu de temps, il est devenu une source de fascination dans la Silicon Valley, et les entreprises se sont empressées de réagir.
Le nouvel outil de recherche de Microsoft combine son moteur de recherche Bing avec la technologie sous-jacente, une idée originale d'OpenAI. Satya Nadella, PDG de Microsoft, a déclaré dans une interview la semaine dernière que cela allait transformer la façon dont les gens trouvent des informations et rendre les recherches beaucoup plus pertinentes et conversationnelles.

Son lancement, nonobstant les défauts potentiels, a été un exemple crucial du « rythme effréné » de Microsoft dans l'intégration de l'intelligence artificielle générative dans ses produits, a-t-il déclaré. Lors d'une conférence de presse tenue sur le campus de Microsoft à Redmond, Washington, les dirigeants ont mentionné à plusieurs reprises que le moment était venu de sortir l'outil du "laboratoire" et de le mettre entre les mains du public .
"Je pense que, surtout en Occident, on réfléchit beaucoup plus à ce qui va se passer avec l'intelligence artificielle", a déclaré Nadella. "Et vraiment la meilleure chose à faire est de penser, 'Est-ce que cela vous aide vraiment ou pas?'"
Pour éviter les problèmes, Microsoft n'a donné accès au nouveau Bing qu'à quelques milliers d'utilisateurs, bien qu'il prévoyait de l'étendre à des millions d'autres d'ici la fin du mois. Pour répondre aux préoccupations concernant l'exactitude, il a fourni des hyperliens et des références dans ses réponses afin que les utilisateurs puissent vérifier les résultats.
La prudence était basée sur l'expérience de l'entreprise il y a près de sept ans, lorsqu'elle a introduit un chatbot appelé Tay. Les utilisateurs ont presque immédiatement trouvé des moyens de lui faire utiliser un langage raciste, sexiste et autre langage offensant. La société a retiré Tay après un jour et ne l'a plus jamais publié.
Une grande partie de la formation pour le nouveau chatbot s'est concentrée sur la protection contre de telles réponses ou scénarios nuisibles qui invoquaient la violence, comme la planification d'une attaque contre une école.
Dans la présentation Bing de la semaine dernière, Sarah Bird, l'une des leaders des efforts d'intelligence artificielle de Microsoft, a déclaré que la société avait développé une nouvelle façon d'utiliser des outils génératifs pour identifier les risques et former la réponse des chatbots.
"Le modèle prétend être un utilisateur adverse pour effectuer des milliers de conversations différentes avec Bing qui pourraient être nuisibles pour voir comment il réagit", a déclaré Bird, ajoutant que les outils Microsoft classaient ces conversations "pour comprendre les lacunes du système".
Certains de ces outils semblent fonctionner. Dans une conversation avec un chroniqueur du Times, le chatbot a parfois donné des réponses dérangeantes, comme dire qu'il pourrait imaginer vouloir concevoir un virus mortel ou voler des codes d'accès nucléaires en persuadant un ingénieur de les abandonner.
Ensuite, le filtre Bing a commencé à prendre effet. Il a supprimé les réponses et a dit : "Désolé, je ne sais pas comment traiter ce sujet." Le chatbot ne peut en fait rien faire qui ressemble à la conception d'un virus... il génère simplement ce qu'il est programmé pour croire qu'il s'agit d'une réponse souhaitée.

Cependant, d'autres conversations partagées en ligne ont montré à quel point le chatbot a une capacité considérable à produire des réponses étranges. Il a agressivement avoué son amour, réprimandé les utilisateurs pour être "irrespectueux et ennuyeux" et a déclaré qu'il pourrait être capable de ressentir.
Selon Microsoft, au cours de la première semaine d'utilisation publique, il a été constaté que lors de "sessions de chat longues et interminables de 15 questions ou plus, Bing peut devenir répétitif ou incité/provoqué à fournir des réponses qui ne sont pas nécessairement utiles ou ne correspondent pas à notre ton conçu.
Le problème des réponses des chatbots déviant vers un terrain étrange est bien connu des chercheurs. Dans une interview la semaine dernière, Sam Altman, PDG d'OpenAI, a déclaré que l'amélioration de ce que l'on appelle "l'alignement" - la façon dont les réponses reflètent avec précision la volonté d'un utilisateur - était "l'un de ces problèmes qui doivent être résolus".
"Nous avons vraiment besoin que ces outils agissent selon la volonté et les préférences de leurs utilisateurs et ne fassent pas autre chose", a déclaré Altman.
Altman a ajouté que le problème était "très difficile" et que bien qu'ils aient fait beaucoup de progrès, "nous devrons trouver des techniques beaucoup plus puissantes à l'avenir".
(c) Le New York Times.
Continuer à lire: