
ChatGPT est devenu l'une des intelligences artificielles les plus populaires au monde et OpenAI une entreprise leader dans le développement de cette technologie grâce à la variété d'utilisations de ce modèle génératif.
Cependant, le PDG de l'entreprise, Sam Altman , a révélé lors d'une interview avec son collègue Patrick Collison sur YouTube que malgré le nombre de fonctions activées dans ce logiciel, comme la génération de texte, il aide à écrire du code de programmation , entre autres, le plus l'application courante parmi les utilisateurs est de résumer automatiquement les textes "pour suivre les messages électroniques et Slack (la plate-forme d'organisation et de productivité)".
Même si ChatGPT utilise la communication par SMS, Altman a déclaré qu'une nouvelle fonctionnalité est déjà en cours de développement qui permettrait de démarrer des conversations vocales avec des "agents d'intelligence artificielle", des programmes qui effectuent des tâches de manière autonome.
Contrairement à la fonction ChatGPT habituelle, qui fonctionne sur la base de questions ou d'indications faites par un utilisateur, ces programmes ne nécessitent pas de commentaires ou de supervision constants pour atteindre les objectifs proposés.

Au cours de la conversation, Altman a également estimé que l'intelligence artificielle pourrait être plus participative dans la prise de décisions importantes avec l'idée d'améliorer la vie des gens. Selon le PDG d' OpenAI , ces modèles pourraient être utilisés pour identifier les options d'investissement dans les entreprises et même soutenir l'allocation de fonds à la recherche pour lutter contre le cancer.
Régulation de l'intelligence artificielle
Altman n'a pas caché son intérêt et sa volonté de réguler l'avancée de l'intelligence artificielle et ses usages pour que les gens soient en sécurité.
Bien que certains pays comme l'Italie et le Canada , et même des organisations comme le Parlement européen prennent des mesures à cet égard, le représentant d'OpenAI estime que davantage pourrait être fait si vous avez une organisation qui englobe tous les pays du monde.
"Je pense proposer quelque chose comme une OAS , mais pour l'intelligence artificielle", a-t-il déclaré. Il a également indiqué que la première action de cette organisation fictive serait d'exiger que tous les systèmes qui seront créés à l'avenir doivent passer une série d'exigences, subir des audits et des évaluations de sécurité avant d'être lancés sur le marché.

Bien que le PDG d' OpenAI ait assuré sur ses réseaux sociaux et dans des interviews qu'il estime que l'intelligence artificielle doit être au contact de l'humain pour constamment améliorer ses petites erreurs, l'idée de ne pas la mettre à disposition pour des raisons de sécurité n'est pas contraire à ce postulat. . .
Une intelligence artificielle peut avoir des erreurs dans son fonctionnement, comme fournir des données incorrectes, et cela peut être corrigé une fois la faille détectée, mais une faille de sécurité peut compromettre les informations d'un utilisateur et cela peut être évité s'il est identifié avant qu'un modèle ne soit à la disposition du public.
Pour Altman, il est bon que davantage de personnes soient encouragées à parler du problème, même s'il considère que cela est insuffisant si aucune action n'est entreprise. «Il y a des gens qui sont concernés et qui font un travail technique à cet égard. Nous avons besoin de plus de gens comme ça", a-t-il déclaré.