
Les nouvelles voix, qui s'appelleraient Fathom, Glimmer, Harp, Maple, Orbit, Rainbow, Reef, Ridge et Vale, ont été découvertes grâce à une analyse d'ingénierie inverse réalisée par Tibor Blaho, un ingénieur qui a publié les échantillons sur la plateforme X.
Quelles nouveautés auront les nouvelles voix de ChatGTP
L'intérêt de ces nouvelles voix est qu'elles représentent non seulement une augmentation en quantité, mais aussi en diversité de tons et d'accents. Par exemple, Fathom et Vale ont des accents britanniques, tandis que Reef se distingue par son intonation australienne. Cette diversité permettra aux utilisateurs de sélectionner la voix qui correspond le mieux à leurs préférences ou au contexte de la conversation, apportant une plus grande personnalisation et proximité dans les réponses de l'IA.

Une autre des caractéristiques les plus remarquables de cette mise à jour est la capacité de ChatGPT à générer des sons non verbaux, parmi lesquels figurent des aboiements de chiens et des cris de corbeaux. Bien que cette fonction ne soit pas encore disponible pour le grand public, les tests initiaux réalisés par Blaho montrent que certaines des nouvelles voix peuvent imiter ces sons avec différents degrés de succès. Tandis que certaines tentatives sonnaient comme de simples imitations (“ouaf” pour les chiens et “caw” pour les corbeaux), d'autres voix ont obtenu des résultats plus naturels.
L'idée qu'une IA puisse émettre des sons d'animaux ouvre la porte à des interactions beaucoup plus dynamiques et ludiques. Imaginez demander à ChatGPT de “converser” avec votre chien en imitant son aboiement, ou d'émettre un son pour surprendre vos amis.
Une nouveauté supplémentaire apportée par cette mise à jour est la capacité des nouvelles voix à modifier leur intonation en fonction du format du texte. Par exemple, si un utilisateur écrit un mot en gras ou en italique, le chatbot pourra ajuster son ton de voix pour refléter mieux les émotions ou l'accentuation. Ce changement promet de faire sonner les réponses de l'assistant moins robotiques et plus humaines, améliorant ainsi la fluidité et la naturalité des conversations.

En fait, cette capacité à adapter l'intonation en fonction du contexte du texte est l'une des améliorations les plus attendues. Jusqu'à présent, les voix de ChatGPT ont été utiles, mais manquaient de la capacité d'exprimer des émotions complexes ou d'ajuster leur ton en fonction du contenu. Avec cette mise à jour, les interactions seront plus proches de celles d'une conversation réelle, permettant aux utilisateurs d'obtenir des réponses qui non seulement informent, mais transmettent également des émotions de manière plus précise.
L'arrivée des voix dans ChatGPT au milieu des polémiques
OpenAI a constamment travaillé à améliorer la façon dont ChatGPT communique avec les utilisateurs depuis le lancement du Mode de Voix Avancée. Ce mode, lancé initialement en mai 2024 dans le cadre du modèle GPT-4o, combine texte, vision et audio pour offrir une expérience plus complète et naturelle dans l'interaction avec l'IA.
Cependant, les premiers pas de ce mode de voix n'ont pas été exempts de polémique. L'une des premières voix utilisées lors des tests a généré des comparaisons troublantes avec l'actrice Scarlett Johansson, ce qui a conduit à une controverse publique. La propre actrice a confirmé qu'elle avait rejeté la proposition de Sam Altman, PDG d'OpenAI, d'utiliser sa voix dans le modèle, ce qui a conduit à la suppression de la voix appelée Sky.

Malgré ce revers, le Mode de Voix a gagné des adeptes, et bien qu'il ne soit actuellement disponible que pour un groupe restreint d'utilisateurs de ChatGPT Plus, son accès devrait s'élargir dans un avenir proche.