nouvelles

le mode vocal avancé de chatgpt est officiellement lancé ! prend en charge plus de 50 langues

2024-09-25

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

titre original : le mode vocal avancé de chatgpt est officiellement lancé ! prend en charge plus de 50 langues. dans la vidéo de démonstration, "je suis désolé" est dit en mandarin, mais la voix de scarlett a disparu.

le 25 septembre, openai a officiellement annoncé que le mode vocal avancé de chatgpt serait officiellement lancé cette semaine pour les utilisateurs individuels de chatgpt plus et les utilisateurs des petites entreprises (teams). cette fonctionnalité sera d'abord lancée sur le marché américain.

de plus, openai a annoncé qu'il ouvrirait cette fonctionnalité aux utilisateurs d'openai enterprise et education edition la semaine prochaine. mais il convient de noter que la nouvelle fonctionnalité vocale est disponible pour le modèle gpt-4o d’openai et non pour le modèle d’aperçu o1 récemment publié.

source de l'image : plateforme sociale x

cette mise à jour signifie,à partir de cette semaine, les utilisateurs individuels et les utilisateurs d'équipes de petites entreprises de la version plus de chatgpt peuvent interagir avec le chatbot via la « voix » au lieu de la saisie de texte traditionnelle.

les deux points forts du mode vocal avancé attirent particulièrement l'attention : premièrement,aider les utilisateurs à définir des « commandes personnalisées » pour les assistants vocaux, pour réaliser des opérations personnalisées ;equipé d'une fonction "mémoire" capable de mémoriser la méthode d'interaction préférée de l'utilisateur, qui est similaire à une fonctionnalité lancée pour la version texte de chatgpt plus tôt cette année.

source de l'image : plateforme sociale x

dans la vidéo officiellement publiée, charlotte cole, chef de projet technique d'openai, et mike, ingénieur de recherche openai, ont déclaré :non seulement les utilisateurs peuvent personnaliser la vitesse de conversation, mais ils peuvent également faire en sorte que le modèle communique par le nom de l'utilisateur ou son titre préféré., rendant la communication plus cordiale et naturelle.

aussi,les utilisateurs peuvent également prédéfinir des informations de nom et d'adresse personnelles dans le système. lorsque vous lancez un nouveau cycle de dialogue, par exemple en demandant « il fait vraiment beau ce week-end, y a-t-il des activités de plein air intéressantes que vous pouvez recommander ? » l'assistant vocal avancé appellera l'adresse que l'utilisateur a saisie précédemment et recommandera de manière proactive des endroits à proximité. visiter, et même planifier de manière réfléchie des itinéraires de voyage.

source de l'image : plateforme sociale x

afin de répondre aux préférences des différents utilisateurs,le mode vocal avancé ajoute cinq voix distinctes: arbor, maple, sol, spruce et vale, ainsi que les quatre sons originaux breeze, juniper, cove et ember, forment neuf choix de haut-parleurs. les voix portent des noms inspirés d'éléments naturels et sont conçues pour offrir une variété de tons et de caractéristiques.

il est à noter queopenai supprime la voix off de sky accusée d'imiter l'actrice scarlett johansson. auparavant, scarlett avait accusé chatgpt d'openai d'utiliser illégalement sa voix et avait demandé que la voix soit retirée des étagères.

de plus, openai a déclaré qu'ilsoptimisation de la capacité de conversation de certaines langues étrangères, améliorant non seulement la vitesse et la fluidité de la conversation, mais apportant également des ajustements détaillés à l'accent, s'efforçant de communiquer au plus près de la nature.

drew, concepteur de modèles chez openai, a également partagé son expérience. il a déclaré que dans une utilisation quotidienne, les utilisateurs peuvent mettre l'assistant vocal avancé de côté et qu'il attendra en silence sans déranger l'utilisateur. et lorsque les utilisateurs ont des questions ou des besoins, ils peuvent entamer une conversation avec lui à tout moment. il capturera rapidement les changements de ton de la conversation et jouera différents rôles de manière flexible, aussi naturellement et facilement que si vous parliez à un véritable ami.

source de l'image : plateforme sociale x

le mode vocal avancé de chatgpt prend désormais en charge plus de 50 langues, élargissant la portée de la communication pour les utilisateurs. ce qui est particulièrement intéressant, c'est que dans la vidéo de démonstration officiellement publiée, l'utilisateur a demandé à l'assistant vocal d'exprimer ses excuses à sa grand-mère de l'avoir fait attendre si longtemps.l'assistant vocal avancé l'a d'abord résumé couramment en anglais, et après que l'utilisateur ait dit "grand-mère ne parle que le mandarin", il l'a exprimé à nouveau en mandarin standard "je suis désolé, je suis en retard"., comme si openai s'excusait auprès des utilisateurs d'avoir retardé à plusieurs reprises la sortie des modes vocaux avancés.

il convient de noter quece mode vocal avancé n'est actuellement pas disponible dans l'ue, au royaume-uni, en suisse, en islande, en norvège et au liechtenstein.. openai n'a pas encore annoncé les horaires d'ouverture de ces régions.

source de l'image : plateforme sociale x

le pdg d'openai, sam altman, n'a pas pu cacher son enthousiasme sur les plateformes sociales, déclarant : « j'espère que vous pensez que l'attente en vaut la peine », ajoutant un air de grief et de sympathie.

source de l'image : plateforme sociale x

le président d'openai, greg brockman, qui est toujours en vacances, a également participé avec enthousiasme à la promotion. il a déclaré : « le lancement de fonctionnalités vocales avancées vous permet d'avoir facilement une conversation fluide et sans obstruction avec chatgpt. à quel point l’ancienne façon de taper sur un ordinateur n’est pas naturelle.