2024-09-25
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
auteur de cet article : li dan
source : ia dure
quatre mois après la première sortie publique d’openai, la fonction d’assistant vocal avancé d’intelligence artificielle (ia) de chatgpt est enfin disponible pour les utilisateurs payants.
le mardi 24 septembre, heure de l'est, openai a annoncé que tous les utilisateurs ayant payé pour s'abonner aux forfaits openai chatgpt plus et team pourront utiliser le nouveau mode vocal avancé chatgpt advanced voice. cette fonctionnalité sera progressivement déployée dans le prochain. quelques jours et sera d'abord disponible sur le marché américain est en ligne. la semaine prochaine, la fonctionnalité sera disponible pour les abonnés des forfaits openai edu et enterprise.
cela signifie que cette semaine, les utilisateurs individuels de la version plus de chatgpt et les utilisateurs des petites entreprises de la version teams peuvent activer la nouvelle fonctionnalité vocale en parlant simplement, sans avoir à saisir manuellement des mots d'invite et à avoir une conversation gpt. lorsqu'il accède au mode vocal avancé sur l'application, l'utilisateur peut savoir qu'il a accédé à l'assistant vocal avancé via une fenêtre contextuelle et l'utilisateur recevra une notification de l'application.
openai a donné à la nouvelle version vocale de chatgpt deux fonctions, l'une est la fonction de stockage des "instructions personnalisées" pour l'assistant vocal et l'autre est la fonction "mémoire" permettant de mémoriser le comportement que l'utilisateur souhaite que l'assistant vocal exécute, similaire à ce qu'openai a donné à chatgpt en avril de cette année, la version texte introduit la fonction de mémoire. les utilisateurs peuvent profiter de ces fonctionnalités pour garantir que les modèles vocaux sont personnalisés, permettant à l'assistant ia de répondre en fonction des préférences de l'utilisateur pour toutes les conversations.
openai a lancé mardi cinq nouvelles voix de styles différents, nommées arbor, maple, sol, spruce et vale, ainsi que les quatre voix breeze, juniper, cove et ember précédemment lancées dans l'ancienne version du mode vocal, des voix optionnelles atteignant neuf types. openai améliore également la vitesse de conversation, la fluidité et l'accent dans certaines langues étrangères.
openai a introduit que l'assistant vocal avancé peut dire « désolé, je suis en retard » dans 50 langues, et a joint une vidéo à la publication sur les réseaux sociaux pour démontrer que l'utilisateur peut demander à l'assistant vocal d'exprimer à grand-mère parce qu'elle attend longtemps. excusez-vous. la vidéo montre que l'assistant ia a d'abord résumé ce que l'utilisateur voulait exprimer comme requis et l'a dit en anglais. ensuite, après que l'utilisateur a demandé à la grand-mère ia de ne parler que le mandarin, l'assistant ia l'a répété en anglais. mandarin standard.
la nouvelle fonctionnalité vocale est disponible pour le modèle d’ia gpt-4o d’openai et non pour le modèle d’aperçu o1 récemment publié.
le lancement de la nouvelle fonction vocale se fait attendre depuis longtemps. wall street news a mentionné un jour qu'en mai de cette année, openai avait démontré le mode vocal voice mode lors du lancement de son nouveau modèle phare gpt-4o. la voix chatgpt prise en charge par gpt-4o à l’époque ressemblait à celle d’une femme américaine adulte et pouvait répondre instantanément aux demandes. lorsqu'il a entendu le directeur de recherche openai de la démo, mark chen, expirer excessivement, il a semblé ressentir sa nervosité, puis il a dit : « mark, tu n'es pas un aspirateur », disant à chen de se détendre et de respirer.
openai avait initialement prévu de lancer le mode vocal auprès d'un petit groupe d'utilisateurs du forfait plus fin juin, mais a annoncé en juin que la sortie serait retardée d'un mois pour garantir que la fonctionnalité puisse gérer en toute sécurité et efficacement les demandes de millions d'utilisateurs. . à l'époque, openai avait annoncé qu'elle prévoyait de rendre la fonctionnalité accessible à tous les utilisateurs de plus cet automne, le calendrier exact dépendant du respect de normes internes élevées en matière de sécurité et de fiabilité.
fin juillet, openai a lancé chatgpt en mode vocal avancé pour un nombre limité d'utilisateurs plus payants, affirmant que le mode vocal ne peut pas imiter la façon dont les autres parlent, et a ajouté de nouveaux filtres pour garantir que le logiciel puisse découvrir et rejeter certaines musiques générées. ou d'autres formulaires. demandes d'audio protégé par le droit d'auteur. cependant, le nouveau mode vocal manque de nombreuses fonctionnalités démontrées par openai en mai, telles que les capacités de vision par ordinateur. cette fonctionnalité permet à gpt de fournir un retour vocal sur les mouvements de danse de l'utilisateur simplement en utilisant l'appareil photo du smartphone.