nouvelles

le mode vocal avancé de chatgpt est entièrement ouvert, les détails que vous devez connaître sont ici

2024-09-25

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

il n'est pas nécessaire d'attendre l'automne. tôt ce matin, openai a annoncé que la nouvelle version du mode vocal avancé de chatgpt serait entièrement déployée cette semaine pour tous les utilisateurs plus et team.

sam altman, pdg d'openai, a publié sur la plateforme x :

le mode vocal avancé est officiellement lancé aujourd'hui ! (sera publié dans son intégralité cette semaine) j'espère que vous pensez que cela vaut la peine d'attendre🥺🫶

cependant, la nouvelle version du mode vocal avancé a également une limite de temps d'utilisation quotidienne, et cette limite changera également lorsqu'il restera 15 minutes à l'utilisateur, le système émettra un rappel.

cela signifie qu’il n’est peut-être pas réaliste de l’utiliser comme un ami proche de l’ia avec qui vous pouvez parler de tout 24 heures sur 24.

il existe deux manières simples de déterminer si vous avez obtenu des qualifications push.

premièrement, si vous êtes éligible pour être poussé, la notification suivante s'affichera dans l'application lorsque vous accéderez au mode vocal pour la première fois :

la deuxième méthode consiste à vérifier le nombre de styles de voix.

auparavant, chatgpt prenait en charge cinq styles de voix prédéfinis, mais a ensuite été retiré des étagères en raison d'un litige juridique entre le style de voix « sky » et « widow sister ».

aujourd'hui, openai lance cinq nouveaux styles de voix au son plus naturel : vale, spruce, arbor, maple et sol.

le site officiel d'openai décrit ces neuf sons comme ceci :

arbor - facile à vivre et polyvalent

breeze - vif et sérieux

cove - calme et simplicité

ember - confiant et optimiste

juniper - ouvert et optimiste

érable - joyeux et franc

sol - intelligent et détendu

épicéa - calme et confiant

vale - intelligent et curieux

après avoir écouté le nouveau style de voix, les internautes ont tous leurs propres préférences. certains manquent "sky", tandis que d'autres sont déjà immergés dans le nouveau style de voix. sol est actuellement le ton le plus populaire. quel ton préférez-vous ? vous êtes invités à le partager dans la zone de commentaires.

alors, quel est l’effet du mode vocal avancé de chatgpt ?

le responsable donne un exemple. lorsque vous souhaitez sincèrement vous excuser auprès de votre grand-mère qui ne parle que le mandarin pour son retard, vous pouvez utiliser chatgpt, qui parle plus de 50 langues, pour y parvenir.

vous avez bien entendu, chatgpt a dit ce qui suit en mandarin de manière claire et concise :

grand-mère, je suis désolé, je suis en retard, je ne voulais pas te faire attendre si longtemps. comment puis-je te dédommager ?

de plus, le mode vocal avancé de chatgpt prend désormais en charge la définition de commandes personnalisées.

l'équipe d'openai souligne que la modalité vocale (la façon dont une voix est délivrée) contient de nombreux éléments qui peuvent ne pas être reflétés dans une conversation textuelle, tels que l'accent, l'intonation, le rythme, etc.

désormais, les utilisateurs peuvent personnaliser la façon dont un modèle d'ia s'exprime grâce à des paramètres qui décrivent plus précisément la manière dont l'utilisateur souhaite que le modèle parle.

elle a donné des exemples tels que demander au modèle de parler à une cadence spécifique, d'énoncer clairement, de parler lentement et d'utiliser régulièrement le nom de l'utilisateur. elle recommande de commencer simplement, par exemple en informant le modèle du nom de l'utilisateur et de quelques informations de base.

dans un scénario spécifique, les utilisateurs demandent quelles choses amusantes ils peuvent faire le week-end. le mode vocal avancé de chatgpt fournit des suggestions basées sur la météo et l'emplacement de l'utilisateur (la région de la baie), comme la randonnée, le pique-nique ou la conduite le long de la route 1.

ou lorsqu'elle dit qu'elle aime l'idée de parcourir le paysage en voiture et demande quel itinéraire elle devrait emprunter, chatgpt peut élaborer un plan détaillé.

en bref, en personnalisant la voix et l'interaction du modèle, le mode vocal avancé de chatgpt peut fournir des suggestions spécifiques basées sur les préférences et les besoins de l'utilisateur, rendant les interactions plus naturelles et utiles.

de plus, la vitesse de conversation, la fluidité et l'accent de la nouvelle version du mode vocal avancé de chatgpt ont été considérablement améliorés. cela vaut peut-être la peine d'être considéré comme votre partenaire de langue étrangère.

en parlant de l'expérience utilisateur, le concepteur du modèle openai, drew, a déclaré que lorsqu'il fait quelque chose ou qu'il n'a pas besoin de parler à chatgpt, chatgpt restera silencieux.

lorsqu’il a une question, il la pose, et la question peut dégénérer en une longue conversation.

lors d'une conversation, la voix de chatgpt s'adapte au ton de la conversation. selon lui, chatgpt est comme un ami assis à côté de lui, fournissant non seulement des informations mais communiquant également des idées.

en pratique, vous pouvez également essayer de l'utiliser pour pratiquer des entretiens et d'autres scénarios sans vous soucier des retards.

"je veux dire, la latence est si faible que c'est comme parler à un autre être humain", a souligné drew.

pour le premier lot d'expériences utilisateur, vous pouvez consulter les articles précédents d'appso👇

le premier lot d’expériences utilisateur du mode vocal gpt-4o est là ! le film "her" est enfin devenu réalité, internaute : j'ai failli tomber amoureux d'elle

il convient de noter que la nouvelle version du mode vocal avancé lancée par openai n'est actuellement pas ouverte à l'ue, au royaume-uni, à la suisse, à l'islande, à la norvège et au liechtenstein.

une pierre a provoqué des milliers de vagues et les internautes concernés étaient à la fois en colère et impuissants.

malheureusement, la vidéo et le partage d'écran de chatgpt ne sont toujours pas en direct.

il y a quatre mois, cette fonctionnalité a été dévoilée lors d'une conférence de presse. à cette époque, openai nous montrait également comment poser à chatgpt en temps réel le problème mathématique sur la feuille devant vous ou le code sur l'écran de l'ordinateur.

actuellement, openai n'a pas précisé quand cette fonctionnalité sera lancée.

dans une industrie de l’ia où le développement est toujours imprévisible, le mode vocal avancé tardif est essentiellement un produit castré.

il n'y a pas de nouvelles fonctionnalités trop accrocheuses, et elle n'a même pas rempli les engagements fonctionnels pris lors de la conférence de mai. la poussée à grande échelle qui a été réchauffée ressemble plus à un produit ciblant le nouveau modèle de google.

paradoxalement, le « coming soon » du dictionnaire openai semble différent du nôtre.

certaines fonctionnalités promises depuis longtemps pourraient signifier demain ou l’année prochaine.

si vous y réfléchissez sous un autre angle, openai, qui possède d'excellentes capacités techniques, est également une entreprise qui vend de l'imagination. ce que nous attendons le plus avec impatience, c'est peut-être leur prochaine fouille.

après tout, c’est devenu une tradition pour eux, non ?

encore une chose

le site officiel d'openai a mis à jour aujourd'hui une version des réponses d'assurance qualité sur le mode vocal chatgpt. nous avons également brièvement résumé quelques réponses pratiques, dans l'espoir de vous servir de référence.

1. lorsque vous utilisez le mode vocal avancé, vous pouvez toujours rester en arrière-plan de votre téléphone et poursuivre la conversation.

2. si vous passez du mode texte ou vocal standard au mode vocal avancé, veuillez noter que vous ne pourrez pas revenir à l'état précédent de conversation textuelle ou vocale standard.

3. lors de l'utilisation des fonctions bluetooth ou du téléphone mains libres dans la voiture, l'expérience du dialogue vocal avancé peut être affectée car openai ne propose actuellement aucune optimisation particulière pour ces appareils.

3. le dialogue vocal avancé n'est pas encore ouvert aux gpt. vous ne pouvez avoir que des conversations vocales standard avec les gpt. les gpt ont leur propre option vocale unique appelée shimmer.

4. afin de respecter les droits d'auteur des créateurs de musique, openai a adopté un certain nombre de mesures de sécurité, notamment de nouvelles conditions de filtrage pour empêcher les conversations vocales de générer du contenu musical, notamment du chant.

5. mode vocal avancé les conversations sont de nature multimodale et le texte transcrit ne correspond pas toujours exactement à la conversation originale.

6. l'audio de la conversation vocale avancée sera conservé avec l'historique des discussions jusqu'à ce que vous le supprimiez activement. après suppression, l'audio est généralement supprimé dans les 30 jours, mais peut être conservé plus longtemps dans certaines circonstances.

7. openai indique que par défaut, le système n'utilisera pas votre audio dans les discussions vocales pour entraîner le modèle, à moins que vous ne choisissiez de partager l'audio.

8. si l'option « améliorer l'expérience de chat vocal pour tous les utilisateurs » n'est pas activée dans « paramètres », cela signifie que vous n'avez pas partagé l'audio et que le système n'utilisera pas votre audio pour entraîner le modèle.