minhas informações de contato
correspondênciaadmin@informação.bz
2024-09-25
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
a voz avançada do chatgpt é totalmente aberta: diálogo suave em tempo real com ia, cheio de emoções dos personagens
não há necessidade de esperar até o outono. esta manhã, a openai anunciou que a nova versão do modo de voz avançado do chatgpt será totalmente lançada para todos os usuários plus e team esta semana.
o ceo da openai, sam altman, postou na plataforma x:
o modo de voz avançado foi lançado oficialmente hoje! (será divulgado na íntegra esta semana) espero que você sinta que vale a pena esperar🥺🫶
porém, a nova versão do modo de voz avançado também tem um limite de tempo de uso diário, e esse limite também mudará quando faltarem 15 minutos para o usuário, o sistema emitirá um lembrete.
isso significa que pode não ser realista usá-lo como um amigo próximo da ia com quem você pode conversar sobre tudo 24 horas por dia.
existem duas maneiras simples de determinar se você obteve qualificações push.
primeiro, se você for elegível para receber push, a seguinte notificação será exibida no aplicativo quando você acessar o modo de voz pela primeira vez:
o segundo método é verificar o número de estilos de voz.
anteriormente, chatgpt suportava cinco estilos de voz predefinidos, mas foi posteriormente removido das prateleiras devido a uma disputa legal entre o estilo de voz "sky" e "widow sister".
hoje, a openai lança cinco novos estilos de voz que soam mais naturais – vale, spruce, arbor, maple e sol.
o site oficial da openai descreve esses nove sons assim:
arbor - fácil de usar e versátil
breeze – animado e sério
cove - calmo e direto
ember – confiante e otimista
juniper - aberto e otimista
maple - alegre e franco
sol - inteligente e descontraído
spruce - calmo e confiante
vale – inteligente e curioso
depois de ouvir o novo estilo de voz, todos os internautas têm suas próprias preferências. alguns sentem falta de “sky”, enquanto outros já estão imersos no novo estilo de voz. sol é atualmente o mais popular. qual tom você prefere? você pode compartilhá-lo na área de comentários.
então, qual é o efeito do modo de voz avançado do chatgpt?
o funcionário dá um exemplo. quando você quiser pedir desculpas sinceras à sua avó que só fala mandarim pelo atraso, você pode usar.fala mais de 50 idiomaschatgpt para alcançar este apelo.
você ouviu certo, chatgpt disse o seguinte em mandarim de maneira clara e concisa:
vovó, me desculpe, estou atrasado. não era minha intenção deixá-la esperando tanto tempo.
além disso, o modo de voz avançado do chatgpt agora suporta a configuração de comandos personalizados.
a equipe da openai ressalta que a modalidade vocal (a forma como a voz é transmitida) contém muitos elementos que podem não ser refletidos em uma conversa de texto, como sotaque, entonação, ritmo, etc.
agora, os usuários podem personalizar a forma como um modelo de ia fala por meio de configurações que descrevem com mais precisão como o usuário deseja que o modelo fale.
ela deu exemplos como fazer com que a modelo falasse em uma cadência específica, enunciasse com clareza, falasse devagar e usasse o nome do usuário regularmente. ela recomenda começar de forma simples, como informar à modelo o nome do usuário e algumas informações básicas.
em um cenário específico, os usuários perguntam que coisas divertidas podem fazer no fim de semana. o modo de voz avançado do chatgpt fornece sugestões com base no clima e na localização do usuário (área da baía), como caminhadas, piqueniques ou dirigir pela rota 1.
ou quando ela diz que gosta da ideia de dirigir pela paisagem e pergunta qual caminho deve seguir, o chatgpt pode traçar um plano completo.
resumindo, ao personalizar a voz e a interação do modelo, o modo de voz avançado do chatgpt pode fornecer sugestões específicas com base nas preferências e necessidades do usuário, tornando as interações mais naturais e úteis.
além disso, a velocidade de conversação, a fluência e o sotaque da nova versão do modo de voz avançado chatgpt foram bastante melhorados. pode valer a pena considerá-lo como seu parceiro de língua estrangeira.
ao falar sobre a experiência do usuário, o designer de modelos openai, drew, disse que quando ele estiver fazendo algo ou não precisar falar com o chatgpt, o chatgpt ficará quieto.
quando ele tem uma pergunta, ele a faz, e a pergunta pode se transformar em uma longa conversa.
durante uma conversa, a voz do chatgpt se ajusta ao tom da conversa. para ele, o chatgpt é como um amigo sentado ao seu lado, não só fornecendo informações, mas também comunicando ideias.
na prática, você também pode tentar utilizá-lo para praticar entrevistas e outros cenários sem se preocupar com atrasos.
“quero dizer, a latência é tão baixa que é como falar com outro ser humano”, enfatizou drew.
é importante notar que a nova versão do modo de voz avançado lançada pela openai não está atualmente aberta à ue, reino unido, suíça, islândia, noruega e liechtenstein.
uma pedra causou milhares de ondas, e os internautas afetados ficaram furiosos e desamparados.
infelizmente, o compartilhamento de vídeo e tela do chatgpt ainda não está ativo.
há quatro meses, esse recurso foi revelado em entrevista coletiva. naquela época, a openai também nos mostrou como perguntar ao chatgpt em tempo real o problema matemático no papel à sua frente ou o código na tela do computador.
atualmente, a openai não especificou quando esse recurso será lançado.
numa indústria de ia onde o desenvolvimento é sempre imprevisível, o modo de voz avançado tardio é essencialmente um produto castrado.
não há novos recursos que sejam muito atraentes e nem sequer cumpriram os compromissos funcionais na conferência de maio. o impulso em grande escala que foi aquecido é mais como um produto voltado para o novo modelo do google.
paradoxalmente, o “em breve” no dicionário openai parece ser diferente do nosso.
alguns recursos prometidos há muito tempo podem significar amanhã ou no próximo ano.
se você pensar de outro ângulo, a openai, que possui excelentes capacidades técnicas, é também uma empresa que vende imaginação. o que mais esperamos pode ser sua próxima escavação.
afinal, já virou tradição para eles, certo?
mais uma coisa
o site oficial da openai atualizou hoje uma versão das respostas de controle de qualidade sobre o modo de voz chatgpt. também resumimos brevemente algumas respostas práticas, esperando ser de alguma referência para você.
1. ao usar o modo de voz avançado, você ainda pode ficar em segundo plano no telefone e continuar a conversa.
2. se você alternar do modo de texto ou voz padrão para o modo de voz avançado, observe que não será possível retornar ao texto anterior ou ao estado de conversação por voz padrão.
3. ao usar bluetooth no carro ou funções de telefone viva-voz no carro, a experiência de diálogo de voz avançado pode ser afetada porque o openai atualmente não fornece otimização especial para esses dispositivos.
3. o diálogo de voz avançado ainda não está aberto aos gpts. você só pode ter conversas de voz padrão com gpts. gpts têm sua própria opção de voz exclusiva chamada shimmer.
4. a fim de respeitar os direitos autorais dos criadores de música, a openai adotou uma série de medidas de segurança, incluindo novas condições de filtragem para evitar que conversas de voz gerem conteúdo musical, incluindo canto.
5. modo de fala avançado as conversas são de natureza multimodal e o texto transcrito nem sempre corresponde exatamente à conversa original.
6. o áudio da conversa de voz avançada será retido junto com o histórico de bate-papo até que você o exclua ativamente. após a exclusão, o áudio normalmente é excluído em 30 dias, mas pode ser retido por mais tempo em determinadas circunstâncias.
7. openai diz que, por padrão, o sistema não usará seu áudio em chats de voz para treinar o modelo, a menos que você opte por compartilhar o áudio.
8. se a opção “melhorar a experiência de chat de voz para todos os usuários” não estiver ativada em “configurações”, significa que você não compartilhou áudio e o sistema não usará seu áudio para treinar o modelo.