notizia

la modalità vocale avanzata chatgpt è completamente aperta, i dettagli che devi sapere sono qui

2024-09-25

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

non c’è bisogno di aspettare fino all’autunno questa mattina, openai ha annunciato che la nuova versione della modalità vocale avanzata di chatgpt sarà completamente distribuita a tutti gli utenti plus e team questa settimana.

il ceo di openai sam altman ha pubblicato sulla piattaforma x:

la modalità vocale avanzata viene lanciata ufficialmente oggi! (verrà pubblicato per intero questa settimana) spero che pensi che valga la pena aspettare🥺🫶

tuttavia, la nuova versione della modalità vocale avanzata prevede anche un limite di tempo di utilizzo giornaliero e anche questo limite cambierà quando all'utente restano 15 minuti, il sistema emetterà un promemoria.

ciò significa che potrebbe non essere realistico usarlo come un amico intimo ai con cui puoi parlare di tutto 24 ore al giorno.

esistono due semplici modi per determinare se hai ottenuto le qualifiche push.

innanzitutto, se sei idoneo al push, la seguente notifica verrà visualizzata nell'app quando accedi alla modalità vocale per la prima volta:

il secondo metodo consiste nel verificare il numero di stili vocali.

in precedenza, chatgpt supportava cinque stili vocali preimpostati, ma è stato successivamente rimosso dagli scaffali a causa di una controversia legale tra lo stile vocale "sky" e "widow sister".

oggi openai lancia cinque nuovi stili vocali che suonano più naturali: vale, spruce, arbor, maple e sol.

il sito web ufficiale di openai descrive questi nove suoni in questo modo:

arbor - semplice e versatile

breeze - vivace e serio

cove: calmo e semplice

ember: fiducioso e ottimista

ginepro: aperto e ottimista

acero: allegro e franco

sol: intelligente e rilassato

abete rosso: calmo e fiducioso

vale - intelligente e curiosa

dopo aver ascoltato il nuovo stile vocale, tutti gli utenti della rete hanno le proprie preferenze. ad alcuni manca "sky", mentre altri sono già immersi nel nuovo stile vocale. sol è attualmente il più popolare. quale tono preferisci? puoi condividerlo nell'area commenti.

allora qual è l’effetto della modalità vocale avanzata di chatgpt?

il funzionario fornisce un esempio. quando vuoi scusarti sinceramente con tua nonna che parla solo mandarino per il ritardo, puoi utilizzare chatgpt, che parla più di 50 lingue, per raggiungere questo obiettivo.

hai sentito bene, chatgpt ha detto quanto segue in mandarino in modo chiaro e conciso:

nonna, mi dispiace, sono in ritardo. non volevo farti aspettare così a lungo. come posso compensarti?

inoltre, la modalità vocale avanzata di chatgpt ora supporta l'impostazione di comandi personalizzati.

lo staff di openai sottolinea che la modalità vocale (il modo in cui viene pronunciata una voce) contiene molti elementi che potrebbero non riflettersi in una conversazione testuale, come accento, intonazione, ritmo, ecc.

ora, gli utenti possono personalizzare il modo in cui parla un modello ai attraverso impostazioni che descrivono in modo più accurato come l’utente desidera che parli il modello.

ha fornito esempi come far parlare il modello con una cadenza specifica, enunciare chiaramente, parlare lentamente e utilizzare regolarmente il nome dell'utente. consiglia di iniziare in modo semplice, ad esempio far conoscere alla modella il nome dell'utente e alcune informazioni di base.

in uno scenario specifico, gli utenti chiedono quali cose divertenti possono fare nel fine settimana. la modalità vocale avanzata di chatgpt fornisce suggerimenti basati sul meteo e sulla posizione dell'utente (la bay area), come escursioni, picnic o guida lungo la route 1.

oppure quando dice che le piace l'idea di guidare in giro per il paesaggio e chiede quale percorso dovrebbe prendere, chatgpt può elaborare un piano completo.

in breve, personalizzando la voce e l'interazione del modello, la modalità vocale avanzata di chatgpt può fornire suggerimenti specifici in base alle preferenze e alle esigenze dell'utente, rendendo le interazioni più naturali e utili.

inoltre, la velocità di conversazione, la fluidità e l'accento della nuova versione della modalità vocale avanzata chatgpt sono stati notevolmente migliorati. potrebbe davvero valere la pena considerarlo il tuo partner per le lingue straniere.

parlando dell'esperienza dell'utente, il progettista del modello openai drew ha affermato che quando sta facendo qualcosa o non ha bisogno di parlare con chatgpt, chatgpt rimarrà in silenzio.

quando ha una domanda, la pone e la domanda può trasformarsi in una lunga conversazione.

durante una conversazione, la voce di chatgpt si adatta al tono della conversazione. dal suo punto di vista, chatgpt è come un amico seduto accanto a lui, che non solo fornisce informazioni ma comunica anche idee.

in pratica, puoi anche provare a usarlo per esercitarti in interviste e altri scenari senza preoccuparti dei ritardi.

"voglio dire, la latenza è così bassa che è come parlare con un altro essere umano", ha sottolineato drew.

per la prima serie di esperienze utente, puoi rivedere gli articoli precedenti di appso👇

la prima serie di esperienze utente della modalità vocale gpt-4o è qui! il film "her" finalmente è diventato realtà, netizen: mi sono quasi innamorato di lei

vale la pena notare che la nuova versione della modalità vocale avanzata lanciata da openai non è attualmente aperta a ue, regno unito, svizzera, islanda, norvegia e liechtenstein.

una pietra ha causato migliaia di ondate e gli utenti della rete colpiti erano arrabbiati e impotenti.

sfortunatamente, la condivisione di video e schermo di chatgpt non è ancora attiva.

quattro mesi fa, questa funzionalità è stata svelata in una conferenza stampa. allora openai ci ha mostrato anche come chiedere a chatgpt in tempo reale il problema di matematica scritto sul foglio davanti a noi o il codice sullo schermo del computer.

attualmente openai non ha specificato quando verrà lanciata questa funzionalità.

in un settore dell’intelligenza artificiale in cui lo sviluppo è sempre imprevedibile, la tardiva modalità vocale avanzata è essenzialmente un prodotto castrato.

non ci sono nuove funzionalità che siano troppo accattivanti e non ha nemmeno rispettato gli impegni funzionali della conferenza di maggio. la spinta su vasta scala che è stata avviata è più simile a un prodotto che prende di mira il nuovo modello di google.

paradossalmente il "prossimamente" del dizionario openai sembra essere diverso dal nostro.

alcune funzionalità promesse da tempo potrebbero significare domani o il prossimo anno.

se ci pensi da un'altra prospettiva, openai, che ha eccellenti capacità tecniche, è anche un'azienda che vende immaginazione. ciò che non vediamo l'ora di fare potrebbe essere il loro prossimo scavo.

dopotutto, è diventata una tradizione per loro, giusto?

un'altra cosa

il sito ufficiale di openai ha aggiornato oggi una versione delle risposte del qa sulla modalità vocale chatgpt. abbiamo anche riassunto brevemente alcune risposte pratiche, sperando di esserti di qualche riferimento.

1. quando si utilizza la modalità vocale avanzata, è comunque possibile restare in background sul telefono e continuare la conversazione.

2. se passi dalla modalità testo o voce standard alla modalità voce avanzata, tieni presente che non sarai in grado di tornare allo stato precedente della conversazione testo o voce standard.

3. quando si utilizzano le funzioni bluetooth o telefono vivavoce in macchina, l'esperienza del dialogo vocale avanzato potrebbe essere influenzata poiché openai attualmente non fornisce un'ottimizzazione speciale per questi dispositivi.

3. il dialogo vocale avanzato non è ancora aperto ai gpt. puoi avere solo conversazioni vocali standard con gpt. i gpt hanno la loro opzione vocale unica chiamata shimmer.

4. al fine di rispettare il diritto d'autore dei creatori di musica, openai ha adottato una serie di misure di sicurezza, comprese nuove condizioni di filtraggio per impedire alle conversazioni vocali di generare contenuti musicali, incluso il canto.

5. modalità vocale avanzata le conversazioni sono di natura multimodale e il testo trascritto non sempre corrisponde esattamente alla conversazione originale.

6. l'audio nella conversazione vocale avanzata verrà conservato insieme alla cronologia della chat finché non lo eliminerai attivamente. dopo l'eliminazione, l'audio viene generalmente eliminato entro 30 giorni, ma in determinate circostanze potrebbe essere conservato più a lungo.

7. openai afferma che, per impostazione predefinita, il sistema non utilizzerà il tuo audio nelle chat vocali per addestrare il modello a meno che tu non scelga di condividere l'audio.

8. se l'opzione "migliora l'esperienza della chat vocale per tutti gli utenti" non è attivata in "impostazioni", significa che non hai condiviso l'audio e il sistema non utilizzerà il tuo audio per addestrare il modello.