le mie informazioni di contatto
posta[email protected]
2024-09-25
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
autore di questo articolo: li dan
fonte: ia difficile
quattro mesi dopo il rilascio pubblico iniziale di openai, la funzionalità di assistente vocale di intelligenza artificiale avanzata (ai) di tipo umano di chatgpt è finalmente disponibile per gli utenti paganti.
martedì 24 settembre, fuso orario della costa orientale degli stati uniti, openai ha annunciato che tutti gli utenti che hanno pagato per abbonarsi ai piani openai chatgpt plus e team potranno utilizzare la nuova modalità vocale avanzata chatgpt advanced voice. questa funzionalità verrà gradualmente implementata nel prossimo pochi giorni e sarà disponibile per la prima volta sul mercato americano. la prossima settimana la funzionalità sarà disponibile per gli abbonati ai piani openai edu ed enterprise.
ciò significa che questa settimana, sia i singoli utenti della versione plus di chatgpt che gli utenti di team di piccole imprese della versione teams potranno abilitare la nuova funzionalità vocale semplicemente parlando, senza dover inserire manualmente parole immediate e avere una conversazione gpt. quando accede alla modalità vocale avanzata sull'app, l'utente può sapere di essere entrato nell'assistente vocale avanzato attraverso una finestra pop-up e riceverà una notifica dall'app.
openai ha dato alla nuova versione vocale di chatgpt due funzioni, una è la funzione di memorizzare "istruzioni personalizzate" per l'assistente vocale, e l'altra è la funzione di "memoria" per ricordare quale comportamento l'utente vuole che l'assistente vocale esegua, simili a ciò che openai ha offerto a chatgpt nell'aprile di quest'anno. la versione testuale introduce la funzione di memoria. gli utenti possono sfruttare queste funzionalità per garantire che i modelli vocali siano personalizzati, consentendo all'assistente ai di rispondere in base alle preferenze dell'utente per tutte le conversazioni.
openai ha lanciato martedì cinque nuove voci di stili diversi, denominate arbor, maple, sol, spruce e vale, oltre alle quattro voci breeze, juniper, cove ed ember precedentemente lanciate nella vecchia versione della modalità vocale, voci opzionali che raggiungono nove tipi. openai migliora anche la velocità, la fluidità e l'accento della conversazione in alcune lingue straniere.
openai ha introdotto che l'assistente vocale avanzato può dire "scusa, sono in ritardo" in 50 lingue e ha allegato un video al post sui social media per dimostrare che l'utente può chiedere all'assistente vocale di esprimere alla nonna perché stava aspettando chiedere scusa per molto tempo. il video mostra che l'assistente ai ha prima riassunto ciò che l'utente voleva esprimere come richiesto e lo ha detto in inglese, quindi, dopo che l'utente ha chiesto alla nonna ai di parlare solo mandarino, l'assistente ai lo ha ripetuto mandarino standard.
la nuova funzionalità vocale è disponibile per il modello ai gpt-4o di openai e non per il modello di anteprima o1 recentemente rilasciato.
il lancio della nuova funzione vocale era atteso da tempo. wall street news una volta ha menzionato che nel maggio di quest'anno openai ha dimostrato la modalità vocale voice mode quando ha lanciato il suo nuovo modello di punta gpt-4o. la voce chatgpt supportata da gpt-4o all'epoca sembrava quella di una donna americana adulta e poteva rispondere istantaneamente alle richieste. quando ha sentito il direttore della ricerca openai della demo, mark chen, espirare eccessivamente, è sembrato accorgersi del suo nervosismo, e poi ha detto: "mark, non sei un aspirapolvere", dicendo a chen di rilassarsi e respirare.
openai originariamente prevedeva di lanciare la modalità vocale per un piccolo gruppo di utenti del piano plus alla fine di giugno, ma a giugno ha annunciato che il rilascio sarebbe stato ritardato di un mese per garantire che la funzionalità potesse gestire in modo sicuro ed efficace le richieste di milioni di utenti . all'epoca, openai dichiarò di voler rendere la funzionalità accessibile a tutti gli utenti plus questo autunno, con la tempistica esatta che dipendeva dal rispetto di elevati standard interni di sicurezza e affidabilità.
alla fine di luglio, openai ha lanciato chatgpt in modalità vocale avanzata per un numero limitato di utenti plus a pagamento, affermando che la modalità vocale non può imitare il modo in cui parlano gli altri, e ha aggiunto nuovi filtri per garantire che il software possa scoprire e rifiutare determinata musica generata. o altri moduli. richieste di audio protetto da copyright. tuttavia, la nuova modalità vocale manca di molte funzionalità dimostrate da openai a maggio, come le funzionalità di visione artificiale. questa funzionalità consente a gpt di fornire feedback vocale sui passi di danza dell'utente semplicemente utilizzando la fotocamera dello smartphone.