notizia

OpenAI distribuisce la modalità vocale avanzata ad alcuni utenti ChatGPT Plus

2024-08-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

· Nuove funzionalità audio consentono agli utenti di parlare con ChatGPT e ricevere immediatamente risposte in tempo reale o di interrompere mentre ChatGPT sta parlando. Funzionalità più avanzate come la condivisione di video e schermo verranno introdotte in un secondo momento.

Il 31 luglio, OpenAI ha annunciato il lancio della modalità vocale avanzata ad alcuni utenti di ChatGPT Plus e prevede di aprirla a tutti gli utenti di ChatGPT Plus in autunno.

OpenAI sta guidando lo sviluppo di una nuova generazione di assistenti vocali di intelligenza artificiale. La nuova funzionalità audio consentirà agli utenti di parlare con ChatGPT e ricevere immediatamente risposte in tempo reale, oltre a interrompere ChatGPT mentre sta parlando. I modelli linguistici distinguono le informazioni trasmesse dalle diverse intonazioni del discorso. Sembra più naturale e utilizza il suono per trasmettere una varietà di emozioni.

La nuova modalità vocale è basata sul modello GPT-4o di OpenAI, che combina funzionalità vocali, di testo e di visione. Per raccogliere feedback, OpenAI sta inizialmente distribuendo funzionalità premium vocali a un "piccolo gruppo di utenti" di ChatGPT Plus, ma OpenAI afferma che sarà disponibile per tutti gli utenti di ChatGPT Plus questo autunno.

OpenAI ha ritardato il lancio dell'esperienza di chiamata vocale da fine giugno a luglio, affermando che ci sarebbe voluto del tempo per soddisfare gli standard di rilascio. OpenAI ha affermato di aver testato le capacità vocali di GPT-4o con più di 100 team rossi esterni, coprendo 45 lingue. La società ha affermato di aver integrato diversi meccanismi di sicurezza, ad esempio per proteggere la privacy e impedire che il modello venga utilizzato per creare voci deepfake. Ha collaborato con doppiatori per creare quattro voci preimpostate che non imitano né generano le voci di altre persone . il suono di.

Quando OpenAI ha lanciato per la prima volta GPT-4o, ha dovuto affrontare una reazione negativa per l'utilizzo di una voce chiamata "Sky", che somigliava molto a quella dell'attrice Scarlett Johansson. Scarlett Johansson ha rilasciato un comunicato affermando di essere stata contattata da OpenAI per consentire alla modella di usare la sua voce, ma ha rifiutato. OpenAI ha negato che fosse la voce di Johnson ma ha sospeso l'uso di Sky.

OpenAI ha inoltre affermato di aver adottato filtri per identificare e bloccare le richieste di generazione di musica o altro audio protetto da copyright e di aver applicato gli stessi meccanismi di sicurezza utilizzati nei modelli di testo a GPT-4o per impedire loro di violare le leggi e generare contenuti dannosi. "Disponiamo di barriere per bloccare le richieste di contenuti violenti o protetti da copyright." Inoltre, funzionalità più avanzate come la condivisione di video e schermo verranno implementate in un secondo momento.