notizia

OpenAI rilascia nuove funzionalità che consentono alle aziende di personalizzare i modelli IA più potenti in base ai propri dati

2024-08-21

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

TencentNotizie su scienza e tecnologia, martedì 21 agosto, ora locale negli Stati Uniti,IA apertaLanciata una nuova funzionalità che consentirà ai clienti aziendali di personalizzare questo prodotto utilizzando i propri dati aziendaliAI (Intelligenza artificiale) Il modello più potente per le startupGPT-4o

OpenAI prevede di lanciare martedì le funzionalità di personalizzazione, comunemente note nel settore dell'intelligenza artificiale come nudge. La messa a punto consente di addestrare i modelli di intelligenza artificiale esistenti con informazioni aggiuntive su un compito o un argomento specifico.

Ad esempio, un’azienda che produce skateboard potrebbe mettere a punto un modello di intelligenza artificiale in modo che possa essere utilizzato come chatbot del servizio clienti in grado di rispondere a domande sui dettagli delle ruote e sulla cura dello skateboard.

Nell'attuale contesto di forte concorrenza tra le start-up nel campo dei prodotti di intelligenza artificiale, e le aziende hanno urgentemente bisogno di dimostrare il ritorno sugli investimenti nell'intelligenza artificiale, la messa a punto delle ultime funzionalità del modello di punta di OpenAI è particolarmente importante.

Vale la pena notare che questa funzionalità è stata introdotta per la prima volta in GPT-4o e nei suoi predecessori, e OpenAI ha precedentemente fornito agli utenti autorizzazioni di regolazione fine per più tipi di modelli, incluso GPT-4o mini, fornendo agli utenti una maggiore opzioni economicamente vantaggiose.

Di fronte ai servizi di personalizzazione dei modelli di molte aziende tecnologiche sul mercato, il direttore del prodotto OpenAI API Olivier Godement ha sottolineato che OpenAI è impegnata a semplificare e accelerare l'adattamento dei clienti ai loro modelli di punta stabilendo partenariati diretti con le imprese per evitare che gli utenti si rivolgano all'esterno servizi o alternative più deboli.

Ha inoltre sottolineato: "Siamo sempre impegnati ad abbassare la soglia tecnica e a ridurre le barriere operative, riducendo così l'onere dell'utente di avviare e adattare i modelli".

Quando i clienti eseguono la messa a punto del modello, devono trasmettere i dati al server OpenAI. Secondo John Allard, ingegnere del software di lavoro personalizzato OpenAI, questo processo richiede in media circa un'ora o due. Inizialmente, la messa a punto sarà limitata ai dati di testo, senza supporto per immagini o altri formati multimediali.

Poiché OpenAI emette token gratuiti, si trova ad affrontare sfide da parte diGoogleAntropicoe altri fornitori di modelli proprietari e Nous Research Hermes 3.Meta Guerre dei prezzi feroci per modelli open source come Llama 3.1.

Tuttavia, il vantaggio dell'utilizzo di OpenAI e modelli closed-source/proprietari simili è che gli sviluppatori non devono sostenere le attività di hosting del server di inferenza o formazione del modello. Possono utilizzare le risorse del server OpenAI o connettere senza problemi i loro server preferiti tramite API.

Tuttavia, la ricerca mostra che la messa a punto di un modello può comportare rischi, comprese deviazioni dalle barriere di sicurezza e dalle garanzie di prestazione originali, che a loro volta influiscono sulla sua efficacia complessiva. Se le aziende siano disposte a correre questo rischio deve essere valutata da sole. Ma OpenAI pensa chiaramente che valga la pena e incoraggia gli utenti a considerare la messa a punto come un'opzione di ottimizzazione.

Separatamente, OpenAI ha dichiarato martedì che presenterà contenuti di marchi tra cui Vogue, The New Yorker e Wired nei suoi prodotti. L’accordo consente inoltre a OpenAI di utilizzare i contenuti Condé Nast per aiutare ad addestrare i suoi modelli di intelligenza artificiale, che richiedono grandi quantità di dati per essere apprese.

L'annuncio segna il maggiore sforzo di OpenAI di stringere accordi con le società di media piuttosto che litigare con loro su come utilizzare articoli di notizie e altri contenuti nei suoi strumenti di intelligenza artificiale. Le parti non hanno rivelato il valore della transazione dell'accordo.

Quello che segue è il testo completo della notizia ufficiale rilasciata da OpenAI:

Oggi lanciamo la messa a punto di GPT-4o, una delle funzionalità più richieste dagli sviluppatori. Dal 23 settembre forniremo inoltre a ciascuna azienda 1 milione di token formazione gratuiti ogni giorno.

Gli sviluppatori possono ora ottimizzare GPT-4o utilizzando i loro set di dati unici per ottenere prestazioni più elevate a costi inferiori per casi d'uso specifici. La tecnologia di perfezionamento offre al modello la capacità di adattare in modo flessibile la struttura e il tono delle risposte e persino di seguire istruzioni di dominio complesse e altamente specializzate. Richiede solo un numero limitato di campioni di addestramento (come decine di esempi) per ottenere risultati significativi l'applicazione.

Dalla codifica alla scrittura creativa, la funzione di messa a punto copre un'ampia gamma di campi, influenzando e migliorando profondamente le prestazioni complessive del modello. Questo è solo l'inizio e continueremo a investire nell'espansione delle opzioni di personalizzazione dei nostri modelli per gli sviluppatori.

D'ora in poi, la funzione di regolazione fine di GPT-4o è completamente aperta a tutti gli sviluppatori paganti. Visita direttamente la dashboard di messa a punto, fai clic sul pulsante "crea" e seleziona "GPT-4o -2024-08-06" dall'elenco a discesa del modello base per avviare il processo di messa a punto. Per quanto riguarda i costi, i costi di formazione per la messa a punto di GPT-4o sono fissati a $ 25 per milione di token, mentre i costi di inferenza sono $ 3,75 per milione di token di input e $ 15 per milione di token di output.

Inoltre, la mini funzione di regolazione fine GPT-4o è aperta anche a tutti gli sviluppatori paganti. Devi solo selezionare "GPT-4o-mini-2024-07-18" come modello base nella dashboard di regolazione fine. Offerta speciale: per celebrare il lancio, offriamo agli utenti GPT-4o mini fino a 2 milioni di token di formazione gratuitamente ogni giorno. Questa offerta è valida fino al 23 settembre.

Storie di successo perfezionate

Negli ultimi mesi abbiamo collaborato con numerosi partner fidati per mettere a punto e testare GPT-4o e comprendere i loro casi d'uso. Ecco alcuni esempi di successo:

1.Il coseno ha ottenuto risultati sorprendenti nel test benchmark SWE-bench

Coseno di avvioGenioÈ un assistente di ingegneria del software di intelligenza artificiale in grado di identificare e riparare in modo indipendente le vulnerabilità, creare funzioni e collaborare in modo efficiente con gli utenti per eseguire il refactoring del codice. Può anche ragionare su problemi tecnici complessi e apportare modifiche al codice con maggiore precisione e minori requisiti di token.

Genie è alimentato da un modello GPT-4o perfezionato che incorpora l'esperienza del mondo reale di veri ingegneri del software, consentendo al modello di imparare a rispondere in modi specifici. Inoltre, il modello padroneggia anche la formattazione dell'output in formati specifici come patch che possono essere facilmente integrate nel codice base, migliorando ulteriormente l'efficienza del lavoro.

I risultati dei test benchmark di verifica del banco SWE pubblicati martedì scorso hanno mostrato che Genie ha raggiunto una performance del 43,8%.SOTAIl punteggio è eccezionale, soprattutto nel test Completo. Il suo punteggio SOTA raggiunge il 30,08%, un salto significativo rispetto al precedente miglior punteggio del 19,27%, segnando un importante passo avanti nella storia di questo test di riferimento. SWE-Bench è un test che valuta le capacità di ingegneria del software di intelligenza artificiale.

2.Distyl è al primo posto nel benchmark BIRD-SQL

Distyl, partner di soluzioni AI per aziende Fortune 500, si è recentemente classificata al primo posto nel benchmark BIRD-SQL, il principale benchmark di conversione testo-SQL. Il GPT-4o ottimizzato di Distyl raggiunge una precisione di esecuzione del 71,83% nella classifica e si comporta bene in attività come la riformulazione delle query, la classificazione degli intenti, il concatenamento del pensiero e l'autocorrezione, ed è particolarmente eccezionale nella generazione SQL.

Privacy e sicurezza dei dati

Il modello di ottimizzazione è completamente sotto il controllo dell'utente, che ha la proprietà assoluta dei dati aziendali, coprendo tutti gli input e gli output. Ciò garantisce che i dati di un utente non vengano mai condivisi o utilizzati per addestrare altri modelli.

Inoltre, abbiamo implementato meccanismi di protezione della sicurezza a più livelli per modelli ottimizzati per prevenire gli abusi. Ad esempio, eseguiamo continuamente valutazioni automatizzate della sicurezza su modelli ottimizzati e monitoriamo l'utilizzo per garantire che le applicazioni aderiscano alle nostre policy di utilizzo.

Non vediamo l'ora di vedere cosa creerai perfezionando GPT-4o. Se desideri esplorare ulteriori possibilità di personalizzazione del modello, non esitare a contattare il nostro team e saremo lieti di fornirti supporto e assistenza! (Compilato/Cervo d'oro)