notizia

GPT-4o mini domina la classifica e può essere perfezionato gratuitamente per un periodo limitato di 2 mesi!Ogni giorno vengono raccolti gratuitamente 2 milioni di gettoni formazione

2024-07-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Nuovo rapporto sulla saggezza

Editore: Taozi

[Introduzione alla Nuova Saggezza] Mentre la bestia Llama 3.1 405B era open source, OpenAI ha nuovamente rubato le luci della ribalta. D'ora in poi verranno utilizzati 2 milioni di token formativi per mettere a punto gratuitamente il modello ogni giorno fino al 23 settembre.

Lo stesso giorno in cui Llama 3.1 è stato reso open source, è stato aperto anche OpenAI.


GPT-4o mini può essere messo a punto gratuitamente e si possono utilizzare 2 milioni di token di allenamento ogni giorno per un periodo limitato di 2 mesi (dal 23 settembre).


Gli sviluppatori che hanno ricevuto l'e-mail si sono affrettati a dirsi con entusiasmo che un pezzo di lana così grande deve essere raccolto il prima possibile.


D’altro canto è uscita anche la classifica del GPT-4o mini nell’arena dei modelli di grandi dimensioni LMSYS.

Nella classifica generale, GPT-4o mini e GPT-4o si classificano al primo posto.


Altman ha detto con entusiasmo: "Non sono mai stato così entusiasta di alcuna valutazione. Le prestazioni di GPT-4o mini sono così vicine a quelle di GPT-4o, e il prezzo è solo 1/20!"


Allo stesso tempo, ha detto che la messa a punto di GPT-4o mini è ora online.


È davvero inaspettato che OpenAI possa rilasciare un modello così potente affinché tutti possano utilizzarlo gratuitamente.

Gli utenti della rete una volta pensavano che questa potesse essere l'e-mail di phishing più avanzata.


2 milioni di token al giorno, GPT-4o mini messa a punto gratuita

Nell'e-mail, OpenAI ha annunciato di aver lanciato ufficialmente la mini funzione di regolazione fine GPT-4o per migliorare le prestazioni dell'ultimo piccolo modello in casi d'uso specifici.

Dal 23 luglio al 23 settembre gli sviluppatori potranno utilizzare gratuitamente 2 milioni di token di formazione ogni giorno.


L'eccedenza verrà addebitata a 3 milioni di token USD.

Dopo la scadenza dei 2 mesi di utilizzo gratuito, verrà addebitata anche la formazione di ottimizzazione pari a 3 milioni di dollari per token.


Inoltre, OpenAI ha spiegato nell'e-mail i motivi per cui vale la pena per tutti passare da GPT-3.5 Turbo a GPT-4o mini:

- Più conveniente: la tariffa del token in ingresso di GPT-4o mini è inferiore del 90% rispetto a quella del GPT-3.5 Turbo e la tariffa del token in uscita è inferiore dell'80%. Anche al termine del periodo gratuito, il costo di formazione di GPT-4o mini è la metà di quello di GPT-3.5 Turbo.


- Contesto più lungo: la lunghezza del contesto di addestramento di GPT-4o mini è di 65.000 token, 4 volte quella di GPT-3.5 Turbo, e la lunghezza del contesto di inferenza è di 128.000 token, ovvero 8 volte quella di GPT-3.5 Turbo.

- Più intelligente e più capace: GPT-4o mini è più intelligente di GPT-3.5 Turbo e supporta funzionalità visive (sebbene la regolazione fine sia attualmente limitata al testo).


Infine, l'e-mail menzionava anche che la mini funzione di regolazione fine GPT-4o sarà aperta ai clienti aziendali, nonché agli sviluppatori Tier 4 e Tier 5, e che i diritti di accesso saranno gradualmente estesi a tutti i livelli di utenti in futuro.


Per coloro che vogliono toccare con mano, OpenAI ha rilasciato una guida alla messa a punto, vedere:

https://platform.openai.com/docs/guides/fine-tuning/fine-tuning-examples


Alcuni netizen non sono ottimisti al riguardo. Stanno salvando i nostri dati per addestrare e migliorare i modelli di intelligenza artificiale.


"AKA, dammi i tuoi dati privati ​​e ti addebiterò una piccola tassa."


Casi d'uso dei Netizen

I netizen che hanno ottenuto le qualifiche non vedono l’ora di iniziare i test.

Gli sviluppatori hanno perfezionato gpt-4o mini utilizzando un set di dati del titolo in stile Economist.



Ha poi confrontato le prestazioni del modello originale gpt-4o, gpt-4o min e del modello perfezionato nella generazione dei titoli.


I modelli piccoli dominano l'elenco, paragonabili al GPT-4o

Una settimana dopo l'uscita del GPT-4o mini sono finalmente disponibili i risultati nella classifica dei modelli grandi.

Sono stati ricevuti più di 4.000 voti dagli utenti e il modello mini GPT-4o è salito direttamente in cima alla lista, a pari merito con GPT-4o.

La cosa più importante è che costa 20 volte meno!


Questa è una buona notizia per molti sviluppatori, che possono creare applicazioni più potenti a un costo inferiore.


Nella suddivisione matematica, le prestazioni di GPT-4o mini sono diminuite, classificandosi al 9° posto.


Inoltre, nella dura valutazione, GPT-4o mini ha mantenuto prestazioni stabili, secondo solo a GPT-4o e Claude 3.5 Sonnet.


Nel campo della codifica, GPT-4o mini mostra anche forti capacità.


Molte persone hanno sollevato domande sul perché GPT-4o mini si colloca così in alto nell'Arena.


La spiegazione ufficiale per questo è:

- Chatbot Arena viene valutata in base alle preferenze umane in diverse aree. Tutti sono incoraggiati a seguire non solo le classifiche generali, ma anche le classifiche di ciascuna categoria (ad esempio matematica, codifica, ecc.).

- La valutazione dell'arena viene effettuata in tempo reale. Tutti sono incoraggiati a confrontare i modelli di persona in Arena e verificare le loro ipotesi in tempo reale.

- La trasparenza è il nostro valore fondamentale; tutto il codice e l'analisi sono open source (http://github.com/lm-sys/FastChat). Rilasciamo regolarmente il 20% dei dati e conserviamo i dati rimanenti per evitare un adattamento eccessivo e mantenere l'integrità del benchmark.

- Rilasceremo dati casuali sulla mini battaglia GPT-4o del 20% in conformità con la politica e potrai controllare tu stesso le risposte.

Tuttavia, altri utenti della rete credono che la vittoria di gpt-4o-mini sia una prova sostanziale del fatto che la gente comune non è così intelligente.

E, per la prima volta nella storia, l’intelligenza artificiale è diventata abbastanza intelligente da ingannarci. Un po’ pazzo e un po’ storico.



Riferimenti:

https://x.com/moyix/status/1815840634013639086

https://x.com/HamelHusain/status/1815848198927434019

https://x.com/sama/status/1815877987696533897

https://x.com/0xSMW/status/1815869241205350641