notizia

interpretazione|xiao yanghua: quale impatto porterà il modello o1 con un'abilità matematica di livello di dottorato?

2024-09-13

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

·l'abilità di ragionamento a livello di esperto non è una tattica di domande e risposte, richiede una forte capacità di pensiero. la difficoltà nell'addestrare capacità di ragionamento su modelli di grandi dimensioni è che un gran numero di processi di pensiero umano non vengono mai espressi, quindi i dati sul processo di pensiero sono estremamente scarsi. ha ipotizzato che openai questa volta dovrebbe utilizzare una grande quantità di dati sintetici.
·è sempre più difficile per gli esseri umani migliorare la loro comprensione dell'intelligenza artificiale per tenere il passo con la velocità di sviluppo dell'intelligenza artificiale. questa è un'enorme sfida di governance. gli esseri umani sono coloro che sbloccano la magia dell'intelligenza artificiale capacità, è probabile che ci saranno momenti in cui gli esseri umani non saranno in grado di attivare i suoi superpoteri perché sono oltre il livello della cognizione umana.
il nuovo modello o1 lanciato da openai ha potenti capacità di ragionamento. mappa visiva della cina
il 12 settembre, ora locale, openai ha lanciato una serie di modelli di nuova generazione o1. rispetto ai modelli precedenti, questo modello ha dimostrato forti capacità di ragionamento e ha funzionato come gli studenti di dottorato nella gestione di compiti di riferimento in fisica, chimica e biologia questa capacità è qualcosa che i modelli precedenti non avevano.
il 13 settembre, xiao yanghua, professore e supervisore del dottorato presso la scuola di informatica e tecnologia dell'università di fudan e direttore dello shanghai key laboratory of data science, ha dichiarato in un'intervista a the paper che l'emergere del modello o1 significa che le capacità di ragionamento dei modelli di grandi dimensioni possono raggiungere pienamente il livello degli esperti. può essere considerata una pietra miliare nel progresso dell'intelligenza artificiale, che migliorerà notevolmente l'applicazione dei modelli a livello aziendale.
ma ha anche ammesso che, man mano che le capacità intellettuali, percettive e razionali del modello continueranno a migliorare, supererà le capacità umane. è difficile prevedere quale impatto avrà l’intelligenza artificiale sugli esseri umani in futuro lo sviluppo supera ora la velocità della comprensione umana e la governance dell’intelligenza artificiale costituirà una sfida enorme", ha affermato xiao yanghua.
bravo a ragionare su compiti complessi, prestazioni simili a quelle di un dottorato di ricerca.
essendo un modello iniziale, il nuovo modello di inferenza o1 non dispone ancora completamente delle funzioni utilizzate da chatgpt, come la navigazione delle informazioni di rete, il caricamento di file e immagini, ecc. ma openai ha affermato che questo rappresenta un miglioramento significativo per compiti di ragionamento complessi e rappresenta un nuovo livello di capacità di intelligenza artificiale.
"attraverso la formazione, imparano a perfezionare i propri processi mentali, a provare diverse strategie e a riconoscere i propri errori. gli algoritmi di apprendimento per rinforzo su larga scala insegnano ai modelli come pensare in modo efficace utilizzando le loro catene di pensiero durante il processo di formazione, e il modello o1 può pensare prima." rispondere all'utente generare una lunga catena interna di pensieri. con più apprendimento per rinforzo e più tempo per pensare, le prestazioni di o1 continuano a migliorare. impara a scomporre i passaggi complicati in passaggi più semplici. quando il metodo attuale non funziona, prova un approccio diverso.
il nuovo modello di inferenza o1 eccelle in matematica e programmazione, eccellendo nella generazione accurata e nel debug di codici complessi. openai ha valutato le prestazioni matematiche del modello nell'aime (american mathematics invitational competition). nell'esame aime del 2024, gpt-4o ha risolto in media solo il 12% (1,8/15) dei problemi. per un singolo campione di ciascun problema, o1 ha ottenuto una media di 74 %(11,1/15). nell’esame di qualificazione delle olimpiadi internazionali di matematica (imo), gpt-4o ha risolto correttamente solo il 13% dei problemi, mentre il nuovo modello di ragionamento ha ottenuto l’83%.
il nuovo modello può ragionare su compiti complessi, eseguendo come uno studente di dottorato su compiti di riferimento in fisica, chimica e biologia. openai ha effettuato benchmark dei diamanti gpqa in chimica, fisica e biologia. per confrontare il modello con gli esseri umani, sono stati reclutati esperti con dottorato di ricerca per rispondere insieme alle domande.
"abbiamo scoperto che o1 ha sovraperformato quelli degli esperti umani, diventando il primo modello a farlo su questo benchmark. questi risultati non significano che o1 sia più capace dei dottorandi in tutti gli aspetti, ma solo che il modello è migliore nel risolvere le esigenze dei dottorandi. ricercatori sanitari può utilizzare o1 per annotare i dati di sequenziamento delle cellule, i fisici possono utilizzare o1 per generare le complesse formule matematiche necessarie per l'ottica quantistica e può essere utilizzato dagli sviluppatori in tutti i campi, ha affermato openai o1 per creare ed eseguire flussi di lavoro in più fasi.
le capacità di ragionamento fondamentali miglioreranno notevolmente gli effetti dell'applicazione
"il precedente modello linguistico di grandi dimensioni somigliava più a uno studente di materie umanistiche ed è ancora lontano dal livello di uno studente di scienze. ma la capacità fondamentale dell'intelligenza umana è pensare e pensare. il nuovo modello di ragionamento openai serie o1 mostra il processo di pensiero umano. " xiao yanghua ha affermato: l'essenza del nuovo modello di inferenza o1 è ancora un modello linguistico di grandi dimensioni, ma sfrutta appieno il potenziale del modello di grandi dimensioni. in passato, la capacità di generare modelli di grandi dimensioni era determinata dal corpus, che era come "avere familiarità con trecento poesie tang, e puoi recitarle anche se non sai come comporle". tuttavia, la capacità di ragionamento a livello di esperto non è una tattica di domande e risposte, richiede una forte capacità di pensiero. la difficoltà nell'addestrare capacità di ragionamento su modelli di grandi dimensioni è che un gran numero di processi di pensiero umano non vengono mai espressi, quindi i dati sul processo di pensiero sono estremamente scarsi. ha ipotizzato che openai questa volta dovrebbe utilizzare una grande quantità di dati sintetici.
"openai ha un chiaro vantaggio di chi fa la prima mossa. il suo modello di base è più forte, raccoglie molti dati sui processi di pensiero, seleziona e sintetizza una grande quantità di dati di pensiero di alta qualità e ha forti capacità di valutazione. quali processi di ragionamento sono corretti e quali processi di ragionamento sono sbagliati, il che richiede l'uso dell'apprendimento per rinforzo è essenzialmente un processo di esplorazione, tentativi ed errori. se non funziona, prova un altro metodo." xiao yanghua lo ha detto con l'aiuto di con queste tecnologie e dati, openai ha reso il modello di grandi dimensioni un vero e proprio studente di scienze nel senso che ha raggiunto il livello di esperto.
chen yunwen, presidente di daguan data, ha affermato che i modelli precedenti non erano in grado di calcolare problemi matematici complessi e avanzati e che o1 ha potenziato le capacità matematiche e di ragionamento, il che rappresenta un grande miglioramento. tuttavia, il miglioramento delle capacità matematiche non significa che il paradigma di ricerca e sviluppo dei modelli di grandi dimensioni abbia subito cambiamenti essenziali, ma ha solo indirizzato miglioramenti verso le carenze precedenti.
secondo xiao yanghua, l'emergere di o1 non è stato inaspettato: "in effetti, abbiamo pensato molto presto che i modelli di grandi dimensioni avrebbero avuto capacità emotive e razionali più forti. ciò che era inaspettato era che non ci aspettavamo di vederlo così presto qui, e l'effetto è davvero sorprendente." crede che in futuro openai potrebbe differenziarsi in molti modelli di grandi dimensioni che sono bravi a fare cose diverse sulla base del modello di grandi dimensioni generale.
ad esempio, le versioni precedenti di gpt-4 avevano familiarità con tutte le conoscenze e i fatti e enfatizzavano le capacità intellettuali; gpt-4o enfatizzava l'interazione multimodale e enfatizzava le capacità percettive; il miglioramento della razionalità del modello consentirà all’industria to b di inaugurare uno sviluppo straordinario. "il problema più grande e il collo di bottiglia di to b risiedono nelle capacità di ragionamento dei modelli di grandi dimensioni. l'emergere del nuovo modello di inferenza della serie o1 significa che molti problemi nel settore to b potranno essere notevolmente alleviati in futuro."
le sfide poste dal rapido sviluppo dell’intelligenza artificiale
"openai è davvero potente. sebbene la tabella di marcia tecnica di openai finora non abbia superato l'ambito della conoscenza, conosciamo tutti la direzione di sviluppo di modelli di grandi dimensioni, inclusa la multimodalità e capacità di ragionamento migliorate, ma solo openai l'ha rapidamente trasformata in realtà. formano modelli di grandi dimensioni esattamente allo stesso modo degli esseri umani. hanno idee molto forti sullo sviluppo intellettuale e cognitivo umano e hanno una comprensione molto chiara della crescita e dell'evoluzione umana. finora non hanno trovato alcun passo sbagliato. " spiegare.
openai presenta evidenti vantaggi per chi fa la prima mossa. per quanto riguarda lo sviluppo di modelli domestici su larga scala, "i vantaggi di openai sono tutti svantaggi per noi. dobbiamo calmarci e recuperare lentamente. c'è solo il primo nel percorso generale dell'intelligenza artificiale, non il secondo. ." tuttavia, nel lungo periodo, xiao yanghua ha affermato che esiste un tetto per il miglioramento delle capacità individuali dei modelli di grandi dimensioni. perché i dati originali reali degli esseri umani sono limitati e la velocità di produzione è lenta. "attualmente openai utilizza dati umani per sintetizzare nuovi dati per migliorare le capacità di ragionamento. tuttavia, i dati sintetici sono limitati dai dati originali. non può sintetizzare dati infiniti, né può ottenere dati essenzialmente nuovi. per questo motivo non può inventare nuovi soggetti. proporre una nuova teoria come einstein. "in termini di hardware, il ragionamento richiede meno potenza di calcolo dell'addestramento, ma a causa dell'estensione della catena di pensiero, i requisiti per l'efficienza del ragionamento diventano più elevati, il che comporta requisiti più elevati per l'accelerazione e l'ottimizzazione del processo. processo di ragionamento.
tuttavia, poiché i modelli di grandi dimensioni sono migliorati sotto molti aspetti, hanno comportato sfide per la governance. la sfida è che la loro comprensione umana non è migliorata con la stessa rapidità con cui si è sviluppata.
il filosofo kant ha diviso il processo cognitivo umano in tre fasi: percettiva, intellettuale e razionale. al giorno d’oggi, la sensibilità, l’intelligenza e la razionalità dei grandi modelli stanno migliorando e probabilmente supereranno gli esseri umani. pochissime persone possono essere forti in queste tre capacità cognitive.
"attualmente o1 ha raggiunto il livello di uno studente di dottorato. in futuro, raggiungere il livello di uno scienziato sarà solo un processo per ottenere cambiamenti quantitativi. gli esseri umani cadranno gradualmente nel punto cieco cognitivo dello sviluppo dell'intelligenza artificiale. per ad esempio, cosa significa l'attuale capacità di ragionamento dei modelli di grandi dimensioni? può davvero essere utilizzata nell'intelligenza artificiale? la percentuale di persone al di sopra del livello di conoscenza diventerà sempre più piccola quasi nessuno al mondo potrà raggiungere il dottorato. livello in matematica, fisica, chimica o matematica. quanti di noi sono in grado di comprendere, riconoscere e controllare l'intelligenza artificiale? ", ha detto xiao yanghua, gli esseri umani sono attualmente a livello di dottorato. manca la struttura cognitiva di base dell'intelligenza artificiale. questo è un enorme problema. la sfida della governance. argomenti come l'occupazione, l'economia, l'etica e le relazioni sociali susciteranno un ampio dibattito. "gli esseri umani sono gli sbloccatori della magia dell'intelligenza artificiale. se l'intelligenza artificiale ha abilità sovrumane, è probabile che siano superpoteri che gli esseri umani non possono attivare perché sono oltre il livello della cognizione umana”.
il giornalista del giornale zhang jing
(questo articolo è tratto da the paper. per informazioni più originali, scarica l'app “the paper”)
segnalazione/feedback