uutiset

o1 äkillinen sisäpiirialtistuminen? google paljasti periaatteen aiemmin. suurille malleille ei ole olemassa pelkkä ohjelmisto.

2024-09-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

mingmin tulee aofein temppelistä

qubits |. julkinen tili qbitai

alle viikko sen julkaisun jälkeen openai:n vahvimman mallin o1:n vallihauta on poissa.

joku huomasi, että google deepmindin elokuussa julkaisema paperi paljasti periaatteen ja kuinka o1 toimii.lähes yksimielisesti

tämä tutkimus osoittaa, että testiaikalaskelmien lisääminen on tehokkaampaa kuin malliparametrien laajentaminen.

paperissa ehdotetun laskentaoptimaalisen testiajan laskennan laajennusstrategian perusteella pienempi perusmalli voi joissain tehtävissä ylittää yhden.14 kertaa suurempimalli.

netizens sanoi:

tämä on melkein o1:n periaate.

kuten me kaikki tiedämme, ultraman haluaa olla googlea edellä, joten siksikö o1 julkaisi esikatseluversion ensimmäisenä?

jotkut ihmiset valittivat tätä:

todellakin, kuten google itse sanoi, kenelläkään ei ole vallihauta, eikä kenelläkään tule koskaan olemaan vallihauta.

juuri nyt openai lisäsi o1-minin nopeutta 7 kertaa ja voi käyttää 50 kohdetta päivässä o1-preview mainitsi 50 kohdetta viikossa.

säästä 4 kertaa laskennan summa

tämän google deepmind -paperin otsikko on:llm-testausta optimoitaessa laskenta on tehokkaampaa kuin mallin parametriasteikon laajentaminen.

tutkimusryhmä laajeni inhimillisistä ajattelumalleista koska ihmisten ajattelu ja päätösten parantaminen kestävät pidempään, kun he kohtaavat monimutkaisia ​​ongelmia, voiko sama olla paikkansa myös llm:ssä?

toisin sanoen, voiko llm monimutkaisen tehtävän edessä hyödyntää tehokkaammin testauksen aikana tehtäviä lisälaskelmia tarkkuuden parantamiseksi.

jotkut aiemmat tutkimukset ovat osoittaneet, että tämä suunta on todellakin toteutettavissa, mutta vaikutus on suhteellisen rajallinen.

joten tämä tutkimus halusi selvittää, kuinka paljon mallin suorituskykyä voidaan parantaa, kun käytetään suhteellisen vähän ylimääräisiä päätelmälaskelmia?

he suunnittelivat joukon kokeita testatakseen math-aineistoa käyttämällä palm2-s*:ta.

pääasiassa analysoidaan kahta menetelmää:

(1) iteratiivinen itsetarkistus: anna mallin yrittää vastata kysymykseen useita kertoja ja tarkistaa sitä jokaisen yrityksen jälkeen saadakseen paremman vastauksen.
(2) haku: tässä lähestymistavassa malli luo useita ehdokasvastauksia,

voidaan nähdä, että itsetarkistusmenetelmää käytettäessä laskennan määrän kasvaessa testauksen aikana ero standardin paras-of-n-strategian (best-of-n) ja laskennallisesti optimaalisen laajennusstrategian välillä levenee vähitellen.

hakumenetelmän käyttäminen optimaalisen laajennusstrategian laskemiseen osoittaa selviä etuja jo alkuvaiheessa. tietyissä olosuhteissa se voi saavuttaa saman vaikutuksen kuin paras n-strategia,laskelman määrä on vain 1/4 siitä

harjoittelua edeltäviin laskelmiin verrattavissa olevien flop-arvojen yhteensopivuusarvioinnissa 14x suurempaa esikoulutettua mallia (ilman lisäpäätelmiä) verrataan palm 2-s* -malliin (käyttäen laskennallisesti optimaalista strategiaa).

todettiin, että itsetarkistusmenetelmää käytettäessä, kun päättelymerkit ovat paljon pienempiä kuin esiharjoittelun merkit, testiajan laskentastrategian käytön vaikutus on parempi kuin esiharjoitteluvaikutus. mutta kun suhde kasvaa tai vaikeissa ongelmissa, esikoulutus toimii silti paremmin.

eli molemmissa tapauksissa avain laskettaessa, onko laajennusmenetelmä kelvollinen erilaisten testien mukaanvinkki vaikeus

tutkimuksessa verrattiin edelleen erilaisia ​​liikuntarajoitteisten henkilöiden hakumenetelmiä, ja tulokset osoittivat, että eteenpäinhaku (äärioikealla) vaatii enemmän laskelmia.

kun laskennan määrä on pieni, laskentaoptimaalista strategiaa käyttämällä voidaan säästää jopa 4 kertaa resursseja.

vertaamalla openai:n o1-mallia tämä tutkimus antaa melkein saman johtopäätöksen.

o1-malli oppii jalostamaan ajatteluprosessiaan, kokeilemaan erilaisia ​​strategioita ja tunnistamaan virheensä. ja lisää vahvistusoppimista (laskettu harjoituksen aikana) ja enemmän ajatteluaikaa (laskettu testauksen aikana), o1:n suorituskyky paranee edelleen.

openai julkaisi kuitenkin mallin nopeammin, kun taas google käyttää palm2:ta eikä ole julkaissut päivitystä gemini2:lle.

netizen: onko vallihauta vain laitteistosta kiinni?

tällaiset uudet havainnot muistuttavat väistämättä ihmisiä googlen viime vuonna sisäisissä asiakirjoissa esitetyistä näkemyksistä:

meillä ei ole vallihauta, eikä myöskään openai:lla. avoimen lähdekoodin malli voi voittaa chatgpt:n.

nykyään jokainen tutkimusnopeus on erittäin nopea, eikä kukaan voi taata, että ne ovat aina edellä.

ainoa vallihauta voi olla laitteisto.

(joten musk aikoo rakentaa laskentakeskuksen?)

jotkut sanovat, että nvidia hallitsee nyt suoraan, kenellä on enemmän laskentatehoa. mitä sitten tapahtuu, jos google/microsoft kehittää mukautetun sirun, joka toimii paremmin?

on syytä mainita, että openai:n ensimmäinen siru paljastettiin jokin aika sitten ja se käyttää tsmc:n edistyneintä a16-angstrom-tason prosessia ja on erityisesti rakennettu sora-videosovelluksiin.

on selvää, että suurilla mallitaistelukentillä pelkkä mallin rullaaminen ei enää riitä.

viitelinkit:
https://www.reddit.com/r/singularity/comments/1fhx8ny/deepmind_understands_strawberry_there_is_no_moat/