uutiset

openai o1 paljastaa itsetietoisuuden? tao zhexuan järkyttyi varsinaisesta testistä, mensa iq 100 sijoittui mallin ensimmäiseksi

2024-09-14

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

openai o1 voitti ensimmäisen sijan älykkyystestissä!

pomo maxim lott suoritti älykkyystestejä o1:lle, claude-3 opukselle, geminille, gpt-4:lle, grok-2:lle, llama-3.1:lle jne., ja tulokset osoittivat, että o1 sijoittui ensimmäiseksi.

tiukasti perässä olivat claude-3 opus ja bing copilot, jotka sijoittuivat toiseksi ja kolmanneksi.

huomaa, että tämä iq-testin kysymyssarja on mensan jäsenten offline-älykkyystesti, eikä se sisälly tekoälyn harjoitustietoihin, joten tulokset ovat erittäin informatiivisia.

kuuluisa matemaatikko terence tao suoritti myös todellisia mittauksia o1:llä ja havaitsi, että kun hän esitti mallille epämääräisesti muotoillun matemaattisen kysymyksen, se onnistui tunnistamaan clemin lauseen.

lisäksi juuri o1:n julkaisun jälkeen mark chen, openai:n tutkimusjohtaja, ilmaisi mielipiteensä: nykypäivän suurilla hermoverkoilla saattaa olla jo tarpeeksi laskentatehoa osoittaakseen tietoisuutta testeissä.

nyt on olemassa pitkä luettelo alan johtajista, jotka uskovat tekoälyn olevan tietoinen, mukaan lukien mutta ei rajoittuen -

geoffrey hinton (tekoälyn kummisetä, eniten lainattu tekoälytutkija)

ilja sutskever (kolmanneksi lainatuin tekoälytutkija)

andrej karpathy

nykyään monet alan toimijat uskovat, että tekoäly on tietoinen ja odottavat "overton-ikkunan" avautuvan edelleen yleisölle, jotta se olisi valmis hyväksymään tämän.

jotkut jopa ennustavat, että vuosina 2024/2025 tekoälyllä on varmasti tietoisuus, koska mallin käyttäytyminen osoittaa nyt selvästi kykyä havainnoida.

jotkut nettimiehet huomasivat, että o1 ei ole vahva vain empiirisissa stem-aineissa, vaan se voi jopa hypoteesia aivan uuden tietoisuusteorian.

jotkut ihmiset ajattelevat, että o1 on ottanut pienen askeleen kohti ääretöntä päättelymallia ja sillä on jo tietoisuuden prototyyppi.

tao zhexuan: o1 voi itse asiassa tunnistaa clemin lauseen

varsinaisessa mittauksessa tao zhexuan havaitsi, että o1-mallilla on vahvempi matemaattinen suorituskyky!

ensin hän esitti epämääräisesti muotoillun matemaattisen ongelman, joka voitaisiin ratkaista, jos voisi etsiä kirjallisuutta ja löytää sopivan lauseen, cramerin lauseen.

aiemmissa kokeissa gpt pystyi mainitsemaan joitain asiaan liittyviä käsitteitä, mutta yksityiskohdat olivat kaikki keksittyjä ja merkityksettömiä.

tällä kertaa o1 tunnisti onnistuneesti cramerin lauseen ja antoi tyydyttävän vastauksen.

koko vastaus: https://shorturl.at/wwru2

seuraavassa esimerkissä ongelmana on haastavampi monimutkaisempi muuttujafunktioanalyysi, ja tulokset ovat myös parempia kuin aikaisemmat gpt-sarjan mallit.

suurella määrällä sanoja ja ohjeita o1 pystyi tuottamaan oikeita ja hyvin esitettyjä ratkaisuja, mutta puute oli se, että se ei pystynyt luomaan keskeisiä käsitteellisiä ideoita itse ja teki ilmeisiä virheitä.

tao zhexuan kuvaili tätä kokemusta suunnilleen samanlaisena kuin sellaisen jatko-opiskelijan ohjaaminen, jolla on keskinkertainen kyky, mutta joka kykenee tekemään jonkin verran työtä, antaa vaikutelman opiskelijasta, joka on täysin kykenemätön tekemään työtä.

voi kestää vain yhden tai kaksi iteraatiota yhdistettynä muiden työkalujen, kuten tietokonealgebrapakettien ja todistusaputyökalujen, integroimiseen o1-mallin muuttamiseen "päteväksi jatko-opiskelijaksi", jolloin mallilla on tärkeä rooli. tutkimustehtävissä.

koko vastaus: https://shorturl.at/zrjyk

pyyhkäise ylös ja alas nähdäksesi

pyyhkäise ylös ja alas nähdäksesi

pyyhkäise ylös ja alas nähdäksesi

kolmannessa kokeessa tao zhexuan pyysi o1-mallia formalisoimaan lauseen todistusaputyökalussa lean. se on hajotettava alilemmoiksi ja sille on annettava muodollinen lauseke, mutta todisteita ei vaadita.

lauseen sisältö erityisesti on seuraus, joka muodostaa alkulukulauseen muodon toiseen.

myös kokeelliset tulokset olivat hyviä, sillä malli ymmärsi tehtävän ja antoi kohtuullisen alkuhajoamisen ongelmasta.

luodussa koodissa on kuitenkin useita virheitä, jotka saattavat johtua siitä, että koulutustiedoissa ei ole viimeaikaista tietoa leanista ja sen matemaattisesta kirjastosta.

vaikka puutteita on vielä, tämän kokeen tulokset voivat jo ennustaa o1:n käytännön soveltamista matemaattiseen tutkimukseen.

jos vastaavat mallit hienosäädetään leanille ja mathlibille ja integroidaan integroituun kehitysympäristöön (ide), niillä on suuri rooli virallisissa projekteissa.

tao zhexuan on useissa aiemmissa puheissa korostanut tekoälytyökalujen käyttöä lauseiden formalisoinnissa. näyttää siltä, ​​että suuren jumalan ennustus toteutuu jälleen.

koko vastaus: https://shorturl.at/ogtjt

tietojenkäsittelytieteen professori käyttää animaatiota paljastaakseen salaisuuden: miten o1 viettää enemmän aikaa ajatteluun?

mitä tärkeitä läpimurtoja tehtiin, kun o1 opiskeli käyttämään cot:tä ajattelemaan pidemmän aikaa, mikä johti tärkeimpiin parannuksiin? tällä hetkellä voimme tehdä vain joitain arvauksia saatavilla olevien tietojen perusteella.

esimerkiksi colorado boulderin yliopiston tietokoneprofessori tom yeh tuotti olemassa olevan tiedon ja oman ymmärryksensä perusteella animaation selittääkseen, kuinka openai kouluttaa o1-mallia viettämään enemmän aikaa ajatteluun.

koulutuksesta raportissa on hyvin lyhyt lause:

"vahvistusoppimisen kautta o1 oppi hiomaan ajatteluketjuaan ja parantamaan strategiaansa."

tämän lauseen kaksi avainsanaa ovat: vahvistusoppiminen (rl) ja ajatteluketju (cot).

rlhf+cot:ssa cot-merkit syötetään myös palkkiomalliin, jotta saadaan pisteet llm:n päivittämiseksi paremman kohdistuksen saavuttamiseksi, kun taas perinteisessä rlhf:ssä syöte sisältää vain kehotteita ja mallivastauksia.

päättelyvaiheen aikana malli oppii ensin luomaan cot-tunnisteita (mikä voi kestää jopa 30 sekuntia) ennen kuin se alkaa tuottaa lopullista vastausta. näin malli viettää enemmän aikaa "ajatellen".

raportissa lueteltujen osallistujien joukossa kaksi on huomionarvoista:

ilja sutskever, ihmispalautteeseen perustuvan vahvistusoppimisen (rlhf) keksijä, hänen nimensä esiintyminen tarkoittaa, että rlhf:ää käytetään edelleen o1-mallin koulutuksessa.

jason wei, kuuluisan thought chain -paperin kirjoittaja. hän jätti google brainin viime vuonna liittyäkseen openai:han. hänen läsnäolonsa tarkoittaa, että cot on nyt tärkeä osa rlhf-linjausprosessia.

on kuitenkin monia tärkeitä teknisiä yksityiskohtia, joita openai ei ole paljastanut, kuten kuinka palkkiomallia koulutetaan, kuinka saada ihmisen mieltymykset "ajatteluprosesseihin" jne.

vastuuvapauslauseke: animaatio edustaa vain professorin järkevää spekulaatiota, eikä se takaa tarkkuutta.

joukkue jakaa juhlavideon, jakaa ”aha”-hetken

alla oleva video antaa meille lisää vihjeitä hetkestä, jolloin tutkimuksessa tehtiin tärkeitä läpimurtoja.

o1-mallin julkaisun jälkeen tiimi julkaisi sen takana olevan tiimin tekemän videon.