uutiset

Ei ole väliä missä et osaa skannata! Pelaa maailman tehokkainta matemaattista mallia verkossa Alibaban multimodaalisten mallien tukemana

2024-08-20

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Talo on peräisin Aofein temppelistä
Qubits |. Julkinen tili QbitAI

Nyt jokainen voi leikkiä tehokkaimmalla suuren mittakaavan matemaattisella mallilla!

Kun heräsin, Alibaba Qianwen Big Model Team julkaisi Qwen2-Math-demon.Hug Facea voi pelata verkossa

Yllättävää kyllä, jos matemaattisten kaavojen syöttäminen tuntuu hankalalta,Voit ottaa kuvakaappauksen tai skannata kysymyksen, jonka haluat kysyä, ja lähettää sen ratkaistaksesi ongelman.

Se on varsin kätevää.



Kokeilurajapinnassa todetaan selvästi: "Alibaba Qianwenin suuri mallitiimi Qwen2-VL tukee tämän kokeiluliittymän OCR-toimintoa; Qwen2-Math tukee matemaattista päättelykykyä."

Alibaban vanhempi algoritmiasiantuntija Lin Junyang selitti myös tarkemmin Twitterin kommenttialueella:

Tällä hetkellä Qwen2-VL ja Qwen2-Math vastaavat edelleen omista osistaan.
Mutta lähitulevaisuudessa yhdistämme multimodaaliset ominaisuudet ja matemaattiset päättelyominaisuudet yhdeksi malliksiTule.



Monet verkkokäyttäjät ovat erittäin innostuneita tästä interaktiivisesta mallista:

Varo hyvä! Käytä kuvia lataamiseen ja odota, että iso malli ratkaisee ongelman, rakasta sitä!



Miten Qwen2-Mathin, tehokkaimman matemaattisen mallin, käytön aloittaminen vaikuttaa?

Mikä on vaikutus? Pelaa nyt vain

Qwen2-Mathin on aika ylittää viisi tasoa ja kukistaa kuusi kenraalia!

Aloitetaan muutamalla suhteellisen yksinkertaisella laskentakysymyksellä, jotta pääset alkuun.

Selitän etukäteen, että kahden ihmisen kokemuksen aikana Qwen2-Math ei näyttänyt laskutoimitusta samanaikaisesti, vaan näytti suoraan prosessin ja tulokset laskennan jälkeen.

(Ja pitäisi olla, että yhä useammat ihmiset alkavat pelata, ja tulosten generointiaika pitenee vähitellen)

Kysymys 1:Kohdassa "Laske AxA+A=240" A:n arvo.

Qwen2-Math antaa oikean vastauksen, A=14 tai A=-16.



Toinen kysymys:Kun a:n arvo on annettu, laske yhtälön tulos.

Qwen2-Math laski, että vastaus on 0, mikä on myös oikein.



Kysymys 3:(A+3) (A+4) (A+5) = 120, laske A:n arvo.

Bingo! Vastaus on 1.



OK, lämmittely on ohi, tehdään Qwen2-Mathille vaikeuksia.

Katsotaanpa sitten jotain, joka on jo vakiona (matemaattisissa) suurissa mallien arvioinneissa:

Kumpi on isompi, 9.9 vai 9.11?



Qwen2-Math vastaa luottavaisesti:

9.9 on suurempi kuin 9.11!



Tee siitä sitten vaikeampaa!

Esitä kysymys, johon vain GPT-4o on toistaiseksi vastannut oikein:

Kun muukalainen tulee maan päälle, hän voi päättää suorittaa yhden seuraavista neljästä asiasta:
1. Itsetuho;
2. Jakaudu kahteen muukalaiseen;
3. Jakaudu kolmeen muukalaiseen;
4. Älä tee mitään.
Joka päivä sen jälkeen jokainen muukalainen tekee valinnan toisistaan ​​riippumatta.
Selvitä todennäköisyys, että maapallolla ei lopulta ole avaruusolentoja.

Tähän kysymykseen Qwen2-Math kesti noin 30 sekuntia vastatakseen: 1.

Valitettavasti vastaus on väärä. Oikea vastaus on √2 miinus 1.



Selailimme tärkeimpien alustojen kommenttialueita ja havaitsimme, että laskentavirheiden lisäksi on toinenkin mahdollisuus, joka voi johtaa vääriin vastauksiin...

Se on Qwen2-VLAihetta määritettäessä jokin meni pieleen.

Virhe on ensimmäisessä vaiheessa. Tässä tapauksessa suurella mallilla saatu vastaus ei varmasti ole oikea vastaus.



Samaan aikaan Lin Junyang sanoi myös nettikäyttäjien kommenttialueella:

Meidän Qwen2-MathEn osaa vielä tehdä geometriaongelmia



Voit myös esittää kysymyksiä kiinaksi

Tällä kertaa päähenkilö, Qwen2-Math, on kehitetty Tongyi Qianwenin avoimen lähdekoodin suuren kielimallin Qwen2 pohjalta, ja Alibaba Qianwenin suuri mallitiimi julkaisi sen kymmenen päivää sitten.

Se on erityisesti suunniteltu matemaattisten ongelmien ratkaisemiseen ja voi ratkaista kilpailutason testikysymyksiä.

Qwen2-Mathilla on yhteensä kolme parametriversiota:

72B, 7B ja 1.5B.



Qwen2-Math-72B:n perusteella Qianwen-tiimi hienosääsi myös Instruct-versiota.

Tämä on myös Qwen2-Mathin lippulaivamalli. Se on matematiikkaspesifinen palkkiomalli, joka yhdistää palkkiosignaalin oikean tai väärän tuomion signaaliin oppimistunnisteena ja muodostaa sitten valvottua hienosäätöä (SFT) hylkäysnäytteen avulla. ja lopuksi käyttää SFT-malliin perustuvaa GRPO:ta.

Qwen2-Math-72B-Instruct käsittelee erilaisia ​​matemaattisia ongelmia, kuten algebraa, geometriaa, laskentaa ja todennäköisyyksiä sekä lukuteoriaa 84 %:n tarkkuudella.

Ja heti kun se julkaistiin, se "valtaistui" suurissa matemaattisissa malleissa saaden 7 pistettä enemmän kuin GPT-4o MATH-tietojoukossa, mikä on 9,6 % suurempi suhteessa.

Ylittää suoraan avoimen lähdekoodin Llama 3.1-405B ja suljetun lähdekoodin GPT-4o, Claude 3.5 jne.



Lehdistöaikaan mennessä Qwen2-Math-72B-Instruct on ladattu yli 13,2 000 kertaa.

Ja siellä on uusin löytö:

Vaikka tiimi väittää, että Qwen2-Math on tällä hetkellä suunnattu pääasiassa englantilaisiin kohtauksiin,Jos kysyt kiinalaisen kysymyksen, Qwen2-Math voi silti vastata siihen.

Vastaan ​​sinulle vain englanniksi.

On selvää, että Qwen2-MathKaksikielinen kiina- ja englanninkielinen versio julkaistaan ​​myöhemmin

Viitelinkit:
[1]https://huggingface.co/spaces/Qwen/Qwen2-Math-Demo
[2]https://x.com/Alibaba_Qwen/status/1825559009497317406
[3]https://x.com/JustinLin610/status/1825559557411860649