uutiset

Mistral AI kaksi peräkkäistä julkaisua: 7B matemaattiselle päättelylle omistettu, Mamba2-arkkitehtuurikoodin suuri malli

2024-07-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Koneen sydänraportti

Machine Heart -toimitusosasto

Netizenit ovat uteliaita, pystyykö Mathstral ratkaisemaan ongelman "kumpi on isompi, 9.11 vai 9.9?"

Eilen tekoälyympyrä valtasi yksinkertainen kysymys: "Kumpi on isompi, 9.11 vai 9.9?" Suuret kielimallit, mukaan lukien OpenAI GPT-4o, Google Gemini jne., kumosivat.





Tämä antaa meille mahdollisuuden nähdä, että suuret kielimallit eivät voi ymmärtää ja antaa oikeita vastauksia kuten ihmiset käsitellessään joitain numeerisia ongelmia.

Numeerisia ja monimutkaisia ​​matemaattisia ongelmia varten erikoistuneet mallit ovat erikoistuneempia.

Tänään ranskalainen suuri yksisarvinen Mistral AI julkaisi a7B-malli "Mathstral" keskittyy matemaattiseen päättelyyn ja tieteellisiin löytöihin, ratkaista edistyneitä matemaattisia ongelmia, jotka vaativat monimutkaista, monivaiheista loogista päättelyä.

Tämä malli on rakennettu Mistral 7B:lle, tukee 32 kt:n kontekstiikkunan pituutta ja noudattaa avoimen lähdekoodin Apache 2.0 -lisenssiä.

Mathstral rakennettiin ajatellen erinomaista suorituskyvyn ja nopeuden kompromissia, kehitysfilosofiaa, jota Mistral AI edistää aktiivisesti erityisesti hienosäätöominaisuuksillaan.



Samaan aikaan Mathstral on välttämätön malli, jota voidaan käyttää tai hienosäätää. Mallin painot on asetettu HuggingFaceen.

  • Mallin painot: https://huggingface.co/mistralai/mathstral-7B-v0.1

Alla oleva kaavio näyttää MMLU-suorituskykyeron Mathstral 7B:n ja Mistral 7B:n välillä aiheittain.

Mathstral saavuttaa huippuluokan päättelysuorituskyvyn mittakaavassaan useilla alan standardien vertailuarvoilla. Erityisesti MATH-tietojoukossa se saavutti 56,6 %:n läpäisyprosentin ja MMLU:n läpäisyprosentin 63,47 %.



Samaan aikaan Mathstralin läpäisyprosentti MATH:ssa (56,6 %) on yli 20 % korkeampi kuin Minerva 540B:n. Lisäksi Mathstral sai 68,4 % MATH:sta enemmistöäänestyksellä @64 ja 74,6 % palkkiomallilla.



Tämä tulos on myös saanut verkkovieraat kiinnostumaan siitä, pystyykö Mathstral ratkaisemaan ongelman "kumpi on isompi, 9.11 vai 9.9?"



Code Mamba: Codestral Mamba



  • Mallin painot: https://huggingface.co/mistralai/mamba-codestral-7B-v0.1

Yhdessä Mathstral 7B:n kanssa julkaistiin myös koodin luomiseen erityisesti käytetty Codestral Mamba -malli, joka käyttää Mamba2-arkkitehtuuria ja noudattaa myös Apache 2.0 avoimen lähdekoodin lisenssisopimusta. Tämä on ohjausmalli, jossa on yli 7 miljardia parametria, joita tutkijat voivat käyttää, muokata ja jakaa ilmaiseksi.

On syytä mainita, että Codestral Mamba on suunniteltu Mamban kirjoittajien Albert Gun ja Tri Daon avulla.

Transformer-arkkitehtuuri on aina tukenut puolta tekoälykentästä. Toisin kuin Transformerissa, Mamba-mallin etuna on lineaarinen aikapäättely ja se voi teoriassa mallintaa äärettömän pituisia sekvenssejä. Arkkitehtuurin avulla käyttäjät voivat olla vuorovaikutuksessa mallin kanssa laajasti ja nopeasti ilman syötteen pituuden rajoittamista. Tämä tehokkuus on erityisen tärkeää koodin luomisessa.

Vertailutesteissä Codestral Mamba ylitti kilpailevat avoimen lähdekoodin mallit CodeLlama 7B, CodeGemma-1.17B ja DeepSeek HumanEval-testissä.



Mistral testasi mallia, joka on saatavilla ilmaiseksi Mistralin la Plateforme API:lla ja pystyy käsittelemään jopa 256 000 tokenin syötteitä – kaksi kertaa enemmän kuin OpenAI:n GPT-4o.

Codestral Mamban julkaisun myötä jotkut verkkoyhteisöt ovat käyttäneet sitä VSCodessa, ja se on erittäin sujuvaa.