uutiset

deepseek ai -mallin päivitys julkaisee version 2.5: coderin ja chatin yhdistäminen, ihmisten mieltymysten yhdenmukaistaminen jne.

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

alkuperäinen nimi: deepseek ai -mallin päivitys julkaistu versioon 2.5: coderin ja chatin yhdistäminen, ihmisten mieltymysten kohdistaminen, kirjoitustehtävien ja ohjeiden seuraamisen optimointi jne.

it house raportoi 6. syyskuuta, että deepseek coder v2:n ja deepseek v2 chatin kaksi mallia on yhdistetty ja päivitetty, ja päivitetty uusi malli on deepseek v2.5.

lähde: kuvakaappaus linux.do-foorumilta

deepseek päivitti virallisesti api-tukidokumentaation eilen (5. syyskuuta) ja ilmoitti deepseek coder v2- ja deepseek v2 chat -mallien yhdistämisestä, päivittämisestä ja uuden deepseek v2.5 -mallin julkaisemisesta.

virallisesti ilmoitettu eteenpäin yhteensopivaksi, api-käyttäjät voivat käyttää uutta mallia deepseek-kooderin tai deepseek-chatin kautta.

uusi malli ylittää huomattavasti vanhan version kaksi mallia yleisominaisuuksiltaan ja koodausominaisuuksiltaan.

uusi malli sovittaa paremmin ihmisten mieltymyksiä ja on optimoitu monissa asioissa, kuten kirjoitustehtävissä ja seuraavissa ohjeissa:

arenahardin voittoprosentti nousi 68,3 prosentista 76,3 prosenttiin

alpacaeval 2.0 lc winrate nousi 46,61 %:sta 50,52 %:iin

mt-benchin tulos nousi 8,84:stä 9,02:een

alignbenchin tulos nousi 7,88:sta 8,04:ään

uusi malli parantaa entisestään koodin luontiominaisuuksia alkuperäisen coder-mallin perusteella, optimoi yleiset ohjelmointisovellusskenaariot ja saavuttaa seuraavat tulokset vakiotestisarjalla:

humaneval: 89 %

livecodebench (tammi-syyskuu): 41 %

it home huomautus:deepseek ai -mallin lanseerasi hangzhou deepseek artificial intelligence, vuonna 2023 perustettu yritys.

virallinen esittely on seuraava:

keskity maailman johtavien yleisen tekoälyn taustalla olevien mallien ja teknologioiden tutkimukseen ja haasta tekoälyn huippuongelmia. perustuen resursseihin, kuten itse kehitettyyn koulutuskehykseen, itse rakennettuihin älykkäisiin laskentaklustereihin ja wankan laskentatehoon, deepseek-tiimi on julkaissut ja avannut lähdekoodin useita suuria malleja, joissa on kymmeniä miljardeja parametreja vain puolessa vuodessa, kuten deepseek-llm yleinen kielimalli, deepseek-coder-koodin suurmalli ja tammikuussa 2024 se otti johtoaseman maan ensimmäisen suuren moe-mallin (deepseek-moe) avoimessa hankinnassa. jokaisen suuren mallin yleistysvaikutukset ylittävät saman tason julkisissa arviointilistoissa ja oikeissa näytteissä mallin erinomainen suorituskyky.