2024-09-06
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
alkuperäinen nimi: deepseek ai -mallin päivitys julkaistu versioon 2.5: coderin ja chatin yhdistäminen, ihmisten mieltymysten kohdistaminen, kirjoitustehtävien ja ohjeiden seuraamisen optimointi jne.
it house raportoi 6. syyskuuta, että deepseek coder v2:n ja deepseek v2 chatin kaksi mallia on yhdistetty ja päivitetty, ja päivitetty uusi malli on deepseek v2.5.
lähde: kuvakaappaus linux.do-foorumilta
deepseek päivitti virallisesti api-tukidokumentaation eilen (5. syyskuuta) ja ilmoitti deepseek coder v2- ja deepseek v2 chat -mallien yhdistämisestä, päivittämisestä ja uuden deepseek v2.5 -mallin julkaisemisesta.
virallisesti ilmoitettu eteenpäin yhteensopivaksi, api-käyttäjät voivat käyttää uutta mallia deepseek-kooderin tai deepseek-chatin kautta.
uusi malli ylittää huomattavasti vanhan version kaksi mallia yleisominaisuuksiltaan ja koodausominaisuuksiltaan.
uusi malli sovittaa paremmin ihmisten mieltymyksiä ja on optimoitu monissa asioissa, kuten kirjoitustehtävissä ja seuraavissa ohjeissa:
arenahardin voittoprosentti nousi 68,3 prosentista 76,3 prosenttiin
alpacaeval 2.0 lc winrate nousi 46,61 %:sta 50,52 %:iin
mt-benchin tulos nousi 8,84:stä 9,02:een
alignbenchin tulos nousi 7,88:sta 8,04:ään
uusi malli parantaa entisestään koodin luontiominaisuuksia alkuperäisen coder-mallin perusteella, optimoi yleiset ohjelmointisovellusskenaariot ja saavuttaa seuraavat tulokset vakiotestisarjalla:
humaneval: 89 %
livecodebench (tammi-syyskuu): 41 %
it home huomautus:deepseek ai -mallin lanseerasi hangzhou deepseek artificial intelligence, vuonna 2023 perustettu yritys.
virallinen esittely on seuraava:
keskity maailman johtavien yleisen tekoälyn taustalla olevien mallien ja teknologioiden tutkimukseen ja haasta tekoälyn huippuongelmia. perustuen resursseihin, kuten itse kehitettyyn koulutuskehykseen, itse rakennettuihin älykkäisiin laskentaklustereihin ja wankan laskentatehoon, deepseek-tiimi on julkaissut ja avannut lähdekoodin useita suuria malleja, joissa on kymmeniä miljardeja parametreja vain puolessa vuodessa, kuten deepseek-llm yleinen kielimalli, deepseek-coder-koodin suurmalli ja tammikuussa 2024 se otti johtoaseman maan ensimmäisen suuren moe-mallin (deepseek-moe) avoimessa hankinnassa. jokaisen suuren mallin yleistysvaikutukset ylittävät saman tason julkisissa arviointilistoissa ja oikeissa näytteissä mallin erinomainen suorituskyky.