समाचारं

deepseek ai मॉडल उन्नयनेन संस्करणं 2.5 प्रारभ्यते: coder तथा chat इत्येतयोः विलयः, मानवीयप्राथमिकतानां संरेखणं इत्यादि।

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

मूलशीर्षकं: deepseek ai मॉडल उन्नयनं संस्करणं 2.5 प्रति प्रारब्धम्: कोडरस्य चैट् च विलयनं, मानवीयप्राथमिकतानां संरेखणं, लेखनकार्यस्य अनुकूलनं निर्देशानुसरणं च इत्यादयः।

it house इत्यनेन ६ सितम्बर् दिनाङ्के ज्ञापितं यत् deepseek coder v2 तथा deepseek v2 chat इत्येतयोः द्वयोः मॉडलयोः विलयः उन्नयनं च कृतम्, उन्नयनं कृतं नूतनं मॉडलं deepseek v2.5 इति

स्रोतः : linux.do मञ्चस्य नेटिजन्स् इत्यस्मात् स्क्रीनशॉट्

deepseek इत्यनेन कालः (सितम्बर् ५) आधिकारिकतया एपिआइ समर्थनदस्तावेजं अद्यतनं कृत्वा deepseek coder v2 तथा deepseek v2 chat मॉडल् इत्येतयोः विलयस्य घोषणा कृता, नूतनं deepseek v2.5 नूतनं मॉडलं उन्नयनं कृत्वा प्रारम्भं कृतम्

आधिकारिकतया अग्रे संगतम् इति उक्तं एपिआइ उपयोक्तारः deepseek-coder अथवा deepseek-chat इत्यस्य माध्यमेन नूतनं मॉडलं प्राप्तुं शक्नुवन्ति ।

सामान्यक्षमतायाः कोडिंग् क्षमतायाः च दृष्ट्या नूतनं प्रतिरूपं पुरातनसंस्करणस्य द्वयोः आदर्शयोः महत्त्वपूर्णतया अतिक्रमति ।

नूतनं प्रतिरूपं मानवीयप्राथमिकताम् उत्तमरीत्या संरेखयति तथा च लेखनकार्यं तथा निर्देशं निम्नलिखितम् इत्यादिषु अनेकपक्षेषु अनुकूलितं भवति:

एरिनाहार्ड विन्रेट् ६८.३% तः ७६.३% यावत् वर्धितः ।

alpacaeval 2.0 lc winrate 46.61% तः 50.52% यावत् वर्धितः ।

एमटी-बेन्च् स्कोरः ८.८४ तः ९.०२ यावत् वर्धितः

alignbench स्कोरः ७.८८ तः ८.०४ यावत् वर्धितः

नूतनं प्रतिरूपं मूलकोडरप्रतिरूपस्य आधारेण कोडजननक्षमतासु अधिकं सुधारं करोति, सामान्यप्रोग्रामिंगअनुप्रयोगपरिदृश्यानां अनुकूलनं करोति, मानकपरीक्षासमूहे च निम्नलिखितपरिणामान् प्राप्नोति:

मानवसमकालीनः ८९% २.

livecodebench (जनवरी-सितम्बर): 41%

it home note:डीपसीक् एआइ मॉडल् २०२३ तमे वर्षे स्थापितायाः कम्पनीयाः हाङ्गझौ डीपसीक् आर्टिफिशियल इन्टेलिजेन्स् इत्यनेन प्रारब्धम् ।

आधिकारिकपरिचयः निम्नलिखितरूपेण अस्ति ।

विश्वस्य प्रमुखसामान्यकृत्रिमबुद्धेः अन्तर्निहितप्रतिमानानाम् प्रौद्योगिकीनां च शोधं कर्तुं केन्द्रीक्रियताम्, कृत्रिमबुद्धौ अत्याधुनिकसमस्यानां च चुनौतीं ददातु। स्वविकसितप्रशिक्षणरूपरेखा, स्वनिर्मिताः बुद्धिमान् कम्प्यूटिंगक्लस्टराः, वाङ्कागणनाशक्तिः इत्यादीनां संसाधनानाम् आधारेण deepseek-दलेन केवलं अर्धवर्षे एव दश-अर्ब-मापदण्डैः सह बहुविध-बृहत्-परिमाणस्य मॉडल्-विमोचनं मुक्त-स्रोतं च कृतम्, यथा deepseek-llm सामान्यभाषाप्रतिरूपं, deepseek-coder कोड बृहत् मॉडलं, तथा च जनवरी २०२४ तमे वर्षे देशस्य प्रथमस्य बृहत् moe मॉडलस्य (deepseek-moe) मुक्त-स्रोतीकरणे अग्रणीः अभवत् सार्वजनिकमूल्यांकनसूचिकासु तथा वास्तविकनमूनेषु आदर्शस्य उत्तमं प्रदर्शनम्।