समाचारं

लघुतरस्य अधिकशक्तिशालिनः च GPT-4o mini इत्यस्य पृष्ठतः AI मॉडल् इत्यस्य भविष्यं तावत् बृहत्तरं श्रेष्ठं नास्ति

2024-07-27

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

गतसप्ताहे OpenAI रात्रौ विलम्बेन महतीं चालनं मुञ्चतु,GPT-4o मिनी GPT-3.5 Turbo इत्यस्य सेवानिवृत्तितः बहिः कृतवान्, अपि च बृहत् मॉडलक्षेत्रे LMSYS इत्यत्र GPT-4 इत्येतत् अतिक्रान्तवान् ।
अस्मिन् सप्ताहे मेटा प्रदर्शितम् बृहत् मॉडल् कृते यदि प्रथमस्य एशेलोनस्य 405B आकारः अद्यापि अपेक्षितः अस्ति तर्हि नूतनसंस्करणानाम् 8B तथा 70B आकारः अधिकं आश्चर्यं आनयति ।
तथा च एषः लघुप्रतिरूपस्पर्धायाः अन्तः न भवेत्, परन्तु अधिकतया नूतनः आरम्भबिन्दुः भवेत्।
न तु बृहत् मॉडल् अकिफायती भवति, परन्तु लघु मॉडल् अधिकं व्यय-प्रभावी भवति
एआइ-वृत्तानां विशालजगति लघुमाडलानाम् स्वकीयाः आख्यायिकाः सर्वदा एव आसन् ।
बहिः पश्यन् गतवर्षस्य ब्लॉकबस्टरं Mistral 7B इति चलच्चित्रं विमोचितमात्रेण "सर्वश्रेष्ठं 7B मॉडल्" इति प्रशंसितं यत् एतत् बहुमूल्यांकनमापदण्डेषु 13B पैरामीटर् मॉडल् Llama 2 इत्येतत् पराजितवान्, तथा च तर्कशास्त्रे, गणिते, कोडजनने च तत् अतिक्रान्तवान् .
अस्मिन् वर्षे माइक्रोसॉफ्ट् इत्यनेन अपि सर्वाधिकं शक्तिशाली लघु पैरामीटर् बृहत् मॉडल् phi-3-mini इति मुक्तस्रोतः कृतः यद्यपि पैरामीटर् इत्यस्य संख्या केवलं 3.8B अस्ति तथापि कार्यप्रदर्शनमूल्यांकनपरिणामाः समानं पैरामीटर् स्केलस्तरं दूरं अतिक्रमयन्ति तथा च GPT- इत्यादिभिः बृहत्तरैः मॉडलैः सह तुलनीयाः सन्ति । ३.५ तथा क्लाउड्-३ सॉनेट्।
अन्तः दृष्ट्वा, Wall Intelligence इत्यनेन फरवरी-मासस्य आरम्भे केवलं 2B पैरामीटर्-युक्तं पार्श्व-पार्श्व-भाषा-प्रतिरूपं प्रारब्धम् अस्य कार्यक्षमता लोकप्रियं फ्रेंच-माडलं Mistral-7B इति नाम्ना प्रसिद्धम् अस्ति । लिटिल स्टील". बन्दुक"।
बहुकालपूर्वं न, MiniCPM-Llama3-V2.5, यस्य केवलं 8B पैरामीटर् आकारः अस्ति, बहु-मोडल व्यापकप्रदर्शनस्य तथा OCR क्षमतायाः दृष्ट्या अपि GPT-4V तथा Gemini Pro इत्यादीनां बृहत्तराणां मॉडलानां दृष्ट्या अतिक्रान्तवान् अतः तस्य आलोचना अभवत् स्टैनफोर्ड विश्वविद्यालयस्य ए.आइ.
गतसप्ताहे यावत्, OpenAI, यः विलम्बेन रात्रौ बम-प्रहारं कुर्वन् आसीत्, तत् "अत्यन्तं शक्तिशालीं व्यय-प्रभावी च लघु-पैरामीटर्-प्रतिरूपम्" इति वर्णितवान् - GPT-4o mini इति प्रक्षेपणं कृतवान्, यत् सर्वेषां ध्यानं लघु-माडल-प्रति पुनः आनयत्
यतः OpenAI इत्यनेन दीर्घसन्दर्भेभ्यः आरभ्य रोलिंग-मापदण्डेभ्यः, एजेण्ट्-पर्यन्तं, अधुना मूल्ययुद्धेभ्यः च जननात्मक-AI-कल्पनायां विश्वं कर्षितम्, तस्मात् देशे विदेशे च विकासः सर्वदा एकस्य तर्कस्य परितः एव परिभ्रमति - व्यावसायिकीकरणं प्रति गत्वा क्षेत्रे स्थातुं .पत्तेः मेजस्य उपरि।
अतः जनमतक्षेत्रे सर्वाधिकं दृष्टिगोचरं वस्तु अस्ति यत् मूल्येषु कटौतीं कृतवान् OpenAI मूल्ययुद्धे प्रविशति इव दृश्यते।
बहवः जनानां कृते GPT-4o mini इत्यस्य मूल्यस्य स्पष्टः विचारः न स्यात् । GPT-4o mini प्रति १० लक्षं निवेशाःटोकन मूल्यं १५ सेण्ट् अस्ति, तथा च प्रति १० लक्षं उत्पादनटोकनस्य मूल्यं ६० सेण्ट् अस्ति, यत् GPT-3.5 Turbo इत्यस्मात् ६०% अधिकं सस्ता अस्ति ।
अन्येषु शब्देषु GPT-4o mini केवलं ६० सेण्ट् मूल्येन २५०० पृष्ठीयं पुस्तकं जनयति ।
OpenAI CEO Sam Altman अपि X इत्यत्र शोकं कृतवान् यत् GPT-4o mini इत्यस्य तुलने, वर्षद्वयात् पूर्वं सर्वाधिकशक्तिशालिनः मॉडलस्य न केवलं विशालः कार्यक्षमतायाः अन्तरः आसीत्, अपितु उपयोगस्य व्ययः अपि आसीत् यः अधुना अपेक्षया १०० गुणाधिकः आसीत्
यदा बृहत् मॉडल् मूल्ययुद्धं अधिकाधिकं भयंकरं भवति तथापि केचन कुशलाः किफायती च मुक्तस्रोत लघु मॉडल् विपण्यस्य ध्यानं आकर्षयितुं अधिकं सम्भावना वर्तते किन्तु एतत् न यत् बृहत् मॉडल् उपयोक्तुं न शक्यते, अपितु लघु मॉडल् अधिकं व्यय-प्रभाविणः भवन्ति .
एकतः यदा विश्वे GPUs विक्रीयन्ते अथवा स्टॉकतः अपि समाप्ताः भवन्ति तदा न्यूनप्रशिक्षणव्यययुक्ताः लघुमुक्तस्रोतमाडलाः क्रमेण उपरिभागं प्राप्तुं पर्याप्ताः भवन्ति
उदाहरणार्थं, Mianbi Intelligence द्वारा प्रारब्धं MiniCPM स्वस्य लघुमापदण्डैः सह अनुमानव्ययस्य चट्टानसदृशं पतनं प्राप्तुं शक्नोति, अपि च CPU अनुमानं प्राप्तुं शक्नोति यत् अस्य निरन्तरपैरामीटर् प्रशिक्षणार्थं केवलं एकं यन्त्रं, पैरामीटर् सूक्ष्म-समायोजनाय च ग्राफिक्स् कार्ड् आवश्यकम् निरन्तरव्ययस्थानम् अपि सन्ति।
यदि भवान् परिपक्वः विकासकः अस्ति तर्हि भवान् स्वयमेव लघुप्रतिरूपं निर्माय कानूनीक्षेत्रे ऊर्ध्वाधरप्रतिरूपस्य प्रशिक्षणमपि कर्तुं शक्नोति, अनुमानव्ययः च बृहत्प्रतिरूपस्य सूक्ष्मसमायोजनस्य सहस्रभागः एव भवितुम् अर्हति
केषाञ्चन टर्मिनल-पक्षस्य "लघु-माडल"-अनुप्रयोगानाम् कार्यान्वयनेन बहवः निर्मातारः लाभप्रदतायाः प्रारम्भं द्रष्टुं शक्नुवन्ति । यथा, फेसवाल इंटेलिजेन्स् इत्यनेन शेन्झेन् इन्टरमीडिएट् पीपुल्स कोर्ट इत्यस्य कृत्रिमबुद्धि-सहायक-विचार-प्रणालीं प्रारम्भं कर्तुं साहाय्यं कृतम्, येन प्रौद्योगिक्याः मूल्यं विपण्यं प्रति सिद्धम् अभवत्
अवश्यं, एतत् वक्तुं अधिकं समीचीनं भवति यत् वयं यत् परिवर्तनं द्रष्टुं आरभेमः तत् बृहत्तः लघुप्रतिरूपेषु परिवर्तनं न भवति, अपितु आदर्शानां एकस्मात् वर्गात् आदर्शानां विभागे परिवर्तनं भवति, यत्र समीचीनप्रतिरूपस्य चयनं निर्भरं भवति संस्थायाः विशिष्टानि आवश्यकतानि, कार्याणां जटिलता उपलब्धसम्पदां च विषये।
लघुमाडलं तु चलयन्त्रेषु, एम्बेडेड् सिस्टम्, अथवा न्यूनशक्तियुक्तेषु वातावरणेषु परिनियोजनं, एकीकरणं च सुकरं भवति ।
लघुप्रतिरूपस्य पैरामीटर्-परिमाणं तुल्यकालिकरूपेण लघु भवति संसाधनाः। तदतिरिक्तं, अन्त्यपक्षीयसाधनानाम् ऊर्जा-उपभोगस्य, ताप-उत्पादनस्य इत्यादीनां विषयाणां कृते अधिकानि चरम-आवश्यकतानि सन्ति
ऑनर-सीईओ झाओ मिंग् इत्यनेन उक्तं यत् ग्राहकपक्षे एआइ-कम्प्यूटिङ्ग्-शक्ति-समस्यायाः कारणात्, मापदण्डाः १बी-१०बी-योः मध्ये भवितुम् अर्हन्ति, तथा च बृहत्-जाल-प्रतिरूपम्मेघगणनाक्षमता १०-१०० कोटिपर्यन्तं, अथवा तस्मात् अपि अधिकं प्राप्तुं शक्नोति एषा क्षमता तयोः मध्ये अन्तरं भवति ।
दूरभाषः अतीव सीमितस्थाने अस्ति, किम्? एतत् सीमितबैटरी, सीमिततापविसर्जनं, सीमितभण्डारणवातावरणं च ७ अर्बं समर्थयति यदि भवान् कल्पयति यत् एतावन्तः बाधाः सन्ति तर्हि एतत् सर्वाधिकं कठिनं भवितुमर्हति ।
एप्पलस्य स्मार्टफोनस्य संचालनाय उत्तरदायी पर्दापृष्ठस्य नायकाः अपि वयं प्रकाशितवन्तः तेषु सूक्ष्मरूपेण 3B लघुमाडलं सारांशीकरणं, पालिशं च इत्यादिषु कार्येषु समर्पितं अस्ति एडाप्टरस्य आशीर्वादेन तस्य क्षमताः अपेक्षया उत्तमाः सन्ति गेम्मा-७बी तथा च मोबाईलफोन-टर्मिनल्-मध्ये चालयितुं उपयुक्तम् अस्ति ।
अतः वयं पश्यामः यत् पूर्वः OpenAI गुरुः Andrej Karpathy इत्यनेन अद्यैव निर्णयः कृतः यत् मॉडल् आकारे स्पर्धा "विपरीत इन्वोल्यूशन" भविष्यति, न तु बृहत्तरं बृहत्तरं च भवति, परन्तु कः लघुतरः अधिकलचीलः च अस्ति।
लघुमाडलाः लघुमाडलेन बृहत्माडलेन किमर्थं पराजयितुं शक्नुवन्ति ?
आन्द्रेज् कार्पाथी इत्यस्य भविष्यवाणी निराधारा नास्ति ।
अस्मिन् दत्तांशकेन्द्रितयुगे, मॉडल् द्रुतगत्या बृहत्तराणि जटिलानि च भवन्ति मुखेन ।
परन्तु सूक्ष्मरूपेण व्यवस्थितं प्रतिरूपं विशिष्टकार्य्येषु "लघुसहितं बृहत्ं जितुम्" अपि शक्नोति, तस्य उपयोगिता च अनेकेषां "सुपरबृहत्प्रतिमानानाम्" तुलनीया भवति
हग्गिंग् फेस् इत्यस्य मुख्यकार्यकारी Clem Delangue इत्यनेन अपि सुझावः दत्तः यत् लघुप्रतिमानानाम् उपयोगेन ९९% पर्यन्तं उपयोगप्रकरणानाम् समाधानं कर्तुं शक्यते, तथा च भविष्यवाणी कृता यत् २०२४ तमः वर्षः लघुभाषाप्रतिमानानाम् वर्षः भविष्यति
कारणानां अन्वेषणात् पूर्वं प्रथमं किञ्चित् विज्ञानज्ञानं लोकप्रियं कर्तव्यम् ।
२०२० तमे वर्षे ओपनएआइ इत्यनेन एकस्मिन् पत्रे प्रसिद्धः नियमः प्रस्तावितः यत् स्केलिंग् नियमः, यस्य अर्थः अस्ति यत् यथा यथा मॉडलस्य आकारः वर्धते तथा तथा तस्य कार्यक्षमता अपि वर्धते । GPT-4 इत्यादीनां आदर्शानां प्रवर्तनेन क्रमेण स्केलिंग्-नियमस्य लाभाः उद्भूताः ।
एआइ-क्षेत्रे शोधकर्तारः अभियंताः च दृढतया मन्यन्ते यत् आदर्शस्य मापदण्डानां संख्यां वर्धयित्वा प्रतिरूपस्य शिक्षणक्षमतायां सामान्यीकरणक्षमतायां च अधिकं सुधारः कर्तुं शक्यते एवं प्रकारेण वयं दृष्टवन्तः यत् मॉडल-मापदण्डः कोटि-कोटि-मापदण्डेभ्यः शत-कोटि-मापदण्डेभ्यः कूर्दति, अपि च कोटि-कोटि-मापदण्ड-युक्तानि मॉडल्-प्रति आरोहणं करोति
एआइ-जगति मॉडलस्य परिमाणं तस्य बुद्धिमापनस्य एकमात्रं मानदण्डं न भवति ।
तद्विपरीतम्, सुविकसितं लघुप्रतिरूपं, एल्गोरिदमस्य अनुकूलनं कृत्वा, दत्तांशगुणवत्तां सुधारयित्वा, उन्नतसंपीडनप्रौद्योगिकीम् अङ्गीकृत्य, प्रायः विशिष्टकार्य्येषु बृहत्प्रतिरूपस्य तुलनीयं वा तस्मात् अपि उत्तमं प्रदर्शनं दर्शयितुं शक्नोति
अधिकं परिणामं प्राप्तुं लघुप्रयोगस्य एषा रणनीतिः एआइ-क्षेत्रे नूतना प्रवृत्तिः भवति ।तेषु दत्तांशगुणवत्तायाः उन्नयनं लघुमाडलानाम् बृहत्प्रतिमानानाम् उपरि विजयस्य एकः उपायः अस्ति ।
एकदा Coalesce इत्यस्य CTO सहसंस्थापकः Satish Jayanthi इत्यनेन मॉडल् मध्ये आँकडानां भूमिकायाः ​​वर्णनं कृतम् आसीत् यत् -
यदि १७ शतके आसीत् एल.एल.एम , तथा च वयं ChatGPT इत्यनेन पृष्टवन्तः यत् पृथिवी गोलः अस्ति वा समतलः अस्ति वा, ततः सः उत्तरितवान् यत् पृथिवी समतलः अस्ति, तत् स्यात् यतोहि अस्माभिः प्रदत्तैः दत्तांशैः एतत् प्रत्ययः कृतः यत् एतत् एवम् अस्ति। वयं LLM इत्यस्मै यत् दत्तांशं प्रदामः तत् कथं प्रशिक्षयामः च तस्य उत्पादनं प्रत्यक्षतया प्रभावितं करिष्यति ।
उच्चगुणवत्तायुक्तानि परिणामानि उत्पादयितुं बृहत्भाषाप्रतिमानानाम् उच्चगुणवत्तायुक्तानां, विशिष्टविषयाणां डोमेनानां च कृते उच्चगुणवत्तायुक्तानां, लक्षितदत्तांशस्य प्रशिक्षणस्य आवश्यकता वर्तते । यथा छात्राणां शिक्षणार्थं गुणवत्तापूर्णपाठ्यपुस्तकानां आवश्यकता भवति तथा एलएलएम-जनानाम् अपि गुणवत्तापूर्णदत्तांशस्रोतानां आवश्यकता भवति ।
चमत्कारं प्राप्तुं परिश्रमं कर्तुं पारम्परिकं हिंसकसौन्दर्यं परित्यज्य सिंघुआ विश्वविद्यालयस्य कम्प्यूटरविज्ञानविभागे स्थायी सहायकप्रोफेसरः भित्तिमुखबुद्धेः मुख्यवैज्ञानिकः च लियू ज़ियुआन् अद्यैव बृहत्युगे भित्तिमुखी कानूनस्य प्रस्तावम् अकरोत् मॉडल्स् अर्थात् मॉडलस्य ज्ञानघनत्वं निरन्तरं वर्धते, समासे प्रत्येकं अष्टमासेषु द्विगुणं भवति ।
तेषु ज्ञानघनत्वं = गणनायां सम्मिलिताः आदर्शक्षमता/प्रतिरूपमापदण्डाः ।
लियू ज़ियुआन् इत्यनेन सजीवरूपेण व्याख्यातं यत् यदि भवान् १०० बुद्धिपरीक्षाप्रश्नाः दीयते तर्हि भवतः स्कोरः न केवलं तस्मिन् विषये निर्भरं भविष्यति यत् भवान् कियत् प्रश्नानां सम्यक् उत्तरं ददाति, अपितु एतान् प्रश्नान् पूर्णं कर्तुं भवान् कियत् न्यूरॉन् उपयुज्यते इति विषये अपि निर्भरं भविष्यति। भवन्तः यत्किमपि अधिकानि कार्याणि न्यूनानि न्यूरॉन्-सहितं कुर्वन्ति तत्किमपि अधिकं भवतः बुद्धिः भवति ।
एषः एव मूलविचारः यत् ज्ञानघनत्वं बोधयति-
अस्य द्वौ तत्त्वौ स्तः एकः तत्त्वः अस्य प्रतिरूपस्य सामर्थ्यम् । द्वितीयः तत्त्वः अस्याः क्षमतायाः कृते आवश्यकानां न्यूरॉन्-सङ्ख्या, अथवा तदनुरूपं गणनाशक्ति-उपभोगः ।
२०२० तमे वर्षे OpenAI इत्यनेन विमोचितस्य १७५ अरब पैरामीटर् GPT-3 इत्यस्य तुलने २०२४ तमे वर्षे MiniCPM-2.4B इत्येतत् GPT-3 इत्यस्य समानप्रदर्शनेन किन्तु केवलं २.४ अरब पैरामीटर् इत्यनेन विमोचितम्, येन ज्ञानस्य घनत्वं प्रायः ८६ गुणा वर्धितम्
टोरोन्टोविश्वविद्यालयस्य अध्ययनेन अपि ज्ञायते यत् सर्वाणि आँकडानि आवश्यकानि न सन्ति, बृहत्दत्तांशसमूहात् उच्चगुणवत्तायुक्तानां उपसमूहानां पहिचानं भवति येषां संसाधनं सुलभं भवति तथा च मूलदत्तांशसमूहे सर्वाणि सूचनानि विविधता च धारयन्ति
यदि प्रशिक्षणदत्तांशस्य ९५% पर्यन्तं निष्कासितम् अस्ति चेदपि, विशिष्टवितरणस्य अन्तः मॉडलस्य भविष्यवाणीप्रदर्शनं महत्त्वपूर्णतया प्रभावितं न भवितुम् अर्हति
अद्यतनतमं उदाहरणं निःसंदेहं मेटा लामा ३.१ बृहत् मॉडल् अस्ति ।
यदा मेटा लामा ३ इत्यस्य प्रशिक्षणं दत्तवान् तदा तया १५टी टोकन प्रशिक्षणदत्तांशः पोषितः, परन्तु ल्लामा२ तथा ल्लामा३ इत्येतयोः प्रशिक्षणोत्तरकार्यस्य उत्तरदायी मेटा एआइ शोधकर्त्ता थोमस सियालोम् अवदत् यत् अन्तर्जालस्य पाठः व्यर्थसूचनाभिः परिपूर्णः अस्ति, तथा च प्रशिक्षणं आधारितम् एषा सूचना कम्प्यूटिङ्ग् संसाधनानाम् अपव्ययः अस्ति ।
लामा ३ इत्यस्य प्रशिक्षणोत्तरे मानवलिखितानि उत्तराणि न आसन्... केवलं लामा २ इत्यस्य विशुद्धरूपेण कृत्रिमदत्तांशस्य लाभं गृहीतवान् ।
तदतिरिक्तं ज्ञान-आसवनम् अपि "बृहत्-लघु-विजयस्य" महत्त्वपूर्ण-विधिषु अन्यतमम् अस्ति ।
ज्ञान-आसवनं लघु-सरलस्य "छात्र-प्रतिरूपस्य" प्रशिक्षणस्य मार्गदर्शनार्थं विशालस्य जटिलस्य च "शिक्षक-प्रतिरूपस्य" उपयोगं निर्दिशति, यत् बृहत्-प्रतिरूपस्य शक्तिशाली-प्रदर्शनं श्रेष्ठ-सामान्यीकरण-क्षमतां च अधिक-लघु-गणनात्मक-लघु-माडल-मध्ये स्थानान्तरयितुं शक्नोति यस्य मूल्यं भवति न्यूनम्‌।
लामा ३.१ इत्यस्य विमोचनानन्तरं मेटा-सीईओ जुकरबर्ग् इत्यनेन अपि स्वस्य दीर्घकालीनलेखे "ओपन सोर्स एआइ इज द पथ फॉरवर्ड" इति लघुमाडलस्य सूक्ष्म-समायोजनस्य, आसवनस्य च महत्त्वं प्रकाशितम्
अस्माकं स्वस्य मॉडल्-प्रशिक्षणं, सूक्ष्म-समायोजनं, आस्वादनं च आवश्यकम् । प्रत्येकस्य संस्थायाः भिन्नाः आवश्यकताः सन्ति येषां सेवां सर्वोत्तमरूपेण भवति यत् भिन्न-भिन्न-परिमाणेषु विशिष्ट-दत्तांशैः सह प्रशिक्षितानि वा सूक्ष्म-समायोजनानि वा आदर्शानां उपयोगेन भवन्ति ।

इदानीं भवान् अत्याधुनिक-लामा-माडल-ग्रहणं कर्तुं शक्नोति, स्वस्य दत्तांशेषु तान् प्रशिक्षितुं निरन्तरं शक्नोति, ततः तान् भवतः आवश्यकतानुसारं आदर्श-आकारं यावत् आस्वादयितुं शक्नोति - अस्मान् वा अन्यः कोऽपि वा भवतः दत्तांशं न दृष्ट्वा।
उद्योगे सामान्यतया इदमपि मन्यते यत् मेटा लामा ३.१ इत्यस्य ८बी तथा ७०बी संस्करणं अति-बृहत्-कपेभ्यः आसुतं भवति अतः समग्र-प्रदर्शने महत्त्वपूर्णं सुधारः कृतः अस्ति तथा च मॉडल-दक्षता अपि अधिका अस्ति
अथवा, मॉडल आर्किटेक्चर अनुकूलनम् अपि प्रमुखम् अस्ति उदाहरणार्थं, मोबाईलनेट् डिजाइनस्य मूल अभिप्रायः मोबाईल उपकरणेषु कुशलं गहनशिक्षणप्रतिरूपं कार्यान्वितुं भवति ।
गभीरतया पृथक्करणीयविवर्तनस्य माध्यमेन आदर्शस्य मापदण्डानां संख्यां महत्त्वपूर्णतया न्यूनीकरोति । ResNet इत्यस्य तुलने MobileNetV1 इत्यनेन पैरामीटर्-सङ्ख्यां प्रायः ८-९ गुणा न्यूनीकरोति ।
मापदण्डानां संख्यायाः न्यूनतायाः कारणात् मोबाईलनेट् गणनादृष्ट्या अधिकं कार्यक्षमः अस्ति । एतत् विशेषतया संसाधन-संकुचित-वातावरणानां कृते महत्त्वपूर्णं भवति, यथा चल-यन्त्राणां कृते, यतः एतत् अत्यधिकं कार्यक्षमतायाः त्यागं विना गणना-भण्डारणस्य आवश्यकतां महत्त्वपूर्णतया न्यूनीकर्तुं शक्नोति
तकनीकीस्तरस्य प्रगतेः अभावेऽपि एआइ-उद्योगः एव अद्यापि दीर्घकालीननिवेशस्य उच्चव्ययस्य च आव्हानस्य सामनां करोति, तथा च प्रतिफलचक्रं तुल्यकालिकरूपेण दीर्घम् अस्ति
"डेली इकोनॉमिक न्यूज" इत्यस्य अपूर्ण-आँकडानां अनुसारम् अस्मिन् वर्षे एप्रिल-मासस्य अन्ते यावत् चीनदेशे कुलम् प्रायः ३०५ बृहत्-माडलाः प्रक्षेपिताः आसन्, परन्तु मे-मासस्य १६ दिनाङ्कपर्यन्तं अद्यापि प्रायः १६५ बृहत्-माडलाः आसन् ये अद्यापि न प्रक्षेपिताः आसन् पञ्जीकरणं सम्पन्नम्।
बैडू संस्थापकः रोबिन् ली इत्यनेन सार्वजनिकरूपेण आलोचना कृता यत् वर्तमानस्य बहवः मूलभूतप्रतिमानानाम् अस्तित्वं संसाधनानाम् अपव्ययः अस्ति, तथा च सुझावः दत्तः यत् उद्योगैः सह आदर्शानां संयोजनस्य सम्भावनायाः अन्वेषणार्थं, अग्रिमस्य सम्भाव्यस्य सुपर-अनुप्रयोगस्य विकासाय च संसाधनानाम् अधिकः उपयोगः करणीयः
वर्तमान एआइ उद्योगे अपि एषः एकः मूलविषयः अस्ति, मॉडल्-सङ्ख्यायाः वृद्धेः व्यावहारिक-अनुप्रयोगानाम् कार्यान्वयनस्य च असमानुपातिकः विरोधाभासः
एतस्याः आव्हानस्य सम्मुखे उद्योगस्य ध्यानं क्रमेण एआइ-प्रौद्योगिक्याः अनुप्रयोगस्य त्वरिततां प्रति गतं, न्यूननियोजनव्यययुक्ताः, अधिकदक्षतायाः च लघुमाडलाः अधिकं उपयुक्ताः सफलताबिन्दुः अभवन्
विशिष्टक्षेत्रेषु केन्द्रीकृताः केचन लघुमाडलाः अपि उद्भवितुं आरब्धाः सन्ति, यथा बृहत् पाकस्य आदर्शाः, लाइव् स्ट्रीमिंग् कृते बृहत् मॉडल् च । यद्यपि एतानि नामानि किञ्चित् ब्लफिंग् इव भासन्ते तथापि ते सम्यक् सम्यक् मार्गे सन्ति ।
संक्षेपेण, भविष्ये एआइ एकं, विशालं अस्तित्वं न भविष्यति, अपितु अधिकं विविधं व्यक्तिगतं च भविष्यति । लघुमाडलानाम् उदयः अस्याः प्रवृत्तेः प्रतिबिम्बः अस्ति । विशिष्टकार्य्येषु तेषां उत्तमं प्रदर्शनं सिद्धयति यत् "लघुः किन्तु सुन्दरः" अपि सम्मानं, मान्यतां च प्राप्तुं शक्नोति ।
एकं वस्तु अपि
यदि भवान् स्वस्य iPhone इत्यत्र पूर्वमेव मॉडलं चालयितुम् इच्छति तर्हि Hugging Face इत्यनेन प्रारब्धं “Hugging Chat” इति iOS App अपि प्रयतितुं शक्नोति ।
Magic तथा Outer Zone App Store खातेन सह App डाउनलोड् कृत्वा उपयोक्तारः Phi 3, Mixtral, Command R+ इत्यादीन् मॉडल् सहितं विविधं ओपन सोर्स मॉडल् अभिगन्तुं उपयोक्तुं च शक्नुवन्ति
उष्णं स्मरणं, उत्तम-अनुभवाय, कार्यक्षमतायै च, iPhone-इत्यस्य नवीनतम-पीढीयाः Pro-संस्करणस्य उपयोगः अनुशंसितः अस्ति ।