समाचारं

विश्वप्रतिरूपं पुनः समीपं गच्छति? MIT इत्यस्मात् अद्भुतं शोधं : LLM इत्यनेन वास्तविकजगत् अनुकरणं कृतम्, न तु यादृच्छिकशुकस्य!

2024-08-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


नवीन बुद्धि प्रतिवेदन

सम्पादक : सम्पादकीय विभाग

[नव प्रज्ञायाः परिचयः] ।MIT CSAIL इत्यस्य शोधकर्तारः पश्यन्ति यत् LLM इत्यनेन "हृदयस्य गहने" वास्तविकतायाः अनुकरणं विकसितम्, तथा च भाषायाः विश्वस्य च विषये मॉडलस्य अवगमनं सरलस्य "शुकस्य" अपेक्षया बहु अधिकम् अस्ति अन्येषु शब्देषु भविष्ये एलएलएम अद्यत्वे अपेक्षया भाषां गभीरतरं अवगमिष्यति।

विश्वप्रतिरूपात् एलएलएम कियत् दूरम् अस्ति ?

गतवर्षे एमआईटी-पत्रिकायाः ​​लेखेन आश्चर्यजनकः निष्कर्षः प्राप्तः यत् एलएलएम-अन्तर्गतं विश्वप्रतिरूपम् अस्ति ।

एलएलएम न केवलं पृष्ठीयसांख्यिकीयं शिक्षते, अपितु अन्तरिक्षं समयं च इत्यादीनां मूलभूतानाम् अक्षांशानां सहितं विश्वप्रतिरूपं अपि शिक्षते ।


न केवलं, MIT इत्यनेन अद्यैव आविष्कृतं यत् LLM इत्यस्य अन्तः गहने वास्तविकतायाः अनुकरणं विकसितम् अस्ति, भाषायाः विषये तेषां अवगमनं च सरल-अनुकरणात् दूरं गता!


पेपर पता: https://arxiv.org/abs/2305.11169

विशेषतः एमआईटी इत्यस्य कम्प्यूटर विज्ञानस्य कृत्रिमबुद्धिप्रयोगशालायाः (CSAIL) विद्वानद्वयेन आविष्कृतम् यत्—

यद्यपि एलएलएम केवलं "अग्रे टोकनस्य पूर्वानुमानं" इति लक्ष्यस्य उपयोगेन प्रोग्रामिंगभाषां ज्ञातुं प्रशिक्षितः अस्ति, यस्मिन् केवलं शुद्धसांख्यिकीयसंभावना अन्तर्भवति इति भासते, तथापि आदर्शः कार्यक्रमस्य औपचारिकशब्दार्थं ज्ञातुं शक्नोति

एतेन ज्ञायते यत् भाषाप्रतिमानाः स्वस्य जननक्षमतासुधारस्य मार्गरूपेण वास्तविकतायाः विषये स्वस्य अवगमनं विकसितुं शक्नुवन्ति ।


अतः एलएलएम एकस्मिन् दिने अद्यत्वे अपेक्षया गहनतरस्तरेन भाषां अवगन्तुं शक्नोति।

अयं लेखः ICML 2024 इत्यनेन स्वीकृतः, प्रयोगे प्रयुक्तः कोडः च GitHub इत्यत्र प्रकाशितः ।


गोदाम पता: https://github.com/charlesjin/emergent-semantics

नेत्रे विना एलएलएम “द्रष्टुम्” न शक्नोति वा ?

GPT-4 इत्यस्य वर्षा-सिक्तस्य शिबिरस्थलस्य गन्धं वदन्तु तर्हि सः विनयेन नकारयिष्यति।


अद्यापि, एतत् भवन्तं काव्यात्मकं वर्णनं दास्यति- तत्र नूतनः मृत्तिकागन्धः, तथा च स्फूर्तिदायकः वर्षागन्धः, चीरस्य अथवा आर्द्रपत्रस्य संकेतैः सह।

GPT-4 इत्यनेन कदापि वर्षा न दृष्टा, नासिका अपि नास्ति, परन्तु प्रशिक्षणदत्तांशस्य बृहत् परिमाणेषु विद्यमानस्य पाठस्य अनुकरणं कर्तुं शक्नोति ।

किं नेत्रयुग्मस्य अभावस्य अर्थः अस्ति यत् भाषाप्रतिरूपः "सिंहः गृहबिडालात् बृहत्तरः" इति कदापि अवगन्तुं न शक्नोति?


एलएलएम वास्तविकजगत् विविधानि अमूर्तसंकल्पनानि च अवगन्तुं शक्नोति वा? अथवा भवन्तः केवलं "शुक" कृत्वा अग्रिमस्य टोकनस्य पूर्वानुमानं कर्तुं केवलं सांख्यिकीयसंभावनायाः उपरि अवलम्बन्ते?

एलएलएम-संस्थायाः कार्यसिद्धान्तः अद्यापि अनवधानं रहस्यम् अस्ति । एआइ-वृत्तस्य बृहत्-जनाः अस्मिन् विषये समये समये वाद-विवादं आरभन्ते |

लेकुन् इत्यस्य दृढं विश्वासः अस्ति यत् एलएलएम इत्यस्य बुद्धिः निश्चितरूपेण अतिमूल्याङ्किता अस्ति! तस्य प्रसिद्धतमं प्रतिपादनं यत् "बृहत् भाषाप्रतिरूपं गृहे बिडालवत् उत्तमं नास्ति" इति ।

“बिडालाः स्मर्तुं शक्नुवन्ति, ते भौतिकजगत् अवगन्तुं शक्नुवन्ति, ते जटिलक्रियाणां योजनां कर्तुं शक्नुवन्ति, तथा च ते किञ्चित्पर्यन्तं तर्कयितुं शक्नुवन्ति यत् एतत् वस्तुतः बृहत्तमानां आदर्शानां अपेक्षया श्रेष्ठम् अस्ति अस्य अर्थः अस्ति यत् अस्माकं यन्त्राणि निर्मातुं अवधारणात्मकस्तरस्य महत्त्वपूर्णानि अन्तरालानि सन्ति पशवः इव।मनुष्याः इव स्मार्टाः।"


अनेके जनाः एतत् विशुद्धरूपेण सांख्यिकीयघटना इति व्याख्यायन्ते एलएलएम केवलं "शुक"करणं भवति तथा च प्रशिक्षणस्य बृहत् परिमाणे विद्यमानस्य पाठस्य अनुकरणं भवति यस्य बुद्धिः वा बोधः वा मनुष्याणां समानः स्तरः नास्ति।

परन्तु अधुना, MIT-संशोधनेन सिद्धं भवति यत् एतत् न भवति!

एलएलएम-अन्तर्गतं वास्तविकजगतोः अवगमनं निश्चितरूपेण भवति ।

LLM cracks Karel puzzle, तस्य अर्थः किम्

एतस्य रहस्यस्य अन्वेषणार्थं MIT CSAIL इत्यस्य शोधकर्तृभिः लघु Karel Puzzles इत्यस्य समुच्चयः विकसितः ।


संक्षेपेण परिचयं कुरुत यत् करेलस्य प्रहेलिका किम् अस्ति

अस्मिन् अनुकरणीयवातावरणे रोबोट्-क्रियाः नियन्त्रयितुं मॉडल्-इत्यस्य निर्देशानां उपयोगः भवति ।


करेल व्याकरण विनिर्देश

ततः ते एलएलएम-सङ्घं विशिष्टं समाधानं ज्ञातुं प्रशिक्षयन्ति यत् तस्य कार्यं कथं भवति इति न प्रदर्शयति।

अन्ते लेखकः "प्रोबिंग्" इति यन्त्रशिक्षणप्रविधिं प्रस्तावयति यत् यदा प्रतिरूपं नूतनानि समाधानं जनयति तदा "चिन्तनप्रक्रियायाः" गहनबोधं प्राप्तुं शक्नोति


शोधकर्त्ता यादृच्छिकसन्दर्भकार्यक्रमस्य नमूनाकरणेन प्रशिक्षणउदाहरणानि निर्माति, ततः ५ यादृच्छिकनिवेशानां नमूनानि गृहीत्वा तदनुरूपं ५ निर्गमं प्राप्तुं कार्यक्रमं निष्पादयति एलएम अग्रिम-टोकन-पूर्वसूचनार्थं प्रशिक्षितः भवति यस्मिन् उदाहरणानां कोर्पस्-इत्यत्र अन्तर्लिव्ड्-इनपुट्-आउटपुट्-इत्येतत् भवति, तदनन्तरं सन्दर्भ-प्रक्रिया भवति परीक्षणसमये शोधकर्तारः एलएम इत्यस्मै अदृष्टं निवेशं निर्गमं च विनिर्देशं प्रदास्यन्ति तथा च कार्यक्रमस्य पूर्वानुमानार्थं लोभी डिकोडिंग् इत्यस्य उपयोगं कुर्वन्ति ।

१० लक्षं तः अधिकानां यादृच्छिकपहेलीनां प्रशिक्षणानन्तरं शोधकर्तारः ज्ञातवन्तः यत् मॉडलेन स्वतः एव अन्तर्निहितस्य अनुकरणीयवातावरणस्य अवधारणा निर्मितवती! यद्यपि प्रशिक्षणकाले ते एतस्याः सूचनायाः सम्पर्कं न प्राप्नुवन्ति स्म।

एतत् परिणामं न केवलं एलएलएम विषये अस्माकं निहितं धारणाम् आव्हानं करोति, अपितु चिन्तनप्रक्रियायाः स्वरूपस्य विषये अस्माकं अवगमनं अपि प्रश्नं करोति——

अर्थशास्त्रस्य शिक्षणप्रक्रियायां के प्रकाराः सूचनाः आवश्यकाः सन्ति ?


प्रयोगस्य आरम्भे आदर्शेन उत्पन्नाः यादृच्छिकनिर्देशाः चालयितुं प्रायः असम्भवाः आसन् परन्तु यदा प्रशिक्षणं सम्पन्नम् अभवत् तदा निर्देशानां सटीकता ९२.४% यावत् अभवत्

पत्रस्य प्रथमः लेखकः जिनः अवदत् यत्, "एषः अतीव रोमाञ्चकारी क्षणः यतः वयं मन्यामहे यत् यदि भाषाप्रतिरूपं एतया सटीकतया कार्यं सम्पन्नं कर्तुं शक्नोति तर्हि भाषायाः अर्थं अवगन्तुं शक्नोति इति अपि वयम् अपेक्षयामः" इति

“एतेन अस्माकं कृते आरम्भबिन्दुः प्राप्तः यत् एलएलएम खलु पाठं अवगन्तुं शक्नोति वा इति अन्वेष्टुं, अधुना वयं पश्यामः यत् आदर्शः अन्धरूपेण शब्दान् एकत्र संयोजयितुं बहु अधिकं समर्थः अस्ति।”.

LLM इत्यस्य मस्तिष्कं उद्घाटयन्तु

अस्मिन् प्रयोगे जिनः एतां प्रगतिम् स्वयमेव दृष्टवान् ।

एतेषां निर्देशानां अर्थः किमर्थम् इति एलएलएम मन्यते ?

सः आविष्कृतवान् यत् एलएलएम-संस्थायाः स्वकीयं आन्तरिकं अनुकरणं विकसितम् यत् प्रत्येकस्य आदेशस्य प्रतिक्रियारूपेण रोबोट् कथं गमिष्यति इति ।

यथा यथा आदर्शस्य कठिनसमस्यानां समाधानस्य क्षमता अधिकाधिकं भवति तथा तथा एताः अवधारणाः अधिकाधिकं सटीकाः भवन्ति, येन ज्ञायते यत् एलएम निर्देशान् अवगन्तुं आरभते।

अचिरेण एव एलएलएम निरन्तरं कार्यनिर्देशेषु खण्डान् सम्यक् एकत्र खण्डयति स्म ।


भिन्न-भिन्न-जाँच-वर्गीकरणैः मापिता शब्दार्थ-सामग्री (हरितवर्णीयः)

चिन्तयन् अन्वेषणम्

उपर्युक्तेषु आविष्कारेषु मुख्यं योगदानं "चिन्तनजाँचः" अस्ति ।

एलएलएम-चिन्तनप्रक्रियायां हस्तक्षेपं कर्तुं एतत् प्रभावी साधनम् अस्ति ।पत्रे एतत् "प्रोबिंग्" इति कथ्यते ।


विशेषतः, एलएम-स्थितौ निवेशस्य, जनित-कार्यक्रमस्य च विशुद्धरूपेण वाक्य-विन्यास-अभिलेखाः सन्ति, परन्तु अन्वेषणं अमूर्त-व्याख्यानानि अवगन्तुं शिक्षितुं समर्थः इति दृश्यते

वास्तविकप्रयोगे लेखकेन प्रथमं LLM राज्यनिरीक्षणदत्तांशसमूहस्य निर्माणं कृतम्, ततः मानकनिरीक्षितशिक्षणपद्धतीनां उपयोगेन लघुप्रतिरूपस्य अन्वेषणरूपेण प्रशिक्षणं कृतम्, यथा रेखीयवर्गीकारकः अथवा 2-स्तरीयः MLP


प्रशिक्षणस्य उत्तरार्धे वर्तमानस्य अग्रिमयोः च अमूर्त अवस्थायोः शब्दार्थसामग्री (1-layer MLP)

परन्तु एकः महत्त्वपूर्णः विषयः अस्ति यत् अन्वेषणं प्रतिरूपस्य वास्तविकचिन्तनप्रक्रियायाः अथवा उत्पन्ननिर्देशात् पृथक् करणीयम् ।

यद्यपि अन्वेषणस्य एकमात्रं उद्देश्यं "एलएलएम-मस्तिष्कं प्रविष्टुं" अस्ति तथापि यदि एतत् आदर्शस्य कृते अपि किञ्चित् चिन्तनं करोति तर्हि किम्?

शोधकर्तृभिः यत् सुनिश्चितं कर्तव्यं तत् अस्ति यत् एलएलएम अन्वेषणात् स्वतन्त्रतया निर्देशान् अवगन्तुं शक्नोति, न तु अन्वेषणेन एलएलएमस्य वाक्यविन्यासस्य ग्रहणस्य आधारेण रोबोट्-क्रियाणां अनुमानं करणीयम्

कल्पयतु यत् एलएलएम-विचारप्रक्रियायाः संकेतकं दत्तांशसमूहः अस्ति, यत्र अन्वेषणस्य भूमिका न्यायिकविश्लेषकस्य इव अस्ति ।

वयं विश्लेषकं प्रति एतत् दत्तांशराशिं दत्त्वा तस्मै अवदमः यत् "एषा रोबोट् इत्यस्य गतिः अस्ति। अस्मिन् दत्तांशराशे रोबोट् कथं गच्छति इति ज्ञातुं प्रयतस्व।" .किं प्रचलति।


परन्तु यदि एषः दत्तांशराशिः केवलं कच्चानि निर्देशानि संकेतयति, विश्लेषकाः च निर्देशान् निष्कास्य तेषु कार्यं कर्तुं किमपि चतुरं मार्गं चिन्तितवन्तः तर्हि किम्?

अस्मिन् सन्दर्भे एलएलएम एतेषां निर्देशानां अर्थं वस्तुतः सर्वथा न अवगच्छति ।

एतदर्थं शोधकर्तारः एकं चतुरं परिकल्पनं कृतवन्तः : ते आदर्शस्य कृते "विचित्रं जगत्" निर्मितवन्तः ।

अस्मिन् जगति अन्वेषणस्य आदेशार्थः विपर्यस्तः भवति, यथा "ऊर्ध्वम्" इत्यस्य वस्तुतः "अधः" इति अर्थः ।


यथा, मूलशब्दार्थशास्त्रे exec(turnRight,·) इत्यनेन रोबोट् ९० डिग्री घण्टायाः दिशायां परिभ्रमति, यदा तु exec adversarial(turnRight,·) इत्यनेन रोबोट् एकस्मिन् अन्तरिक्षे धक्कायति

एतेन सुनिश्चितं भवति यत् अन्वेषणं "अवसरवादी" नास्ति तथा च प्रत्यक्षतया ज्ञायते अवगच्छति च यत् LLM निर्देशान् कथं संकेतयति ।

एकः लेखकः जिनः तस्य परिचयं एवं कृतवान्——

यदि अन्वेषकः रोबोट्-स्थाने निर्देशान् अनुवादयितुं इच्छति तर्हि अलौकिकार्थयुक्तानां निर्देशानां अनुवादं कर्तुं समानरूपेण समर्थः भवेत् ।

परन्तु यदि अन्वेषणं वस्तुतः भाषाप्रतिरूपस्य विचारप्रक्रियायां मूलरोबोटगतिषु संकेतनं अन्विष्यति तर्हि मूलविचारप्रक्रियाभ्यः विचित्ररोबोटगतिषु निष्कासनार्थं तस्य कठिनता भवितुमर्हति।

अन्वेषणदोषाः सन्ति, भिन्ननिर्देशार्थैः भाषाप्रतिमानानाम् व्याख्यां कर्तुं असमर्थः इति ज्ञातम् ।

अस्य अर्थः अस्ति यत् मूलशब्दार्थाः भाषाप्रतिरूपे निहिताः सन्ति, यत् सूचयति यत् एलएलएम मूलपरिचयवर्गीकरणात् स्वतन्त्रतया आवश्यकनिर्देशान् अवगन्तुं समर्थः अस्ति


प्रथमार्धे वर्णितं यत् कथं द्वयोः परिस्थितियोः परिणामः हस्तक्षेपात् पूर्वं मापनानां उच्चशब्दार्थसामग्री अभवत् । अधोभागः दर्शयति यत् परिकल्पनाद्वयं किमर्थं पृथक् भवति: यदि LM प्रतिनिधित्वे केवलं व्याकरणं भवति (नीचवामभागे), तर्हि वैकल्पिकस्थिति prog (बोल्ड लाल परिणामः) दृष्ट्या अभिलेखानां व्याख्यां कर्तुं शिक्षितुं प्रोब alt प्रशिक्षितुं सम्भवं भवितुमर्हति तथापि, यदि LM प्रतिनिधित्वे मूल अमूर्तस्थितेः एन्कोडिंग् भवति (नीचे दक्षिणतः), तर्हि alt इत्यस्य अन्वेषणार्थं मूलस्थिति prog तः वैकल्पिकस्थितिं 'prog' निष्कासयितुं आवश्यकं भवति, यस्य परिणामः भवति यत् शब्दार्थसामग्री न्यूना भवति (बोल्ड ग्रे परिणामः) ;


एलएलएम भाषां अवगच्छति, बालकः इव

रोचकं तत् अस्ति यत् जिन् इत्यनेन ज्ञातं यत् एलएलएम इत्यस्य भाषायाः अवगमनं चरणेषु विकसितं भवति, यथा बालकाः बहुपदेषु भाषां शिक्षन्ति।

प्रथमं शिशुवत् बकबकं करिष्यति, तस्य वचनं पुनरावर्तनीयं भविष्यति, अधिकांशं दुर्बोधं भविष्यति ।


ततः LLM व्याकरणं वा भाषानियमं वा उद्धर्तुं आरभते येन सः एतादृशान् निर्देशान् जनयितुं शक्नोति ये वास्तविकसमाधानं इव दृश्यन्ते, परन्तु ते अद्यापि कार्यं न कुर्वन्ति ।

तथापि एलएलएम-निर्देशेषु क्रमेण सुधारः भविष्यति ।


एकदा आदर्शः अर्थं प्राप्नोति तदा आवश्यकविनिर्देशस्य सम्यक् कार्यान्वयनार्थं निर्देशान् जनयितुं आरभते, यथा बालकः वाक्यनिर्माणं करोति

परिणामाः चित्रे २ दर्शिताः सन्ति यत् एलएलएम इत्यस्य भाषायाः अवगमनं मोटेन त्रयः चरणाः विभक्ताः सन्ति, यथा बालकाः भाषां शिक्षन्ते।

  • बबलिंग (धूसरभागः): सम्पूर्णप्रशिक्षणप्रक्रियायाः प्रायः ५०% भागं गृह्णाति, अत्यन्तं पुनरावर्तनीयान् कार्यक्रमान् जनयति, सटीकता च प्रायः १०% स्थिरं भवति ।

  • वाक्यविन्यासस्य अधिग्रहणं (नारङ्गभागः): प्रशिक्षणप्रक्रियायाः ५०% तः ७५% पर्यन्तं, उत्पन्नपरिणामानां विविधता तीव्ररूपेण वर्धते, वाक्यविन्यासगुणाः महत्त्वपूर्णरूपेण परिवर्तन्ते, तथा च आदर्शः कार्यक्रमस्य टोकनस्य प्रतिरूपणं कर्तुं आरभते, परन्तु जननस्य सटीकता The भवति सुधारः स्पष्टः नास्ति

  • शब्दार्थाधिग्रहणं (पीतभागः): प्रशिक्षणप्रक्रियायाः ७५% भागः समाप्तः भवति, विविधता प्रायः अपरिवर्तिता भवति, परन्तु जननसटीकता महतीं वर्धते, यत् शब्दार्थबोधस्य उद्भवस्य सूचयति


प्रयोगे तुलनायै रेखीयवर्गीकारः, एकस्तरीयः एमएलपी, २-स्तरीयः एमएलपी च इति त्रयः भिन्नाः अन्वेषण-आर्किटेक्चराः उपयुज्यन्ते स्म ।

२ पदानि अग्रे भविष्यवाणीं कुर्वन् २-स्तरस्य एमएलपी भविष्यवाणीसटीकतायाः निरपेक्षं मूल्यं वर्तमानस्थित्या सह पूर्वानुमानितस्य आधाररेखाप्रतिरूपस्य अपेक्षया अधिकं भवति अनुमानं कर्तुं शक्यते यत् एलएलएम-निर्देशान् जनयितुं पूर्वं तस्य चिन्तनप्रक्रिया, निर्देशान् जनयितुं "अभिप्रायः" च आदर्शस्य अन्तः संगृहीतः अस्ति


LLM = विश्वप्रतिरूप?

अस्मिन् अध्ययने व्याख्यायते यत् एलएलएम प्रशिक्षणदत्तांशेषु प्रत्येकस्य निर्देशस्य अर्थस्य विषये कथं चिन्तयति तथा च रोबोट् इत्यस्य आन्तरिकस्थितौ निर्देशानां प्रति प्रतिक्रियायाः अनुकरणं करोति।

एते सर्वे वर्तमान एआइ-संशोधनस्य एकं मूलप्रश्नं सूचयन्ति - किं एलएलएम-सङ्घस्य आश्चर्यजनकक्षमता केवलं बृहत्-परिमाणस्य सांख्यिकीय-सहसंबन्धस्य कारणेन भवति, अथवा तेषां वास्तविकतायाः सार्थक-अवगमनस्य परिणामः भवति वा?

संशोधनं दर्शयति यत् एलएलएम इत्यनेन वास्तविकतायाः अनुकरणं कृत्वा आन्तरिकं प्रतिरूपं विकसितम्, यद्यपि तस्य प्रतिरूपस्य विकासाय कदापि प्रशिक्षितः नासीत् ।


अपि च भाषाप्रतिमानाः भाषायाः अवगमनं अधिकं गभीरं कर्तुं शक्नुवन्ति ।

परन्तु एकः पत्रः एव अस्य प्रश्नस्य पूर्णतया उत्तरं दातुं न शक्नोति ।

लेखकः जिनः अपि स्वीकृतवान् यत् अस्य शोधस्य काश्चन सीमाः सन्ति : ते केवलं अतीव सरलं प्रोग्रामिंगभाषां करेल् इति अत्यन्तं सरलं प्रोब् मॉडल् आर्किटेक्चरं च उपयुज्यन्ते स्म ।

भविष्ये कार्यं अधिकसामान्यप्रयोगात्मकपरिवेशेषु केन्द्रीभूतं भविष्यति, तथा च प्रशिक्षणविधिसुधारार्थं एलएलएमस्य "विचारप्रक्रिया" विषये अन्वेषणस्य पूर्णं उपयोगं अपि करिष्यति।

अस्य लेखस्य अन्यः लेखकः रिनार्डः अवदत् यत्, "एकः रोचकः मुक्तः प्रश्नः अस्ति यत्, रोबोट् नेविगेशनसमस्यानां समाधानं कुर्वन् एलएलएम यथार्थस्य विषये तर्कं कर्तुं आन्तरिकवास्तविकताप्रतिरूपस्य उपयोगं करोति वा?"

यद्यपि पत्रे प्रस्तुताः परिणामाः अस्य निष्कर्षस्य समर्थनं कर्तुं शक्नुवन्ति तथापि प्रयोगः अस्य प्रश्नस्य उत्तरं दातुं न निर्मितः ।

ब्राउन विश्वविद्यालयस्य कम्प्यूटरविज्ञानभाषाविज्ञानविभागस्य सहायकप्रोफेसरः एली पावलिक् इत्यनेन अस्य शोधस्य अत्यन्तं प्रशंसा कृता ।

सा अवदत् यत् एलएलएम कथं कार्यं करोति इति अवगत्य अस्य प्रौद्योगिक्याः निहितसंभावनानां सीमानां च विषये अधिकानि युक्तियुक्तानि अपेक्षाः भवितुं शक्नुवन्ति। अस्मिन् अध्ययने नियन्त्रितवातावरणे सम्यक् एतत् प्रश्नं अन्वेषितम् अस्ति।

सङ्गणकसङ्केतेषु प्राकृतिकभाषा इव वाक्यविन्यासः शब्दार्थः च भवति, परन्तु प्राकृतिकभाषायाः विपरीतम् कोडस्य शब्दार्थः अधिकः सहजः भवति, प्रयोगात्मकापेक्षानुसारं प्रत्यक्षतया नियन्त्रितुं शक्यते

"प्रयोगात्मकः परिकल्पना सुरुचिपूर्णा अस्ति तथा च तेषां निष्कर्षाः आशाजनकाः सन्ति, येन सूचितं यत् सम्भवतः एलएलएम भाषायाः 'अर्थस्य' गहनतया अवगमनं दातुं शक्नोति।"

लेखक परिचय

अस्य लेखस्य प्रथमः लेखकः चार्ल्स जिनः एमआईटी ईईसीएस विभागे तथा च सीएसएआईएल प्रयोगशालायां पीएचडी अभ्यर्थी अस्ति तस्य पर्यवेक्षकः मार्टिन् रिनार्डः अस्य लेखस्य अन्यः लेखकः अस्ति तस्य शोधं दृढं यन्त्रशिक्षणं कार्यक्रमसंश्लेषणं च केन्द्रितम् अस्ति


जिनः येलविश्वविद्यालयात् स्नातकपदवीं प्राप्तवान् तथा च सङ्गणकविज्ञानं गणितं च स्नातकोत्तरपदवीं प्राप्तवान् सः एकदा वेस् एसेट् मैनेजमेण्ट् इत्यत्र विश्लेषकरूपेण कार्यं कृतवान् तथा च पीएच.डी.

सन्दर्भाः : १.

https://the-decoder.com/प्रशिक्षण-भाषा-माडल-सिंथेटिक-कार्यक्रम-उदय-विश्व-अवगमनस्य-संकेतयति/

https://news.mit.edu/2024/llms-वास्तविकतायाः-स्व-समझं-विकसयति-यथा-भाषा-क्षमता-सुधार-0814