समाचारं

OpenAI केषाञ्चन भुगतानप्रयोक्तृणां कृते GPT-4o स्वरविधिं उद्घाटयति, अधिकानि प्राकृतिकानि वास्तविकसमयवार्तालापानि प्रदाति

2024-07-31

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

IT House इत्यनेन ३१ जुलै दिनाङ्के ज्ञापितं यत् ३० तमे स्थानीयसमये OpenAI इत्यनेन घोषितं यत् इदानीं परं केषाञ्चन ChatGPT Plus उपयोक्तृणां कृते GPT-4o voice mode (IT House note: Alpha version) उद्घाटयिष्यति, क्रमेण च सर्वेषु ChatGPT मध्ये प्रचारयिष्यति अस्मिन् पतने Plus Subscriber.


अस्मिन् वर्षे मेमासे ओपनएआइ-संस्थायाः मुख्यप्रौद्योगिकीपदाधिकारिणी मीरा मुराटी इत्यनेन स्वभाषणे उल्लेखः कृतः यत् -

GPT-4o इत्यस्मिन् वयं पाठस्य, दृष्टिस्य, श्रव्यस्य च मध्ये एकं नूतनं एकीकृतं प्रतिरूपं अन्तः अन्तः प्रशिक्षितवन्तः, अर्थात् सर्वे निवेशाः निर्गमाः च एकेन एव तंत्रिकाजालेन संसाधिताः भवन्ति यतो हि GPT-4o अस्माकं प्रथमं मॉडल् अस्ति यत् एतान् सर्वान् मोडान् संयोजयति, अतः वयम् अद्यापि अस्य मॉडलस्य क्षमतां तस्य सीमां च अन्वेष्टुं प्रारम्भिकपदे स्मः ।

OpenAI इत्यनेन मूलतः अस्मिन् वर्षे जूनमासस्य अन्ते GPT-4o voice mode इत्यस्य परीक्षणार्थं ChatGPT Plus उपयोक्तृणां लघुसमूहं आमन्त्रयितुं योजना कृता आसीत्, परन्तु अधिकारी जूनमासे स्थगनस्य घोषणां कृतवान् यत् एतत् आवश्यकम् इतिपालिशं कर्तुं अधिकः समयःआदर्शं, आदर्शं सुधारयन्तुकतिपय सामग्रीं ज्ञात्वा अङ्गीकुर्वन्तुक्षमता।

पूर्वं उजागरितसूचनानुसारं GPT-3.5 मॉडलस्य औसतं स्वरप्रतिक्रियाविलम्बं 2.8 सेकण्ड् भवति, यदा तु GPT-4 मॉडलस्य विलम्बः 5.4 सेकण्ड् भवति अतः ध्वनिसञ्चारस्य विषये अतीव उत्तमः नास्ति, आगामि GPT- च ४ओ महतीं विलम्बं कर्तुं शक्नोति, ।प्रायः निर्विघ्नसंभाषणम्

GPT-4o स्वरविधाने अस्तित्वरित प्रतिक्रियास्वरः यथा वास्तविकः व्यक्तिः इव उत्तमः अस्तिअन्ये च विशेषताः, OpenAI इत्यनेन GPT-4o speech mode इति अपि उक्तं, यत् भाषणे भावनात्मकं स्वरं अनुभवितुं शक्नोति, यत्र दुःखं, उत्साहः वा गायनम् वा अस्ति ।

ओपनएआइ-प्रवक्ता लिण्ड्से मेक्कलम् अवदत् यत् – “चैट्जीपीटी अन्यस्य स्वरस्य अनुकरणं मा कुरुत, यत्र व्यक्तिनां सार्वजनिकव्यक्तिनां च स्वराः, खण्डाः च सन्तिपूर्वनिर्धारितध्वनितः भिन्नः उत्पादनम् । " " .