소식

대형 모델이 업계에 침투할 때 구현의 핵심은 시나리오입니다. ToB 산업 관찰 |

2024-08-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


"기술로서 대형 모델은 업계에서 진정으로 사용되고 업계의 실질적인 문제를 해결해야 진정한 가치를 발휘할 수 있습니다." Intel Corporation 마케팅 그룹 부사장이자 Intel China 네트워크 및 총괄 책임자인 Guo Wei는 다음과 같이 말했습니다. Edge와 Channel Data Center 사업부는 TMTpost Media APP과의 통신에서 여러번 지적된 바 있습니다.

ChatGPT가 나온 지 거의 2년이 채 지나지 않아 대형 AI 모델이 전례 없는 속도로 사회 각계에 침투하고 있습니다. 특히 올해부터 대형 모델 제조업체와 당사자 A 회사 모두 모델 매개변수의 크기에서 대형 모델이 업계의 문제점을 해결하는 방법으로 초점을 전환하여 자체 산업 구현 시나리오를 해결할 수 있는 하나 이상의 대형 모델을 찾으려고 노력했습니다. .

일반부터 산업까지, 대규모 모델 구현의 핵심은 시나리오

메이저 제조사의 대형 모델 경쟁을 2부로 나누어 보면, 상반기에는 메이저 제조사들이 일반 대형 모델을 잇달아 출시하고, 후반에는 AI가 대형화될 때 모델의 매개변수를 지속적으로 개선해 저력을 발휘한다. 모델은 더 많은 산업에서 수용됩니다. 측면 기업이 관심을 가지면서 점점 더 많은 작은 매개변수 모델이 등장하고 산업 응용 시나리오는 자연스럽게 A측 기업과 B측 대형 모델 공급업체의 초점이 되었습니다. 현 단계에서 과연 대형 모델이 실현될 수 있느냐는 의문이 업계 측의 '수익화' 핵심이다.

이와 관련하여 Guo Wei는 TMTpost Media APP에 AI 대형 모델 기술이 점차 산업에 침투함에 따라 모델이 점차 일반 대형 모델에서 산업별 대형 모델로 바뀔 것이라고 인텔은 믿고 있다고 말했습니다. "동시에 산업 모델은 더 많은 산업별 지식을 결합하고 하나 이상의 특정 시나리오에 초점을 맞출 것입니다."

공교롭게도 JD 그룹 기술위원회 의장이자 JD Cloud 사업부 사장인 Cao Peng도 최근 JD Cloud Summit에서 "일반 대형 모델은 구축을 위해 컴퓨팅 성능에 의존하는 반면, 대형 산업 모델은 비즈니스에 의존한다"고 공개적으로 밝혔습니다. Wan Jingdong은 이미 35개 이상의 자체 배달 인력, 200,000명 이상의 판매자, 30,000명 이상의 의사, 20,000명 이상의 조달 및 판매 운영, 10,000명 이상의 R&D 인력을 보유하고 있으며 Jingdong의 100개 이상의 AI 시나리오에서 대규모 모델 기반 애플리케이션을 사용합니다.

'2024년 글로벌 디지털 경제 백서'에 따르면 전 세계 대형 인공지능 모델 수는 1,328개에 달하며 이 중 중국이 36%를 차지한다. 한편, IDC 데이터에 따르면 2022년 중국의 생성 AI가 전체 AI 시장 투자의 4.6%를 차지할 것으로 나타났다. 생성적 AI 기술의 급속한 발전으로 2027년 생성적 AI 투자 비중은 33.0%에 달하고, 투자 규모는 130억 달러를 초과하며, 5년간 복합성장률(CAGR)은 86.2%에 이를 전망이다.

분명히 큰 모델은 이전 클라우드 컴퓨팅 시대와 같습니다. 기술 측면에서 볼 때 중국은 여전히 ​​세계 일류 수준에 약간 뒤처져 있을 수 있지만, 시나리오에 초점을 맞추면 중국은 풍부한 애플리케이션 시나리오를 보유하고 있습니다. 시나리오 이것이 바로 대형 AI 모델을 이용해 진정한 '보통 사람들의 집으로 날아가는 것'의 핵심이다.

클라우드에서 엣지까지, 대형 모델을 어떻게 더 잘 사용할 수 있습니까?

대형 모델이 점차 일반 대형 모델의 대형 매개변수에서 산업별 모델의 소형 매개변수로 이동함에 따라 대형 모델 역시 클라우드에서 디바이스 측으로 이동하는 추세를 보이고 있습니다. IDC 데이터에 따르면 2026년까지 글로벌 기업의 80%가 생성 AI를 사용하고 글로벌 엣지 배포의 50%에 AI가 포함될 것으로 나타났습니다.

이와 관련해 인텔 네트워크 및 엣지 사업부 수석부사장 사친 카티(Sachin Katti)는 인공지능의 미래는 개방형 생태계에 달려 있으며, 인공지능의 적용은 데이터센터에서 엣지컴퓨팅으로 옮겨가고 있다고 말한 바 있다.

뿐만 아니라 Intel Corporation의 부사장이자 중국 네트워크 및 엣지 사업부 총괄 책임자인 Chen Wei는 TMTpost Media APP에 올해의 개발 동향으로 볼 때 Intel의 고객만이 올해 대규모 엣지 모델의 구현을 모색할 것이라고 말했습니다. "올해는 완전히 다릅니다. 올해는 기본적으로 절반 이상의 고객이 대형 엣지 모델을 기반으로 한 구현 솔루션을 모색하고 있으며 실제 사례가 많다고 할 수 있습니다." 추가로 지적했습니다.

대규모 모델이 엣지로 이동함에 따라 기업은 배포 시 대기 시간 요구 사항, 실용성, 조정 가능한 마이크로 데이터 최적화, 정보 보안 요구 사항 등 다양한 요소를 고려해야 합니다.

그러나 대규모 모델의 엣지 측 배포는 아직 개발 초기 단계에 있으며 현재 시장에는 많은 배포 모델이 나와 있습니다. “인텔의 관찰에 따르면 많은 고객이 일반적인 대규모 모델은 성능 최적화가 빠르게 발전하는 모델입니다."라고 Chen Wei는 Titanium Media APP에서 클라이언트 측에 대형 모델을 더 잘 적용하는 방법에 대한 질문에 직면했습니다.

Guo Wei는 업계에서 구현되고 있는 중국 대형 모델의 추세와 전망에 대해 TMTpost Media APP과의 인터뷰에서 올해부터 점점 더 많은 업계 사용자가 많은 업계 대형 모델을 구현했다고 말했습니다. 올해 우리는 업계에서 점점 더 많은 구현 사례를 보았고 이는 모두 업계의 문제점을 효과적으로 해결할 수 있는 시나리오입니다."라고 Guo Wei는 말했습니다.

현재 적용으로 볼 때, end 측의 모델 매개변수는 일반 대형 모델의 매개변수보다 훨씬 작습니다. 현재, end 측의 모델 매개변수는 대부분 7B에서 10B 사이입니다. 어려운 일. 중요하고 어려운 일. 현재 주류 모델은 데이터를 압축하면서 산업별 지식을 데이터에 주입하는 것으로, 일반적으로 진보적 가지치기 기술 솔루션으로 알려져 있습니다.

이에 대해 JD Cloud 관련 기술책임자는 Titanium Media APP에 무인물류차량 시나리오를 예로 들면 크기 축소와 신경망 검색을 통해 모델 자체를 줄이지 않고도 약 2배 정도의 매개변수 수를 압축하는 것이 가능하다고 밝혔습니다. . 성능면에서도 대기 시간을 약 2배 줄일 수 있습니다.

동시에 Guo Wei는 Titanium Media APP와 중국의 대규모 산업 모델 발전 전망에 대한 자신의 분석과 판단을 공유했으며, 중국이 세 가지 측면에서 더 빠르게 발전할 수 있다고 지적했습니다.

첫째, 산업 응용 분야에서 모델 자체를 개발합니다. 위에서 언급한 바와 같이, "기술적인 면만 놓고 보면 중국은 여전히 ​​세계 일류 수준에 크게 뒤처져 있을 수 있지만, 산업 구현 측면, 특히 애플리케이션과의 통합 측면에서 중국은 풍부한 애플리케이션 시나리오를 보유하고 있습니다."라고 Guo Wei는 생각합니다. 궈웨이는 "중국 시장의 특징 중 하나는 빠른 애플리케이션 개발과 업계의 문제점을 해결할 수 있는 효과적인 방법을 신속하게 탐색하는 능력"이라고 강조했다.

둘째, 모델 추론 능력이 향상된다. 대형 모델이 실제로 업계에 적용될 때 모델 훈련에만 의존하는 것만으로는 충분하지 않습니다. 업계의 문제점을 진정으로 해결하려면 모델의 추론 능력을 향상시키는 것이 특히 중요합니다. 올해에는 역량도 크게 향상될 것입니다.

셋째, Guo Wei의 관점에서는 업계에서 대형 모델을 구현할 때 클라우드, 장치 측, 엣지 간의 컴퓨팅 성능 분배를 조정해야 합니다. “수직형 대형 모델의 일부 표준 애플리케이션에 불과하다면. 대형 모델은 주로 클라우드에 배포될 수 있지만 업계 구현의 필요성으로 인해 AI 컴퓨팅 성능은 필연적으로 엣지와 터미널 측에 분산될 것입니다.”라고 Guo Wei는 TMTpost Media APP에 말했습니다.

많은 장면이 구현되었습니다.

Guo Wei가 말했듯이 올해부터 대규모 산업 모델의 많은 응용 시나리오가 장치 측면에 배포되었습니다.

교육 측면에서 Seewo는 Intel® Core™ Ultra 프로세서의 도움으로 Intel 기술을 기반으로 하는 "AI + Education" 솔루션을 공동으로 출시했습니다. Seewo는 클라우드 컴퓨팅 리소스에 의존하지 않고도 로컬에서 대규모 AI 교육 모델의 운영을 완료할 수 있습니다. 이를 통해 시스템 응답 속도와 안정성을 향상시키고 교육 과정에서 원활한 경험을 보장합니다.

유통업계에서는 뚜레쥬르가 엣지 컴퓨팅 기술을 통해 스마트 스토어 솔루션을 만들어왔습니다. 이 솔루션은 매장 내 기존 오디오 및 비디오 수집 장비를 사용할 수 있으며 데이터 통합 ​​및 최적화 관리 플랫폼을 통해 다양한 매장의 요구와 특성에 따라 전용 디지털 지능형 매장 모델 세트를 생성하여 제품 디스플레이를 제공할 수 있습니다. 매장 서비스, 매장 위생, 직원 규범, 군중 인사이트, 고객 흐름 인사이트 등을 통해 뚜레쥬르 매장 운영의 차별화된 관리 역량을 강화하고, 관리 효율성을 향상시키며, 매장 수작업 점검 비용 절감, 직원 규범. 제빵 산업의 지능적인 발전을 가속화합니다.

의료 건강 측면에서 JD Health는 JD Yanxi 대형 모델을 기반으로 한 "Jingyi Qianxun" 의료 대형 모델을 출시했습니다. 이는 수많은 임상 실무 지침, 의학 문헌 및 전문 지식을 통합하고 다양한 마이그레이션을 신속하게 완료할 수 있습니다. 의료 및 건강 분야의 시나리오. 'Beijing Medical Qianxun' 대규모 모델을 기반으로 클라우드 클리닉, 진단 후 후속 조치, 전문가 공동 상담, 임상 과학 연구, 의사 IP 브랜드 인큐베이션 등 의사 실천을 위한 일련의 솔루션을 출시했습니다. 지능형 의사 보조 도구. 는 의사의 온라인 진단 및 치료의 효율성과 품질을 최적화할 뿐만 아니라 진료 안전성도 향상시킵니다.

보안 측면에서는 360, Qi'anxin, Tencent Cloud, Sangfor 등을 포함한 많은 보안 공급업체가 대형 모델 기능을 기반으로 보안 업계에서 대형 모델 제품을 출시했거나 AI 대형 모델의 기능을 원본에 통합했습니다. 보안 시스템 제품 중 AI 시대에 AI로 인해 점점 더 심각해지는 보안 문제에 직면하여 "AI로 AI를 물리친다"는 목표를 달성했습니다.

사무적인 측면에서는 많은 제조사들이 AIPC 개념을 제시하며 사무용 AI 비서에 초점을 맞추고 있다. AI 챗봇 시나리오에서는 대형 모델을 인텔 코어 울트라 AI PC에 빠르게 배치할 수 있고, 사용자는 강력한 기능을 원활하게 사용할 수 있다. 대형 모델의 텍스트 생성, 프로그래밍, 수학적 계산 및 논리적 추론 기능을 제공하며 편리하고 안전하게 현지화된 지능형 대화형 경험을 즐길 수 있습니다.

문서 처리 측면에서 사용자는 AI PC를 사용하여 이메일을 효율적으로 처리하고, 데이터를 구성하고, 업무 문서를 자동으로 생성하고, 업무 효율성을 높일 수 있으며, 계약 문서를 신속하게 작성하고, AI를 사용하여 소송 사례를 지능적으로 분석하여 전문적인 문서 작성을 제공할 수 있습니다. 능력.

위의 내용은 현재 AI 대형 모델 애플리케이션이 널리 사용되는 몇 가지 시나리오에 불과합니다. 또한 산업 대형 모델도 금융, 제조, 탐사 등 다양한 분야에서 널리 사용되고 있습니다. 다양한 산업에서 AI 대형 모델의 역량을 활용하여 비즈니스 역량을 강화하는 시대가 시작되었습니다.

데이터는 여전히 피할 수 없는 주제입니다.

우리 모두 알고 있듯이, 데이터는 대형 모델의 급속한 발전을 위한 "영양소"입니다. 일반 대형 모델이든, 업계 대형 모델이든, 진정한 가치를 실현하고 "환상"을 줄이려면 데이터가 필수입니다. 이야기 주제.

산업에 관한 한, 산업 대형 모델에는 방대하고 풍부한 산업별 데이터가 필요합니다. 대규모 산업 모델을 사용하여 비용을 절감하고 효율성을 높이며, 디지털화에서 디지털 인텔리전스로 전환하려는 기업의 경우 이 부분이 매우 중요합니다. 거버넌스 기능은 더 높은 요구 사항을 제시합니다. 현재 산업 응용의 관점에서 볼 때 기업의 원본 데이터는 완전한 대규모 기업 수준 산업 모델을 교육하기에 충분하지 않습니다. 현재 주요 솔루션은 합성 데이터를 사용하는 것입니다. 다음으로, 기업은 자체 데이터의 품질을 향상시켜야 하는 한편, 우수한 합성 데이터를 선택하는 방법도 기업이 직면해야 할 까다로운 문제가 되었습니다.

반면, 산업용 대형 모델과 일반 대형 모델의 차이점은 대부분의 산업용 대형 모델은 장치 측이나 에지 측에 배포해야 한다는 것입니다. Gartner는 2025년까지 기업이 관리하는 데이터의 50% 이상이 데이터 센터나 클라우드 외부에서 생성되고 처리될 것으로 예측합니다.

즉, 2025년에는 기기측 데이터량이 50%를 넘을 것이라는 것이다. 이 과정에서 엣지 측 데이터의 양이 증가함에 따라 데이터 전송 대역폭도 기업이 직면해야 하는 주요 과제입니다. 엣지에서 대량의 데이터가 생성되면 여전히 네트워크 폭풍이 발생할 수 있으므로 네트워크 관리 및 데이터 전송 전략을 더욱 최적화해야 합니다.”라고 Guo Wei는 Titanium Media APP에 말했습니다.

미래를 기대하면서 Sachin Katti는 TMTpost Media APP에 AI가 데이터를 구동하여 품질을 향상시키는 동안 이러한 데이터는 결국 AI가 더 좋아지도록 지원하여 궁극적으로 선순환을 달성할 것이라고 말했습니다.

분명히 대형 모델은 업계에서 급속한 발전의 시기에 접어들었습니다. 이 과정에서 기업은 대형 모델이 업계에서 더 잘 구현될 수 있도록 '데이터 중심, 시나리오가 왕'이라는 원칙을 따라야 합니다.(이 기사는 Titanium Media APP에 처음 게재되었습니다. 저자 | Zhang Shenyu, 편집자 | Gai Hongda)