소식

국내 ai칩 현황을 직접 살펴본다: gpu 혈액생산, tpu 레이드, 칩렛 대세화, 네트워크 병목 현상

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

작성자 |

xinxi는 연례 글로벌 ai 칩 서밋(gacs 2024)이 오늘 베이징에서 열렸다고 9월 6일 보도했습니다. 행사장은 객석으로 꽉 찼고, 클라우드 라이브 방송 시청자 수는 120만명에 달했다.

▲행사장 안팎에는 엄청난 인파가 쏠렸다.

이번 컨퍼런스는 zhiyi technology의 core east west와 intelligent orangutan의 후원으로 "지능형 컴퓨팅 시대에 함께 핵심 도로 구축"이라는 주제로 ai 칩, chiplets, risc-v, 지능형 분야의 50명 이상의 게스트를 초대했습니다. 컴퓨팅 클러스터, ai 인프라 등 다양한 분야의 유용한 정보를 공유할 예정입니다.

이번 컨퍼런스에서 비렌 테크놀로지는 국내 gpgpu 유니콘 비렌 테크놀로지(biren technology) 창립 5주년을 맞아 멀티 코어 혼합 트레이닝 핵심 기술의 획기적인 발전을 이루었고 최초로 이기종 gpu 협업 트레이닝 솔루션인 hgct를 만들었다고 발표했습니다. 업계에서는 3개 이상의 이기종 유형을 지원할 수 있습니다. gpu는 동일한 대형 모델을 학습합니다.

▲비렌테크놀로지, 국내 이기종 gpu 협업 트레이닝 솔루션 hgct 출시

zhiyi technology의 공동 창업자이자 ceo인 gong lunchang이 주최자로서 연설을 했습니다. 올해로 7회째를 맞는 글로벌 ai 칩 서밋은 중국에서 이 분야에서 가장 영향력 있는 업계 컨퍼런스가 되었습니다. 국내외 ai 칩의 발전을 이해하기 좋은 곳입니다.

▲zhiyi technology 공동 창립자 겸 ceo gong lunchang

글로벌 ai 칩 서밋은 이틀간 진행되며, 주요 행사로는 개막식과 3개의 주요 세션(ai 칩 아키텍처, 데이터센터 ai 칩, 엣지 ai 칩)이 있으며, 하위 행사로는 칩렛 기술 포럼, 지능형 컴퓨팅 클러스터 기술 포럼 등이 있다. 및 risc-v 혁신 포럼.

개회식에서는 칭화대학교 교수이자 집적회로대학 부학장인 yin shouyi가 "고성능 컴퓨팅 파워 칩의 개발 경로에 대한 토론: 컴퓨팅 아키텍처에서 통합 아키텍처까지"라는 주제로 기조 연설을 했습니다. 기존 기술 과제를 해결하고 데이터 흐름 칩, 통합 스토리지 및 컴퓨팅 칩, 재구성 가능 칩, 3차원 통합 칩, 웨이퍼 레벨 칩 등 5가지 혁신 기술 경로를 종합적으로 분석합니다.

오늘은 명문 대학, 연구기관, ai 칩 기업 출신의 전문가, 기업가, 임원 21명이 참석합니다. 그 중 하이엔드 대화 세션에는 ai 칩 스타트업 3곳의 대표, 즉 국내 고출력 칩 유니콘인 biren technology, 기기측 및 엣지측 ai 칩 유니콘인 aixin yuanzhi, 그리고 한 기업의 대표가 참석해 열띤 토론을 벌였습니다. 반년 전에 설립된 젊은 ai 칩 스타트업인 lingchuan technology만이 유일한 것입니다. 이들은 ai칩 산업 현황과 최신 사례, 발전 방향 등에 대해 집중 논의했다.

1. 대규모 모델 컴퓨팅 성능의 수요 및 공급 문제를 해결하고 아키텍처를 혁신하여 성능 병목 현상을 극복합니다.

칭화대학교 교수이자 집적회로학과 부학장인 yin shouyi는 대형 모델 시대의 컴퓨팅 파워 공급과 수요 사이의 어려움에 대해 설명했습니다. 프로세스 배당금이 지속 불가능합니다. 시스템이 병목 현상을 축소하고 통신 대역폭이 부족하여 시스템 성능이 저하됩니다.

이 두 가지 주요 문제를 해결할 수 있는 기회는 컴퓨팅 칩 컴퓨팅 아키텍처와 통합 아키텍처의 공동 혁신에 있습니다. 컴퓨팅 아키텍처의 혁신을 통해 각 트랜지스터를 최대한 활용하고 더 강력한 컴퓨팅 성능을 발휘할 수 있으며 통합 아키텍처의 혁신을 통해 칩 규모를 돌파할 수 있습니다. 한계.

현재 고성능 컴퓨팅 칩 개발을 위한 5가지 새로운 기술 경로가 있습니다: 데이터 흐름 칩, 재구성 가능 칩, 통합 저장 및 컴퓨팅 칩, 3차원 통합 칩, 웨이퍼 레벨 칩. 이러한 경로 중 어느 것도 가장 진보된 제조 공정에 완전히 의존하지 않으며, 이는 국내 칩 산업이 컴퓨팅 능력을 향상시킬 수 있는 새로운 공간을 열어주는 데 도움이 될 것입니다.

▲인수이(yin shouyi) 칭화대학교 교수 겸 집적회로대학 부학장

amd는 데이터 센터 서버, ai pc부터 지능형 임베디드 및 엣지 장치까지 포괄하는 엔드투엔드 ai 인프라 분야에서 포괄적인 제품 라인을 구축하고 선도적인 ai 오픈 소스 소프트웨어와 개방형 생태계를 제공합니다. 고급 zen4 아키텍처를 기반으로 설계된 amd의 cpu 프로세서 플랫폼과 ai 추론 및 훈련을 위한 cdna3 아키텍처 기반의 mi 시리즈 가속기는 microsoft와 같은 거대 기업에서 채택되었습니다.

amd 인공 지능 부문 수석 이사인 wang hongqiang에 따르면 amd는 또한 데이터 센터에서 고성능 네트워크 인프라(ualink, ultra ethernet)를 홍보하고 있습니다. 이는 ai 네트워크 구조가 빠른 전환과 극도로 낮은 대기 시간을 지원하는 데 매우 중요합니다. ai 데이터센터 성능 확대가 중요하다.

amd가 차세대 고성능 ai pc 출시를 앞두고 있다. 2세대 xdna 아키텍처를 기반으로 한 라이젠 ai npu는 50tops의 컴퓨팅 파워를 제공하고, 에너지 효율성을 범용 아키텍처의 35배까지 높일 수 있다. 개인 정보 보호, 보안 및 데이터 자율성을 추구하는 ai pc의 추진에 힘입어 중요한 ai 워크로드가 pc에 배포되기 시작했습니다. 세계 최고의 ai 인프라 제공업체 중 하나인 amd는 고객 및 개발자와 협력하여 혁신적인 미래를 구축할 의향이 있습니다.

▲amd 인공지능 사업부 전무이사 wang hongqiang

qualcomm은 2015년부터 ai 애플리케이션 사용 사례의 변화를 기반으로 npu 하드웨어 설계를 지속적으로 혁신해 왔습니다. 3세대 스냅드래곤 8로 대표되는 퀄컴 ai 엔진은 cpu, gpu, npu 등 멀티 프로세서를 통합한 이기종 컴퓨팅 아키텍처를 채택했다. 이 중 퀄컴 헥사곤 npu는 대용량 메모리, 가속기 전용 전원공급장치, 마이크로 아키텍처 업그레이드 등을 통해 성능과 에너지 효율성을 최적화했다. ai는 풍부한 사용 사례와 다양한 컴퓨팅 성능 요구 사항을 가지고 있으므로 이기종 컴퓨팅 및 프로세서 통합에 대한 수요가 오랫동안 존재할 것이며 이는 또한 최대 성능, 에너지 효율성, 비용 등의 일련의 개선을 가져올 것입니다.

qualcomm의 제품 라인은 휴대폰, pc, xr, 자동차 및 iot와 같은 광범위한 엣지 측 애플리케이션 시나리오를 포괄하며 개발자가 다양한 제품 형태의 알고리즘 가속화를 위해 qualcomm의 ai 소프트웨어 및 하드웨어 솔루션을 사용하여 부를 창출할 수 있도록 지원합니다. 소비자에게 제공되는 온디바이스 ai 경험 및 사용 사례. 마지막으로, 퀄컴 ai 제품 기술 중국 책임자 완 웨이싱(wan weixing)도 올해 10월 21일부터 23일까지 열리는 스냅드래곤 서밋(snapdragon summit)에서 최신 퀄컴 오리온(oryon) cpu를 탑재한 차세대 스냅드래곤 모바일 플랫폼이 출시될 것이라고 발표했습니다.

▲완 웨이싱(wan weixing) 퀄컴 중국 ai 제품 기술 총괄

pingxin technology의 공동 창립자이자 ceo인 yang yue는 통합 스토리지 및 컴퓨팅 기술의 발전 과정을 분석했습니다. 업계 주류 칩의 출현과 성장은 현재 컴퓨팅 요구의 특성과 밀접한 관련이 있습니다. 2015년경 컴퓨팅 아키텍처의 컴퓨팅 병목 현상이 프로세서 측면에서 스토리지 측면으로 이동했으며, 특히 신경망의 출현이 가속화되었습니다. ai 칩의 컴퓨팅 효율성이 향상되면서 스토리지 및 컴퓨팅 기술이 주목을 받고 있습니다.

yang yue는 대형 모델 시대에 통합 스토리지 및 컴퓨팅 기술의 기회는 데이터 스토리지가 있는 모든 곳에 컴퓨팅을 추가하는 것이라고 믿습니다. 지속적인 소프트웨어 개발로 스토리지와 컴퓨팅을 기반으로 하는 엔드사이드 칩은 올해 점차 성숙해졌습니다. 앞으로는 클라우드의 데이터 대역폭 병목 현상을 해결하는 것이 스토리지 및 컴퓨팅 칩의 차세대 킬러 애플리케이션이 될 수 있습니다.

▲pingxin technology 공동 창립자 겸 ceo yang yue

arctic xiongxin의 cto인 tan zhanhong은 고성능 컴퓨팅 분야에서 서버 설계에는 표준 서버 형태와 맞춤형 서버 아키텍처라는 두 가지 패러다임이 있다고 말했습니다. 표준 서버 형태에서 arctic xiongxin은 비표준 서버 형태로 표준 제약 영역 내에서 적절한 칩 분할 및 패키징 솔루션을 통해 더 높은 비용 성능을 달성하는 데 중점을 두고 통합에 중점을 둔 웨이퍼 수준 통합 기회를 제공합니다. 칩 및 시스템 설계, 서버 및 칩 공동 설계를 통해 "서버로서의 칩"이라는 목표를 달성하는 것을 목표로 합니다.

특히 tan zhanhong은 칩 설계마다 대역폭 요구 사항이 다르다고 강조했습니다. 예를 들어 7nm 이상의 프로세스에서는 배포 통신 최적화와 결합하여 높은 상호 연결 대역폭 밀도가 필요하지 않은 경우가 많으므로 2d 기반 패키지가 필요하지 않습니다. 성능 요구 사항을 충족하고 비용 효율적인 솔루션을 얻을 수 있습니다. "코어 칩 상호 연결 인터페이스 표준"을 기반으로 하는 arctic xiongxin의 pb-link ip는 공식적으로 낮은 패키징 비용 상호 연결을 실현했으며 이제 외부 당사자 승인을 시작했습니다.

▲arctic xiongxin cto tan zhanhong

2. 하이엔드 대화: 국내 ai 칩의 조혈 능력이 향상되었으며, 가장 젊은 스타트업의 제품이 kuaishou에 출시되었습니다.

zhiyi technology의 공동 창립자 겸 편집장 zhang guoren, biren technology의 ai 소프트웨어 부사장 겸 수석 설계자 ding yunfan, lingchuan technology의 공동 창립자 겸 부사장 liu li, 공동 공동 창립자 liu jianwei -aixin yuanzhi 창립자 겸 부사장이 "국내 ai 칩 구현을 위한 합의, 공동 창조 및 상생"을 주제로 원탁 대화를 시작했습니다.

zhang guoren은 원탁 대화 시작 부분에서 zhidongxi, coredongxi 및 zhiangzhi가 주최한 제6차 ai 칩 서밋이 최근 몇 년간 중국에서 이 분야에서 가장 오랫동안 진행된 전문 컨퍼런스라고 말했습니다. ai 칩과 대형 모델의 개발도 다수의 국내 핵심 제조 '신력'의 상승을 목격했습니다.

▲zhiyi technology의 공동 창립자이자 편집장인 zhang guoren

ding yunfan은 대형 컴퓨팅 파워 칩이 기술 집약적, 인재 집약적, 자본 집약적 산업이라고 말했습니다. 시장에서 가장 큰 공공 자금을 조달한 칩 유니콘인 biren technology는 최고의 인재를 보유하고 있으며 1세대 제품이 대량 생산되었으며 독립적으로 혈액을 생성할 수 있는 여러 국내 gpu 킬로 카드 클러스터가 출시되었습니다. 그러나 국내 칩산업의 전반적인 상황은 여전히 ​​쉽지 않고, 생태학적 측면과 외국과의 격차도 여전히 존재한다.

많은 국내 ai 칩이 데이터 센터와 지능형 컴퓨팅 센터에 배치되기 시작했습니다. ding yunfan의 견해에 따르면 nvidia의 국내 제품은 그다지 비용 효율적이지 않습니다. 국내 칩이 고성능과 비용 효율성을 제공할 수 있는 한 시장은 있을 것입니다. 현재 국내 칩 산업의 출범과 조혈 능력 강화에 대한 소식이 점점 더 많아지고 있으며, 엔비디아와의 격차는 점차 좁아질 것입니다.

▲ding yunfan, biren technology 부사장 겸 ai 소프트웨어 수석 설계자

liu jianwei는 저렴한 비용이 매우 중요한 부분이며 기업은 결국 결산을 해야 하며 인프라에 대한 투자를 회수해야 한다고 믿습니다. liu li는 미래에는 구체화된 지능 및 스마트 비디오와 같은 세분화된 트랙에서 더 많은 회사의 진입이 일반 제품보다 더 높은 가치를 가져올 것이며 이는 nvidia의 수익과 이익을 압축할 것이라고 믿습니다.

lingchuan technology는 올해 3월에 설립된 국내 최연소 ai 칩 스타트업 중 하나이며, 현재 판매 중인 스마트 비디오 처리 칩이 kuaishou에서 사용률의 99%를 차지하고 있습니다. 비디오 처리 분야에서는 컴퓨팅 성능 추론 칩이 내년 초에 출시될 것으로 예상됩니다.

liu li의 견해에 따르면 ai 칩 시장 창구는 아직 닫히지 않았습니다. 자원, 자금, 생태계 측면에서 거대 기업의 이점에 직면한 스타트업은 수직적이고 세분화된 분야에서 노력해야 합니다. lingchuan technology는 토큰당 추론 비용을 nvidia h800의 10%로 줄이는 것을 목표로 지능형 비디오 처리와 ai 추론 컴퓨팅 성능을 결합합니다.

▲lingchuan technology의 공동 창업자이자 부사장인 liu li

엔드사이드와 엣지사이드를 모두 타겟으로 하는 aixin yuanzhi는 시장 점유율에서 놀라운 성과를 거두었습니다. liu jianwei는 이 두 분야가 상용 폐쇄 루프를 더 빠르게 실현할 것이라고 믿습니다. 그는 ai 칩을 만들면 결국 돈이 벌리겠지만, 실제 수익 일정은 ai 도입 비용 등 요인에 영향을 받을 것이며 기업은 조속히 자체 발전과 폐쇄 루프를 달성해야 한다고 덧붙였다. 앞으로 aixin yuanzhi는 엔드 측과 엣지 측에서 대형 모델의 구현 시나리오를 탐색할 예정입니다.

aixin yuanzhi의 자동차 분야 제품 출하량은 매우 인상적입니다. liu jianwei는 스마트 시티와 자동차의 기본 칩 기술이 유사하기 때문에 aixin yuanzhi가 스마트 시티에서 성숙한 기술을 축적하고 스마트 드라이빙에 들어갈 것이라고 말했습니다. 곧 달성함. 동시에 자동차 분야의 가격전쟁은 산업분업을 촉진하는 기회의 시기가 될 것이다.

▲aixin yuanzhi 공동 창립자 겸 부사장 liu jianwei

국내 ai 칩이 어떻게 생태학적 틈새 시장을 빠르게 찾을 수 있는지에 대해 liu jianwei는 aixin yuanzhi의 심층 개발 장면을 예로 들었습니다. 스마트 도시에는 기본적으로 외국 기업이 없습니다. 지능형 운전 분야에서 nvidia는 0에서 0으로 발전하고 있습니다. 1, 1부터 100까지 비용에 더 주목하는 단계는 국내 사업기회다. ding yunfan은 안정적이고 신뢰할 수 있는 공급 보장, 비용 효율성, 고객 요구에 따른 효율적인 지원 서비스, 효율성 및 사용 편의성이라는 네 가지 요소를 언급했습니다. liu li는 수직 분야를 더 깊이 탐구하고 범용 칩보다 더 효율적이고 최적화된 솔루션을 만들어야 한다고 믿습니다.

liu jianwei는 미래를 내다보면서 향후 4~5년 내에 장치 측면과 클라우드 측면 모두에서 큰 개발 기회가 있을 것이라고 예측합니다. 업계에서 구현 비용이 절감되면 데이터가 더 큰 가치를 실현할 수 있습니다. . liu li는 ai 애플리케이션이 폭발적인 시기를 맞이함에 따라 클라우드 측면에서 추론 수요가 대량으로 증가할 것이라고 믿습니다. ding yunfan은 중국에서 고급 컴퓨팅 성능이 아직 부족하지만 산업 체인의 협력을 통해 안정적인 발전을 이룰 수 있다고 말했습니다.

3. 스마트 컴퓨팅 센터 건설이 증가하고 있습니다. gpu, 국산 tpu, chiplet의 새로운 혁신이 승리하고 있습니다.

오후에 열린 데이터센터 ai 칩 세션에서 yu mingyang habana china 대표는 지난 3년 동안 약 50개 이상의 정부 주도 스마트 컴퓨팅 센터가 건설되었으며 60개 이상이 계획 및 건설 중이라고 밝혔다. 스마트 컴퓨팅 센터 건설은 점차적으로 1선 도시에서 2선 및 3선 도시로, 정부 주도에서 기업 주도로 진행되면서 비용 절감 및 투자 회수 주기에 대한 요구 사항도 점차 높아지고 있습니다.

그의 관찰에 따르면, 대형 모델의 개발은 점점 성숙해지고 추론에 대한 수요는 계속해서 증가할 것입니다. 앞으로는 헤드 csp가 자체 개발한 추론 칩의 성장률이 높아질 것입니다. 추론측.

해외 대형 모델 훈련에 대한 수요는 여전히 강할 것이며, 국내 모델 훈련을 위한 컴퓨팅 능력에 대한 수요는 주로 미세 조정 사업을 중심으로 기본적으로 포화 상태입니다. 미래 ai 개발을 지원하기 위해서는 칩렛, 고속 대용량 메모리, 프라이빗/일반 고속 상호접속 기술의 통합이 핵심적인 역할을 할 것이다.

▲ 유밍양 하바나 차이나 대표

biren technology의 부사장이자 ai 소프트웨어 수석 설계자인 ding yunfan은 대형 모델의 이기종 컴퓨팅 성능 사일로 문제를 해결하기 위해 biren 고유의 이기종 gpu 협업 교육 솔루션 hgct 출시를 발표했습니다. 동일한 대형 모델을 공동으로 훈련하기 위해 3개 이상의 이기종 gpu를 지원하는 업계 최초입니다. 즉, "nvidia + biren + 타사 gpu"와의 혼합 훈련을 지원합니다. 통신 효율성은 98% 이상입니다. 엔드 투 엔드 훈련 효율성은 90~95%에 이릅니다.

bi ren은 고객 및 파트너와 협력하여 china telecom, zte, sensetime, state grid intelligence research institute, shanghai intelligent computing technology co., ltd., shanghai artificial intelligence laboratory, china institute를 포함한 이기종 gpu 협업 교육 생태계를 공동으로 홍보하고 있습니다. 정보통신기술 등

해당 제품은 여러 킬로 카드 gpu 클러스터에 상업적으로 배포되었습니다. biren은 소프트웨어와 하드웨어, 전체 스택 최적화, 이기종 협업 및 오픈 소스를 통합하는 대형 모델 종합 솔루션을 개발했습니다. biren은 처음으로 대형 모델 3d 병렬 작업의 자동 탄력적 확장 및 축소를 실현하여 클러스터 활용률을 거의 100%로 유지했습니다. 1000개 카드 클러스터에서 1000억 개의 매개변수 모델을 10분 만에 자동 복구하는 데 성공했습니다. , 4일 동안 실패가 없고 15일 동안 중단이 없습니다.

▲ding yunfan, biren technology 부사장 겸 ai 소프트웨어 수석 설계자

zhonghao xinying의 공동 창립자이자 cto인 zheng hanxun은 오늘날의 대규모 ai 모델은 컴퓨팅 역사상 언제든지 계산 복잡성과 컴퓨팅 성능 요구 사항을 훨씬 초과하며 ai 계산에 더 나은 특수 칩이 필요하다고 말했습니다. 원래 실시간 렌더링 및 이미지 처리를 위해 설계된 gpu와 비교하여 tpu는 주로 기계 학습, 딥 러닝 모델 및 신경망 계산을 위해 설계되었으며 단일 수축기 배열 아키텍처의 처리량에 매우 최적화되어 있습니다. gpu에 비해 ​​처리 효율이 크게 향상되었습니다.

zhonghao xinying이 자체 개발한 'snap' 칩은 중국 최초의 대량 생산 고성능 tpu 아키텍처 ai 칩입니다. 컴퓨팅 성능, 비용 및 에너지 소비를 종합적으로 계산한 결과, 단위 컴퓨팅 비용은 주요 해외 gpu의 50%에 불과합니다. . zheng hanxun은 대규모 모델 개발의 후반 단계에서 setana 칩의 최대 1,024개 칩 간의 직접 고속 상호 연결이 킬로카 및 10,000ka 클러스터의 최고의 비용 효율성 비율이 중요할 것이라고 믿습니다. 대규모 컴퓨팅 클러스터를 구축하는 데 중요한 요소입니다. 성능은 기존 gpu의 성능을 몇 배나 능가할 수 있습니다.

▲ zhonghao xinying의 공동 창립자이자 cto인 zheng hanxun

inspur information의 개방형 가속 컴퓨팅 제품 책임자인 stephen feng에 따르면, 대형 모델의 매개변수 규모가 증가함에 따라 생성 ai 개발은 부족한 클러스터 확장성, 높은 칩 전력 소비, 어려운 클러스터 배포 및 낮은 시스템이라는 네 가지 주요 과제에 직면하게 됩니다. 신뢰성. 큰 도전. inspur information은 항상 애플리케이션 지향적이고 시스템 중심적이며 kaiyuan의 개방형 시스템을 통해 생성적 ai 혁신의 활력을 자극했습니다.

하드웨어 개방성 측면에서는 고급 컴퓨팅 성능의 온라인 배포를 가속화하고 대형 모델 및 ai 애플리케이션의 반복 가속을 지원하기 위해 oam(open acceleration module) 사양을 확립했습니다. 소프트웨어 개방성 측면에서 대형 모델 개발 플랫폼 "yuannao qizhi" epai를 통해 기업을 위한 전체 프로세스 애플리케이션 개발 지원 플랫폼을 만듭니다. 엔드투엔드 솔루션을 통해 기본 분야에 존재하는 환상 문제를 해결합니다. 복잡한 프로세스, 높은 임계값, 다중 모델 적용의 어려움, 높은 비용 등의 구현 문제로 인해 기업용 대형 모델 애플리케이션의 혁신과 구현이 가속화됩니다.

▲inspur information open accelerated computing products 책임자 stephen feng

qingcheng jizhi는 ai 인프라 트랙에 중점을 두고 2023년에 설립되었습니다. 팀은 칭화대학교 컴퓨터 과학과에서 인큐베이션되었으며 지능형 컴퓨팅 성능 최적화 분야에서 10년 이상의 경험을 축적했습니다.

qingcheng jizhi의 공동 창립자인 shi tianhui는 국내 고성능 컴퓨팅 시스템이 결함 복구의 어려움과 하위 상태의 성능과 같은 과제에 직면해 있다고 밝혔으며, qingcheng jizhi는 이미 10개 핵심 기본 소프트웨어 시스템의 협력이 필요합니다. 절반 이상의 분야가 자체 개발한 제품을 보유하고 있습니다.

현재 qingcheng jizhi는 하위 수준 컴파일러에서 상위 수준 병렬 컴퓨팅 시스템까지 풀 스택 기술 축적을 마스터하고 대형 모델 산업 생태계에 대한 전체 스택 적용 범위를 달성했으며 여러 개의 높은 처리량 추론 최적화를 완료했습니다. 국내 칩 및 주류 대규모 모델이 신속하게 이식 및 최적화되어 계산 효과가 크게 향상되었습니다. 이 중 국내 초대형 컴퓨팅 파워 클러스터를 위해 개발된 대형 모델 훈련 시스템 '바과로(bagua furnace)'는 서버 10만 대 규모까지 확장이 가능하며 174조 개의 매개변수로 모델을 훈련하는데 활용된다.

▲ qingcheng jizhi 공동 창립자 shi tianhui

xinhe semiconductor의 기술 마케팅 이사인 huang xiaobo는 컴퓨팅 성능에 대한 수요가 지난 20년 동안 60,000배 증가했으며 향후 10년 안에 100,000배에 도달할 수 있다고 말했습니다. 스토리지 및 상호 연결 대역폭이 주요 개발 병목 현상이 되었습니다. chiplet 통합 시스템은 포스트 무어 시대의 고급 프로세스 제한과 고성능 컴퓨팅 성능 향상을 위한 중요한 방향이 되었습니다. 이는 ai 대형 컴퓨팅 파워 칩과 ai 컴퓨팅 파워 클러스터 네트워크 스위칭 칩에 널리 사용되었습니다.

이와 관련하여 xinhe semiconductor는 chiplet 통합 시스템의 설계 및 개발을 위한 원스톱 다중 물리 시뮬레이션 eda 플랫폼을 제공합니다. 이 플랫폼은 주류 프로세스 설계에서 상호 연결 구조의 파라메트릭 모델링을 지원합니다. 시뮬레이션 기능은 다른 플랫폼보다 10배 빠릅니다. 또한 시뮬레이션 효율성을 향상시키기 위해 메모리의 1/20만 차지합니다. 국내외 리더들로부터 많은 상을 받았습니다. ai 컴퓨팅 파워 칩 설계 제조업체는 이를 사용하여 대규모 컴퓨팅 파워 chiplet 통합 시스템 제품의 구현을 가속화합니다.

▲황샤오보(huang xiaobo) xinhe semiconductor 기술 마케팅 이사

대형 모델을 훈련하는 동안 네트워크 인프라가 비용의 30%를 차지하므로 네트워크 성능의 중요성이 부각됩니다. qimo의 공동 창립자이자 제품 및 솔루션 담당 부사장인 zhu jundong에 따르면, 네트워크는 지능형 컴퓨팅 성능의 병목 현상이 되었습니다. ai 네트워크를 구축하려면 클러스터 네트워크 간 상호 연결, 캐비닛 내 상호 연결, 그리고 칩 내의 상호 연결.

빅 인텔리전스 컴퓨팅 클러스터에는 고성능 상호 연결이 필요하며 modernize rdma 및 chiplets가 핵심 기술이 되었습니다. rdma를 최적화하기 위해 qimo의 ndsa 네트워크 가속 코어 시리즈는 프로그래밍 가능한 다중 코어 스트리밍 아키텍처를 기반으로 하며 고성능 데이터 엔진을 사용하여 고성능 데이터 흐름과 유연한 데이터 가속을 달성합니다. ge가 선보인 gpu 링크 칩렛 'ndsa-g2g'는 이더넷 인프라를 기반으로 고성능 데이터 엔진과 d2d 인터페이스 기술을 통해 테라바이트급 스케일업(scale-up) 네트워크 고대역폭을 구현하며, 성능은 동급 수준이다. 글로벌 상호접속 기술의 벤치마크.

▲qimo 공동 창립자이자 제품 및 솔루션 담당 부사장 zhu jundong

alphawave는 hpc, ai 및 고속 네트워크 애플리케이션을 위한 ip, 칩렛 및 asic 설계 솔루션을 제공하는 회사입니다. 아시아 태평양 지역 수석 사업 이사인 guo dawei는 데이터 전송 중에 직면하는 문제에 대응하여 alphawave ip 제품이 경쟁 제품보다 2배 낮은 비트 오류율을 제공할 수도 있다고 말했습니다. 통합 및 검증을 수행하며 arm 생태계와 긴밀하게 통합됩니다. 또한 고객의 soc에 대한 전체 수명주기 지원을 제공할 수도 있습니다.

칩렛 측면에서 alphawave는 고객이 주기를 단축하고, 비용을 절감하고, 수율과 반복 속도를 향상시키는 데 도움을 주며, 올해 출시된 업계 최초의 다중 프로토콜 io 연결 칩렛을 만들었습니다. 맞춤형 칩 측면에서 alphawave는 주로 7nm 이하 공정에 중점을 두고 있으며 고객 요구에 따라 사양부터 테이프아웃까지 전체 프로세스를 완료할 수 있습니다. 현재 dppm 미만으로 375개 이상의 성공적인 테이프아웃을 달성했습니다. 25.

▲guo dawei 알파웨이브 아시아태평양 지역 사업부 수석 이사

결론: 다운스트림 인텔리전스가 급증하고 있으며 ai 칩은 역사적 기회에 직면해 있습니다.

일반 인공지능이라는 궁극적인 주제로 나아가는 과정에서 ai 알고리즘의 형태는 계속해서 변화하고, ai 칩도 이를 따라갑니다. 고대 자갈이 미래의 기계 지능과 만나면 기술과 엔지니어링 지혜가 합쳐지고 충돌합니다. 절묘한 디자인의 ai 칩이 컴퓨팅 클러스터에 들어가 수천 가구에 들어가 실리콘 기반 생활의 진화를 지원합니다.

지능형 컴퓨팅 센터와 지능형 운전부터 ai pc, ai 휴대폰, 새로운 ai 하드웨어에 이르기까지 다운스트림 인텔리전스의 추세는 다양한 시나리오를 기반으로 하는 ai 칩에 새로운 역사적 기회의 물결을 가져왔습니다. 빠르게 개발되는 생성 ai 알고리즘과 애플리케이션은 계속해서 새로운 컴퓨팅 성능 문제를 해결하고 있습니다. 기술 혁신과 시장 수요가 ai 칩 시장 확대와 ai 칩 경쟁 구도 다변화를 이중으로 촉진하고 있다.

9월 7일에는 2024 글로벌 ai 칩 서밋(global ai chip summit)에서도 ai 칩 아키텍처 혁신에 관한 특별 세션과 엣지/엔드 사이드 ai 칩에 관한 특별 세션이 메인 행사장에서 개최되는 등 집중적인 정보를 계속 전달할 예정이다. 상위 20개 지능형 컴퓨팅 클러스터 솔루션 기업' 및 '2024년 '중국의 신흥 ai 칩 기업 상위 10개' 목록이 있으며, 지능형 컴퓨팅 클러스터 기술 포럼과 중국 risc-v 컴퓨팅 칩 혁신 포럼이 하위 장소에서 개최됩니다. .