소식

“10만 장의 카드 클러스터”가 다가오고 있습니다. 거대 기술 기업들이 ai 컴퓨팅 성능의 한계를 놓고 경쟁하고 있습니다.

2024-09-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

[이전에도 anthropic ceo는 현재 ai 모델 훈련 비용이 10억 달러이며, 향후 3년 안에 이 수치가 100억 달러, 심지어 1000억 달러까지 늘어날 수 있다고 밝혔습니다. ]

업계에서는 '10,000ka 클러스터'를 이번 대규모 모델 경쟁의 '티켓'으로 간주하고 있습니다. 이제 '100,000ka 클러스터'는 거대 기술 기업들이 경쟁할 수 있는 새로운 고지가 되었습니다.

baidu group의 수석 부사장인 shen dou는 9월 25일 baidu zhiyun 컨퍼런스에서 "더 많은 100,000개 카드 클러스터가 곧 나타날 것입니다."라고 말했습니다.

그는 지난 1년 동안 모델 교육에 대한 고객 수요가 급증했으며 필요한 클러스터 크기도 점점 커지고 있다고 언급했습니다. 동시에 모델 추론 비용의 지속적인 감소에 대한 모든 사람의 기대도 높아지고 있습니다. 그리고 더 높은. 이는 gpu 관리의 안정성과 효율성에 대한 더 높은 요구 사항을 제시했습니다. 같은 날 baidu는 100,000개의 카드 클러스터를 배포하고 관리할 수 있는 ai 이기종 컴퓨팅 플랫폼 baige 4.0을 업그레이드했습니다.

사실, 이번 생성적 인공지능의 폭발 뒤에는 부분적으로 업계가 컴퓨팅 파워의 스택을 지속적으로 증가시켜 대형 모델 성능의 비약을 달성한 데가 있습니다. 따라서 업계에서는 wanka 클러스터를 ai 핵심 서클에 진입하기 위한 '표준 구성'으로 간주합니다. 그러나 지금은 완카(wanka)조차 수요를 완전히 충족시키지 못하고 있다. baidu뿐만 아니라 점점 더 많은 업계 거대 기업들이 더 높은 컴퓨팅 효율성과 대규모 모델 성능을 추구하기 위해 100,000개의 카드 클러스터를 배포하고 있습니다.

최근 윈치(yunqi) 컨퍼런스에서 알리바바 클라우드는 단일 네트워크 클러스터가 10만개 카드 수준으로 확장된 ai 시대를 맞이한 새로운 인프라를 선보였으며, 칩, 서버, 네트워크, 스토리지부터 냉각까지 모든 것을 발전시키고 있다. 미래를 위한 첨단 ai 인프라를 재구축합니다.