소식

zhou jingren: ai 인프라 업그레이드에 전액 투자

2024-09-19

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

9월 19일 2024년 항저우 yunqi 컨퍼런스에서 alibaba cloud cto zhou jingren은 alibaba cloud가 ai 시대에 ai 인프라의 새로운 표준을 설정하고 서버부터 컴퓨팅, 스토리지, 네트워크, 데이터 처리, 데이터 처리까지 모든 것을 포괄적으로 업그레이드하고 있다고 말했습니다. 훈련 및 추론 플랫폼의 기술 아키텍처는 데이터 센터를 슈퍼컴퓨터로 전환하여 각 ai 및 애플리케이션에 고성능의 효율적인 컴퓨팅 서비스를 제공합니다.
컨퍼런스 현장에서는 tongyi large model의 연례 주요 출시 행사가 열렸습니다. 기본 모델은 gpt-4o에 버금가는 성능으로 업그레이드됐다. 오픈소스 모델인 qwen2.5 시리즈는 언어, 오디오, 비전 등을 포함한 100개 이상의 풀모달 모델이 동시에 출시됐다. tongyi 오픈소스 모델의 다운로드 수는 4,000만 건을 넘어섰고, tongyi 기본 모델이 출시되었으며, 모델 및 파생 모델의 총 개수는 50,000개를 넘어 미국의 llama에 이어 세계적 수준의 모델 그룹이 되었습니다.
강력한 ai 인프라 구축
전통적인 it 시대와 달리 ai 시대는 인프라 성능과 효율성에 대한 요구 사항이 더 높습니다. cpu 중심의 컴퓨팅 시스템은 gpu 중심의 ai 컴퓨팅 시스템으로 빠르게 전환되었습니다. alibaba cloud는 ai를 중심으로 기본 하드웨어, 컴퓨팅, 스토리지, 네트워크, 데이터베이스 및 빅 데이터를 종합적으로 재구성하고 ai 시나리오를 유기적으로 적용 및 통합하여 모델 개발 및 적용을 가속화하고 강력한 ai 인프라를 구축합니다. ai 시대에.
zhou jingren은 "클라우드 공급업체는 풀스택 기술 보유량을 보유하고 있으며 인프라의 포괄적인 업그레이드를 통해 ai 훈련, 추론, 배포 및 애플리케이션의 전체 수명 주기가 더욱 효율적이 되었습니다."라고 말했습니다.
컨퍼런스에서 zhou jingren은 alibaba cloud 전체 제품군의 ai 기반 업그레이드를 시연했습니다. 새롭게 출시된 panjiu ai 서버는 머신당 16개의 카드와 1.5t의 비디오 메모리를 지원하며 92%의 정확도로 gpu 오류를 예측하는 ai 알고리즘을 제공합니다. 토폴로지 인식 스케줄링 속도 및 성능 향상, ai용으로 설계된 고성능 네트워크 아키텍처인 hpn7.0은 100,000개 이상의 gpu를 안정적으로 연결할 수 있으며 모델의 엔드투엔드 훈련 성능이 10개 이상 향상됩니다. %; alibaba cloud cpfs 파일 저장, 데이터 처리량 20tb/s, ai 지능형 컴퓨팅을 위한 기하급수적으로 확장된 저장 기능을 제공합니다. 인공 지능 플랫폼 pai는 wanka 수준 교육 및 추론의 통합 탄력적 스케줄링과 ai의 유효 활용률을 달성했습니다. 컴퓨팅 파워가 90%를 초과합니다.
지난 2년 동안 모델의 크기는 수천 배 증가했지만 모델의 컴퓨팅 성능 비용은 계속 감소하여 기업이 모델을 사용하는 것이 더 저렴해졌습니다. zhou jingren은 "이것은 ai 인프라의 포괄적인 개혁이 가져온 기술적 배당금입니다. 우리는 고급 ai 인프라 구축에 계속 투자하고 수천 개의 산업에 대형 모델 도입을 가속화할 것입니다."라고 강조했습니다.
300,000개 이상의 기업 고객이 향후 tongyi 대형 모델에 액세스할 수 있을 것으로 보고되며, 앞으로는 생물 의학, 산업 시뮬레이션, 일기 예보, 게임 등의 산업에서 대형 모델 수용이 가속화되어 ai 컴퓨팅의 새로운 국면이 도래할 것입니다. 전력 성장. zhou jingren은 "alibaba cloud는 gpu 컴퓨팅 성능, 특히 다가오는 추론 시장에 대한 수요의 기하급수적인 증가에 대처할 준비가 되어 있습니다."라고 말했습니다.
고급 대형 모델 열기
지난 해 대형 모델 기술은 대형 언어부터 비디오 생성, 다중 모드 모델에 이르기까지 여러 단계의 이정표를 달성했습니다. 대형 모델의 기능은 계속 확장되고 있으며 수학, 코딩 및 추론 기능도 계속해서 향상되고 있습니다.
대형 모델 기술을 배치한 업계 최초의 기술 회사 중 하나인 alibaba cloud는 작년 4월에 대형 언어 모델 tongyi qianwen을 출시했습니다. 이제 tongyi 대형 모델 제품군은 언어, 이미지, 비디오 등 모든 모드를 완전히 포괄합니다. 오디오 등 고성능을 갖춘 두 모델 모두 세계 최초의 모델 중 하나입니다. 동시에 tongyi 모델은 계속해서 오픈 소스를 유지하며 기업과 개발자에게 인기 있는 국내 대형 모델 중 하나가 되었습니다.
컨퍼런스에서 zhou jingren은 tongyi의 주력 모델인 qwen-max가 모든 측면에서 업그레이드되었으며 동시에 gpt-4o에 가까운 성능으로 가장 강력한 오픈 소스 모델인 qwen2.5 시리즈가 출시되어 세계 최고의 제품이 되었다고 발표했습니다. 미국에서는 llama에 이어 두 번째인 클래스 모델 그룹입니다. 이번에는 총 100개의 모델을 오픈 소스화하여 기업과 개발자가 저렴한 비용으로 대형 모델을 사용할 수 있게 되었습니다.
프로그래밍 시나리오의 경우 alibaba cloud tongyi lingma는 다시 업그레이드되어 새로운 ai 프로그래머를 출시했습니다. 이전 세대 제품과 달리 설계자, 개발 엔지니어, 테스트 엔지니어 등 다양한 직업 기술을 갖추고 있으며 작업 분해 및 코드를 독립적으로 완료할 수 있습니다. 작성, 결함 복구, 테스트 및 기타 개발 작업, 애플리케이션 개발을 가장 빠르게 몇 분 안에 완료할 수 있어 소프트웨어 개발이 수십 배 더 효율적으로 수행될 수 있습니다.
백모델전쟁 이후 1년, 적용은 대형모델 업계의 화두가 됐다. maas(model as a service) 개념을 최초로 제안한 회사인 alibaba cloud는 항상 대형 모델 생태계의 번영을 주요 목표로 여겨 왔습니다. 현재 moda 커뮤니티는 690만 명 이상의 개발자 사용자를 보유한 중국 최대의 모델 커뮤니티가 되었으며 업계 파트너와 협력하여 10,000개 이상의 모델을 제공했습니다.
zhou jingren은 "기업과 개발자가 가장 저렴한 비용으로 ai를 만들고 사용할 수 있기를 바랍니다."라고 zhou jingren은 말했습니다. (이지)
출처: guangming.com
보고/피드백