ニュース

zhou jingren: ai インフラストラクチャのアップグレードに全額投資する

2024-09-19

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

9月19日、2024 hangzhou yunqi conferenceで、alibaba cloudの最高技術責任者(cto)周景仁氏は、alibaba cloudがサーバーからコンピューティング、ストレージ、ネットワーク、データ処理に至るすべてを包括的にアップグレードし、ai時代のaiインフラストラクチャの新たな標準を設定していると述べた。トレーニングおよび推論プラットフォームの技術アーキテクチャは、データセンターをスーパーコンピューターに変え、各 ai とアプリケーションに高性能で効率的なコンピューティング サービスを提供します。
カンファレンス会場では、tongyi large model が年次メジャー リリースを開始しました。基本モデルをgpt-4oと同等の性能にアップグレードしたオープンソースモデルqwen2.5シリーズを、言語、音声、視覚を含む100以上のフルモーダルモデルを同時にリリースしました。 tongyi オープンソース モデルのダウンロード数は 4,000 万を超え、tongyi ネイティブ モデルのリリース数は合計 50,000 を超え、米国の llama に次ぐ世界クラスのモデル群となっています。
強力な ai インフラストラクチャを構築する
従来の it 時代とは異なり、ai 時代ではインフラストラクチャのパフォーマンスと効率に対するより高い要件が求められ、cpu 主導のコンピューティング システムから gpu 主導の ai コンピューティング システムに急速に移行しています。 alibaba cloud は ai を中心として、基盤となるハードウェア、コンピューティング、ストレージ、ネットワーク、データベース、ビッグデータを包括的に再構築し、ai シナリオと有機的に適応および統合して、モデルの開発と適用を加速し、強力な ai インフラストラクチャを構築します。 ai時代。
zhou jingren 氏は、「クラウド ベンダーはフルスタックのテクノロジーを保有しており、インフラストラクチャの包括的なアップグレードを通じて、ai のトレーニング、推論、展開、アプリケーションのライフサイクル全体がより効率的になりました。」と述べました。
カンファレンスでは、zhou jingren 氏が alibaba cloud の製品ファミリー全体の ai 主導のアップグレードをデモンストレーションしました。新しく発売された panjiu ai サーバーは、マシンあたり 16 枚のカードと 1.5t のビデオ メモリをサポートし、92% の精度で gpu 障害を予測する ai アルゴリズムを提供します。alibaba cloud acs は初めて gpu コンテナ コンピューティング パワーを起動し、次のようなコンピューティング アフィニティを実現します。トポロジーを意識したスケジューリング 速度とパフォーマンスの向上、ai 向けに設計された高性能ネットワーク アーキテクチャである hpn7.0 は、100,000 個を超える gpu を安定して接続でき、モデルのエンドツーエンドのトレーニング パフォーマンスが 10 以上向上しました。 %; alibaba cloud cpfs ファイル ストレージ、データ スループット 20tb/s、ai インテリジェント コンピューティングに飛躍的に拡張されたストレージ機能を提供し、人工知能プラットフォーム pai は、wanka レベルのトレーニングと推論の統合された柔軟なスケジューリングと ai の有効利用率を実現しました。計算能力は90%を超えます。
過去 2 年間で、モデルのサイズは数千倍に増加しましたが、モデルのコンピューティング能力コストは低下し続けており、企業によるモデルの使用は安価になっています。周静仁氏は「これはaiインフラの包括的改革によってもたらされる技術的恩恵だ。われわれは今後も高度なaiインフラの構築に投資し、数千の業界への大規模モデルの導入を加速する」と強調した。
報告によると、30 万社を超える企業顧客が tongyi の大型モデルにアクセスしており、将来的には生物医学、産業用シミュレーション、天気予報、ゲームなどの業界で大型モデルの採用が加速し、ai コンピューティングに新たな局面がもたらされることになるでしょう。力の成長。 zhou jingren 氏は、「alibaba cloud は、gpu コンピューティング能力、特に今後の推論市場に対する需要の急激な増加に対処する準備ができています。」と述べました。
オープンアドバンス大型モデル
過去 1 年間で、大規模モデル テクノロジは、大規模言語からビデオ生成、マルチモーダル モデルに至るまで、複数のマイルストーンを達成しました。大規模モデルの機能は依然として拡大しており、数学、コーディング、および推論の能力は向上し続けています。
業界で最も早く大規模モデル技術を展開したテクノロジー企業の 1 つとして、alibaba cloud は昨年 4 月に大規模言語モデル tongyi qianwen をリリースしました。現在、tongyi 大規模モデル ファミリは言語、画像、ビデオ、動画などのすべてのモードを完全にカバーしています。どちらも世界初のモデルであると同時に、tongyi モデルは引き続きオープンソースであり、企業や開発者に人気のある大規模な国内モデルの 1 つとなっています。
カンファレンスで、zhou jingren 氏は、tongyi のフラッグシップ モデル qwen-max があらゆる面でアップグレードされ、gpt-4o に近い性能を備えたことを発表しました。同時に、最強のオープンソース モデル qwen2.5 シリーズがリリースされ、世界トップクラスになりました。米国ではllamaに次ぐクラスモデル群 今回は計100モデルがオープンソース化され、企業や開発者が大規模なモデルを低コストで利用できるようになった。
プログラミングシナリオに関しては、alibaba cloud tongyi lingma が再びアップグレードされ、新しい ai プログラマーが起動されました。前世代の製品とは異なり、アーキテクト、開発エンジニア、テストエンジニアなどの複数のジョブスキルを備えており、タスクの分解とコードを独立して完了できます。書き込み、欠陥修正、テスト、その他の開発作業を行うと、アプリケーション開発は最速で数分で完了するため、ソフトウェア開発の効率が数十倍向上します。
百模型戦争から一年、応用が大型模型業界の主要テーマとなった。 model as a service (maas) の概念を提案した最初の企業として、alibaba cloud は常に大規模モデル エコシステムの繁栄を主な目標として捉えてきました。現在、moda コミュニティは 690 万人を超える開発者ユーザーを擁する中国最大のモデル コミュニティとなり、業界パートナーと協力して 10,000 を超えるモデルを提供しています。
「企業や開発者が最小限のコストで ai を作成して使用できるようになり、誰もが最先端の大型モデルを使用できるようになることを願っています。」と zhou jingren 氏は述べています。 (リ・ジ)
出典: guangming.com
レポート/フィードバック