ニュース

端に着陸した大型モデルには何が残ったのでしょうか?

2024-08-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

大規模モデルが業界の強化のプロセスを開始するにつれて、エッジ/サイドでの大規模な展開がさらなる開発の最優先事項となっています。ただし、エッジ/サイドでの展開は、大規模モデルの即時応答とプライバシー保護の実現に確かに有利ですが、コンピューティング能力の断片化、エネルギー効率の問題、実装シナリオの点で課題にも直面します。企業にとって、これは困難であると同時にチャンスでもあります。

業界アプリケーションのニーズに後押しされ、大規模モデルがエッジに向けて開発されています。

現在、我が国の大規模模型産業は急速な発展を遂げています。統計によると、3月末現在、中国で発売された大型モデルの数は117モデルに達している。ただし、開発プロセスにおいては、独自のブレークスルーを重視する米国とは異なり、中国の大手モデル企業はアプリケーションの実装を重視しています。 360グループの創設者兼会長である周宏儀氏は以前の講演で、ボリュームモデル、コンピューティング能力、データだけが数兆のパラメータに向けたモデルを開発する唯一の選択肢ではないと述べた。人工知能の大規模モデルには、より多様な開発パスがあります。 Face Wall Intelligence の共同創設者兼 CEO である Li Dahai 氏も、今や開発における重要なトレンドの 1 つとなっているインダストリー モデルの重要性を強調しました。

何千もの業界をより効果的に支援したい場合、大規模なモデルと関連するコンピューティング能力をクラウドにのみ導入することはできません。クラウドにはない比較上の利点があります。 1つ目は、エンドサイドモデルの方が信頼性が高いことです。端末上にデプロイされたモデルは、環境とリアルタイムかつ継続的に対話できますが、クラウド モデルではこの継続性を維持することが困難です。次に、クライアント側モデルでは、ユーザーのプライバシーをより確実に確保できます。将来、ロボットが家庭に広く普及すると、プライバシーの問題はさらに深刻になるだろう。データのプライバシーを確​​保する上でのクライアント側モデルの利点はさらに明白です。



この理解に基づいて、一部のエッジ コンピューティング企業は、エッジ AI に関するシナリオの実践を率先して実行し、エッジ AI を複数の分野に導入することに成功しています。たとえば、インテリジェント製造の分野では、NVIDIA の Jetson エッジ コンピューティング プラットフォームは、AI 推論コンピューティング機能を産業シナリオに導入し、GPU で高速化された AI ビジュアル推論を使用して、組立ラインでの欠陥検出や柔軟な製造などの問題を解決できます。インテルのソリューションは、インテリジェントな監視、教育と教育、スマート医療などの分野でも使用されており、さまざまなエッジ デバイスの管理を通じて、エッジ インテリジェンス サービスの柔軟性、効率性、正確性を高めます。

エッジおよびエンドサイド モデルの開発もエッジ AI コンピューティングの成長を促進し、関連するコンピューティング パワー、チップ、その他の業界チェーン リンクが大規模開発の波をもたらしました。 Aixin Yuanzhi の創設者兼会長である Qiu Xiaoxin 氏は、大規模モデルの真の大規模実装には、クラウド、エッジ、エンドの 3 つのレベルでの緊密な統合が必要であり、エッジ側とエンド側の組み合わせの鍵は AI にあると指摘しました。コンピューティングと認識。 Qiu Xiaoxin 氏は、スマート チップとマルチモーダル大型モデルが人工知能時代の「黄金の組み合わせ」になったと考えています。アプリケーションで大型モデルがますます使用されるようになると、より経済的、より効率的、より環境に優しいことがキーワードになるでしょう。スマートチップとAI搭載プロセッサの効率的な推論チップは、大規模なモデルの実装にとってより合理的な選択となり、これは包括的なAIを推進するための鍵でもあります。 STL Partners は、2030 年までに世界のエッジ コンピューティングの潜在的な市場規模は 4,450 億米ドルに成長し、業界の年間複合成長率は 48% にも達すると予測しています。

断片化の課題に対処するための多様なコンピューティング能力の導入

ただし、エッジ/エンド側への大規模モデルの導入は一夜にして達成できるものではありません。エッジ デバイスのコンピューティング リソースの制限と大規模モデルのコンピューティング リソース要件の多様性により、エッジの導入はまずコンピューティング能力の面で課題に直面します。一方で、モデル メーカーは、大規模なモデルに対して圧縮、枝刈り、定量化などの技術的処理を実行して、モデルのサイズと計算の複雑さを軽減し、エッジ/エンドサイド デバイスのパフォーマンス要件に適応できるようにする必要があります。一方で、計算能力基盤をいかに向上させるか、設備の導入も焦点となります。

Intel Chinaのネットワークおよびエッジ部門の最高技術責任者であるZhang Yu氏は、人工知能が何千もの産業に力を与える中、アプリケーションごとにコンピューティングパワーに対する要求も異なり、その範囲は非常に広いと強調した。高いパフォーマンス要件を持つデバイスはコンピューティング能力クラスターでホストする必要がありますが、コンピューティング能力要件が低いデバイスは 1 つまたは複数使用できます。 Arm TechnologyのプロダクトディレクターであるYang Lei氏も、このような大規模なAIモデルを端末に展開する場合、コスト、消費電力、ソフトウェアエコシステムなどの複数の課題に依然として直面すると述べた。



このような需要傾向に対応して、Inspur や Lenovo などのコンピューティング電源インフラストラクチャのサプライヤーは、近年、「エンド、エッジ、クラウド、ネットワーク、インテリジェンス」を中心としたコンピューティング電源レイアウトを構築しています。製品には、さまざまな業界のコンピューティング能力のニーズを満たすインテリジェント エッジ ゲートウェイ、エッジ サーバー、産業用コントローラー、組み込みコンピューター、その他のハードウェア デバイスが含まれます。チップ側では、より複雑な AI の計算能力に対応するために、CPU+GPU+NPU の統合がプロセッサ開発の方向性になっています。クアルコムは、数百億のパラメーターレベルのモデルをサポートする統合専用ニューラルプロセッシングユニット「Snapdragon X Elite」を発売します。 Intel Meteor Lake プロセッサーは、NPU の AI 機能とプロセッサー内のコンピューティング エンジンを組み合わせて、AI 機能を実行する PC のエネルギー効率を向上させます。国内の AI チップに関しては、愛新源志も最近「愛新東源 AI プロセッサ」をリリースしました。コアのオペレータ命令セットとデータ フロー マイクロ アーキテクチャは、エネルギー効率とコンピューティング能力を効果的に向上させることができるプログラマブル データ フロー マイクロ アーキテクチャを採用しています。エッジコンピューティングやAI推論分野の開発に適した密度。

エッジ側のエネルギー効率の問題が顕著であり、軽量化開発が鍵となる

エネルギー効率も、エッジ大型モデルの開発において考慮する必要がある重要な問題です。実際、大規模なモデルをエッジ/エンド側に効果的に導入したい場合、クラウドと比較してエネルギー効率の問題がより顕著になります。 Intel の上級副社長兼ネットワークおよびエッジ部門のゼネラルマネージャーである Sachin Katti 氏は、筆者とのインタビューで、コンピューティングパワーを議論する際には、コンピューティングパワーやソフトウェアエコロジーなどの最適化に加えて、消費電力も重要な問題であると述べた。特にエッジに展開されている場合。エッジ展開された機器のエネルギー消費量は約 200 W、クラウド展開のエネルギー消費量は 1k ~ 2kW、データセンターの単層ラックのエネルギー消費量は 100kW に達する場合があります。データセンター全体のエネルギー消費量を合計すると、50G~100GWの規模に達する可能性がある。

多くの場合、エッジ デバイスのコンピューティング能力とメモリは限られており、大規模なモデルでは高パフォーマンスの推論のために大量のリソースが必要になります。 したがって、モデルの精度と応答速度を確保しながら、リソース利用を最適化し、エネルギー消費を削減する方法が重要な問題となっています。この傾向に対応して、関連メーカーは、AMD がリリースした Ryzen AI モデル展開エンジン、Intel の OpenVINO 推論高速化ライブラリ、NVIDIA の TensorRT 高性能推論高速化ライブラリなど、ターゲットを絞ったものと組み合わせた軽量開発フレームワークや高速化ライブラリを推進してきました。組み込み端末およびモバイル端末用の軽量開発フレームワーク (PyTorch Mobile、TensorFlow Lite、Paddle Lite など) は、モバイル デバイス、モノのインターネット、その他のエッジ コンピューティング シナリオにおける人工知能の広範な適用を促進できます。



さらに、業界ではサーバーを冷却する手段として液体冷却技術が広く採用され始めており、データセンターや大規模モデルの展開で徐々に使用されています。既存の液体冷却技術はすでに 100kW のフリートを冷却でき、将来的には 300kW まで拡張されることが期待されていると考えられています。

AI応用を探る、将来の「スターシーン」は誰になるのか?

業界用途における大型モデルの威力がますます重視されるようになり、適切な「スターシーン」を見つけることが業界の成否を決める重要な問題となっています。現在、AI携帯電話、AI PC、自動運転は、大型モデルの最も有望なアプリケーション市場となっています。

市場調査会社IDCの最新調査によると、AI携帯電話市場は2024年に2億3,420万台の出荷に達し、2023年の出荷台数5,050万台から363.6%増加し、スマートフォン全体の19%を占めると予想されています。今年のマーケット。 AI携帯電話の出荷台数は2028年に9億1,200万台に達し、年平均成長率は78.4%となる見込みだ。 IDCのWorldwide Quarterly Mobile Phone TrackingのリサーチディレクターであるAnthony Scarsella氏は、多くの強力なチップやNPUは高価であり、主にウルトラハイエンド市場で販売されているため、AI携帯電話が発売される際にはコストが依然として主要な阻害要因となるだろうと述べた。しかし、時間が経ち、競争が激化するにつれて、これらのコンポーネントはミッドレンジおよびより手頃な価格のモデルに採用されると考えられます。

AI PC は当初の予想よりも早く成熟しており、世界の PC 業界に代替の波をもたらすと予想されています。 Canalysの予測によると、世界のAI PC普及率は2024年から2028年にかけて19%から71%に増加し、出荷台数は5,100万台から2億800万台に増加し、年平均成長率は42.11%となるという。モルガン・スタンレーは、AI PCが今年PC市場全体に占める割合は2%となり、来年には16%、2026年には28%、2027年には48%、2028年には64%に増加すると予測している。

自動車における大型モデルの使用はまだ初期段階にありますが、インテリジェンスの概念が徐々に人々の心に根付くにつれて、自動車は最終的には「歩くモバイル端末」になるだろうということがほとんどの人のコンセンサスになりました。車に積まれた大型の AI モデルも「急行列車に乗車」します。大型モデルを自動車に搭載するには、主に 2 つの方向性があります。1 つは、よりインテリジェントな人間とコンピューターのインタラクションを実現するためにコックピット領域に入ることであり、もう 1 つは、インテリジェントな運転ソリューションをさらに改善するために自動運転システムと連携することです。 Maichi Intelligent Technology Co., Ltd.のCTOであるZhang Chi氏は、大型モデルは高速道路からより複雑な都市シナリオへの自動運転の移行を加速し、エンドツーエンドの認識と制御の統合の形成も促進すると述べた。愛新元志の共同創設者兼副社長である劉建偉氏は、愛新元志は2022年のトランスフォーマーの流行を予測し、愛新東源AIプロセッサを搭載したチップの発売を主導したと述べた。 M55HやM76HなどのAixin Yuanzhiのスマート運転チップは、現在の売れ筋モデルに搭載されています。