ニュース

専門家:中国のAI開発は「チップの積み重ね」に頼ることはできない

2024-07-29

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

出典:環球時報

[環球時報記者マー・ジュン] 米国はソフトウェアとハ​​ードウェアの優位性を頼りに、その規模を利用して世界で最も強力な人工知能(AI)を「積み上げる」。アメリカの億万長者マスク氏は最近、自身のAIスタートアップ企業xAIがAIトレーニングに10万個のH100 GPUで構成される「メンフィス・スーパー・クラスター」の使用を開始したとソーシャルメディアで発表し、「世界で最も強力なAIトレーニング・クラスター」であると主張した。中国は米国主導のこの技術的道をたどるべきでしょうか?最近、中国インテリジェントコンピューティング産業同盟と国家ビーコン委員会コンピューティングパワー標準ワーキンググループが共催した2024年中国コンピューティングパワー開発専門家セミナーで、多くの学者や専門家がそれぞれの意見を述べた。

超知能統合の未来は3段階に分かれる

中国科学院院士の陳潤生氏はセミナーで、「人工知能の大型モデルは新たな生産性の代表格だ。大型モデルとスーパーコンピューティングの統合開発は非常に重要だ。我が国は真剣にレイアウトして検討する必要がある」と述べた。中国科学院コンピューティング技術研究所の研究員、Zhang Yunquan氏は、大規模モデルの急速な開発は新たな生産性の特徴を示しているが、現在はコンピューティング能力のボトルネックにも直面していると述べた。スーパーコンピューティング分野における中国の深い技術蓄積を考慮すると、スーパーインテリジェント融合(スーパーコンピューティングと大型モデルに代表されるインテリジェントコンピューティングの融合)がこの課題を効果的に解決できることが期待されている。国家情報センターの情報産業発展部の責任者であるシャン・ジグアン氏は、「超インテリジェント融合は、基本的なコンピューティング能力、インテリジェントなコンピューティング能力、スーパーコンピューティング能力などの現在の多様な発展によって生まれました。ハイブリッド コンピューティング リソースまたは統合コンピューティング システムを使用して、複数の異なるコンピューティング リソースのアプリケーション ニーズを同時に満たせるかどうか。」

中国科学院の院士、銭徳平氏は、超知能統合の将来のプロセスを予測する際、それは明らかに「AIのため」「AIによる」「AIである」という3つの段階に沿って進化し、全方位的に進化すると信じている。ハードウェアからソフトウェアまで、人工知能に適応し、テクノロジーの開発を促進します。 AI の第 1 フェーズでは、AI タスクを効率的にサポートして実行できるようにし、人工知能研究のための強固なインフラストラクチャを提供するために、既存のコンピューター システムの変革とアップグレード、専用ハードウェアの開発に焦点を当てます。 AI による第 2 段階では、AI は従来のスーパーコンピューティングの問題を解決するために使用されますが、その一方で、AI は従来のコンピューターの構造にも影響を及ぼします。明らかになる。 AI としての最終段階では、コンピュータ システムは、もはや外部の能力ではなく、コンピュータの中心的な属性や基本的なコンポーネントとなる可能性があります。インテリジェンスは、今日のスーパーコンピューティングやインテリジェント コンピューティングをはるかに超えるものになるでしょう。

Chen Runsheng 氏は、科学界と産業界がスーパーコンピューティングとインテリジェント コンピューティングの統合の問題を解決しようとしていることに気づきました。たとえば、Nvidia の最新の GB200 アーキテクチャは、実際には 2 つの GPU と 1 つの CPU であり、機械学習を実行する 2 つの GPU のレイアウトにおいて、CPU を追加することで高速性を実現していると言えます。データ送信。しかし、このアーキテクチャでは効率の問題が根本的に解決されるわけではないと彼は考えています。 「スーパーコンピューティングとインテリジェント コンピューティングの組み合わせは避けられず、単に一緒にされるのではなく、有機的に統合されることになります。」

中国工程院の学会員である鄭偉民氏も、大規模モデルの開発、トレーニング、微調整、推論のあらゆる側面はコンピューティング能力と切り離せないものであり、コンピューティング能力のコストが全体のコストの大部分を占めていると述べた。特にトレーニング段階での支出は 70% に達し、推論段階では 95% にも達します。このことを考慮すると、コンピューティング能力が大規模モデルの開発をサポートする重要な要素となっています。

インテリジェント・コンピューティングとは「人間の知能」を指す必要があります。

中国の学者や専門家は、中国の現在の大型模型ブームと米国の「原子炉規模」に続く技術的道筋について独自の見解を発表した。銭徳培氏は、中国は現在、米国よりも大規模モデルの数と種類が多く、一般的な人工知能にも取り組んでいると述べた。しかし、我々はハードウェアの面でも米国から厳しく制限されているだけでなく、大規模なモデルのトレーニングに使用されるデータの質は、モデルも量も比較的小さいです。「この方法で作成された大規模なモデルは米国のものよりも優れているでしょうか? 私たちはまだ準拠する必要があると思います。」中国の国情に反するものであり、アメリカに完全に従うことはできない。」

また、Chen Runsheng氏は、現在中国で登場している大型モデルは基本的に米国が提案した大型モデルとアルゴリズムを改良したものであると考えているが、大型モデル全体の基本理論についてはほとんど考慮されていない。同氏はセミナーで、従来のスーパーコンピューターで使用されているローカルメモリモデルと比較して、インテリジェントコンピューティングには情報の分散ストレージという根本的な違いがあると指摘した。この保存方法は人間の脳のニューラル ネットワークの複雑な構造を模倣し、大規模で高密度に相互接続されたチップ ネットワークを通じてますます大規模なモデルを運びます。しかし、人間の知識をこれらの複雑なシステムに効果的に組み込む方法や、システム内で情報がどのように分散および保存されるか、その背後にあるアルゴリズムと技術理論はまだ十分に検討されていません。 「モデル規模が制御されずに拡大すると、エネルギー消費が克服できない問題になります。したがって、大規模モデルのストレージ問題を解決するために、やみくもにチップを追加したり、システムの複雑さの増大に依存したりすることは、まったく賢明ではありません。」

したがって、Chen Runsheng 氏は、将来のインテリジェント コンピューティングは依然として「人間の知能」、つまり人間の脳の動作メカニズムをシミュレートするものであるべきだと考えています。人間の脳は非常に小さく、消費するエネルギーはわずか数十ワットですが、そこから生み出される知能は、都市全体と同じくらいのエネルギーを消費する現在の最先端のAIを超えています。 「大規模モデルとインテリジェント コンピューティングの開発には、アプリケーション レベルでのモデルとアルゴリズムの改善だけでなく、基礎理論の観点からのブレークスルーも必要です。現在、大規模モデルは最初の 10%、全体の 90% しか開発されていません。」私はまた、大規模なモデルは人間の脳のように学習し、空間の複雑さと時間の複雑さをより小さくし、エネルギー消費を削減することによって達成されるものではないと信じています。問題は、現在の宇宙の複雑さを研究して、インテリジェントコンピューティングの基礎理論を完成させることです。基礎理論をある程度進歩させることができれば、根本的で独創的なイノベーションを達成できるでしょう。」

北京応用物理計算数学研究所の研究者、袁国興氏は、一般的な大型モデルにあらゆる分野の問題を解決できることを期待するのは不可能だと考えている。実際の状況から見ると、アプリケーションごとに異なるテクノロジーが使用され、異なるアルゴリズムが必要となり、計算能力の要件も異なります。例えば科学技術計算では、コンピュータの規模が拡大するにつれて計算精度に対する要求がますます高くなり、データの信頼性は低下の一途をたどっています。米国航空宇宙局 (NASA) も同様の指摘をしており、計算精度に対して非常に高い要求を持っています。したがって、将来のさまざまなアプリケーションには、さまざまな問題を解決するためにさまざまな大規模なモデルとさまざまな計算が必要になります。今日の大規模モデルには、計算精度とアルゴリズムに対するまったく異なる要件があります。

中国情報通信技術アカデミーのクラウドコンピューティングおよびビッグデータ研究所の所長であるHe Baohong氏は、「コンピューティングとトレーニングでは、基礎となるインフラストラクチャに対する異なる要件があり、どのようなシナリオでその違いを考慮すべきかを判断することも必要です」と付け加えた。保護されるべきであり、その違いはどのようなシナリオに反映されるべきなのか。」

ソブリンレベルの大規模モデルの開発が必要

張雲泉氏は、米国は最近、ハイエンドGPUの販売禁止、大型モデルのソースコード共有の停止、人工知能開発の中断などの一連の行動を通じて、我が国の人工知能開発を「行き詰まらせよう」としていると述べた。生態協力。同時に、大型モデルの計算規模が 10,000 GPU、さらには 100,000 GPU に達すると、エネルギー消費の壁、信頼性の壁、並列の壁などの技術的なボトルネックを突破するために、大型モデル専用のスーパーコンピューターを開発する必要があります。これに関連して、中国が大型モデルの計算能力のボトルネックを短期的に打開したいのであれば、中国にはやるべき道がある。それは、過去 20 年間に蓄積された高度なスーパーコンピューティング技術を利用して、大型モデル用の特別なスーパーコンピューターを開発し、このボトルネックを克服することである。大型モデルの計算能力のボトルネックの問題を解決し、我が国が世界の大型モデルの最先端レベルをしっかりと把握し、遅れをとらないようにする。

張雲泉氏は、超インテリジェント融合システムに基づく「ソブリン・ラージ・モデル」計画を紹介する際、我が国はスーパーコンピューティングの分野で深い技術蓄積を有しており、近年、インテリジェント・コンピューティングの開発に巨額の資金を投資していると述べた。システムエンジニアリングは、スーパーコンピューティングテクノロジーの利点を最大限に活用して、コンピューティングパワーの課題を解決することを目指して、スーパーインテリジェントフュージョンコンピューティングパワーシステムの構築を中心にしています。 「主権レベル大規模モデル」計画の展開によると、「主権レベル大規模モデル」イノベーションコンソーシアムは、国家スーパーコンピューター、中国科学院および国家主要大学の著名な教授チーム、スマートチップ企業、大規模モデルソリューション企業等が共同して同様のOpenAIを構築するオープンAIのオープン組織は、非営利部門が「ソブリンレベルの大規模モデル」を組織するために開発され、営利部門は「ソブリンレベルの大規模モデル」を実装するために組織される」。同氏は、スーパーコンピューターは「この国の最も重要な武器」であり、最大かつ最も困難な課題を克服するために活用する必要があると示唆した。ソブリンレベルの大型モデルは、通常の大型モデルではなく、国家発展を支える根幹となるモデルです。同様の国家レベルのスーパーモデルは他国からも大きな注目を集めており、例えば米国のマイクロソフトやオープンAIは新たな人工知能スーパーコンピューターに1000億ドルを投資する計画を発表しており、最近では日本も多額の投資を行うと発表している。国家レベルのモデルの開発。

陳潤生氏は、中国の現在の基本条件と大型モデルの避けられない開発傾向を踏まえると、西側のアプローチに完全に従うのは非現実的であり、短期的に追いつくのは難しいと考えている。したがって、ソブリンレベルの大規模モデルを開発する方法を見つけることがさらに重要です。