ニュース

シリコンバレーの巨人が中核を作る、「チケット」は20億ドル

2024-08-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

「Chip Matters」は、Tencent Technology の半導体業界調査計画で、自社開発の AI チップを開発するテクノロジー企業のロジックと課題に焦点を当てています。

著者 Xinchao IC A Niu

編集者スー・ヤン

「当社のNVIDIAチップの備蓄はもう追いつかない」とある大手AIモデル企業のCEOは率直に語った。

輸出規制のさらなる強化の影響で、A800やH800といった中国製の特別版チップの購入が困難となり、代わりにH20の性能が大幅に低下した。世界では去勢バージョンとも呼ばれています。それでも、今年10月の米国商務省の輸出規制規定の更新により、H20も依然として輸出規制に直面する可能性がある。

フィナンシャル・タイムズは、複数の中国企業が総額50億米ドルのチップをエヌビディアに発注したとエヌビディアに近い匿名情報筋2人の話として引用した。同時に、一部の国産チップは大手テクノロジーメーカーの視野に入ってきましたが、プロセス、相互接続、その他の理由により、性能と供給の課題には依然としてギャップがあります。

このような背景から、多くの大企業が自主研究を開始し、自社AIチップの供給の安全性を確保するために、5nmや7nmといった複数のプロセスノードをカバーするTSMC現行チップを次々と開発してきました。

輸出規制は諸刃の剣のようなもので、コンピューティング パワーの首を塞ぎ、NVIDIA の成長を制限します。特に顧客の自己調査の観点から、中国本土での NVIDIA の収益は変動し始めています。 2022 会計年度には、中国の顧客が Nvidia の市場収益の 25% に貢献しましたが、2024 会計年度までにこの割合は 1 桁に低下しました。

Nvidiaにとって、中国本土のパイは縮小しており、シリコンバレーも変化しつつある。 Google、Apple、Meta、Amazon、Tesla などの主要顧客はいずれも、独自の研究を行いながら Nvidia のチップを使用して、両方の方向に進もうとしています。

中国と米国の大手メーカーの自社開発チップの背後にある論理は何ですか? 紅海に流れ込むテクノロジー企業は、自社開発チップで無事上陸できるでしょうか?

01 通貨は手に持ってこそ安心

現在の大型モデルと生成型 AI の流行において、コンピューティング パワー チップはテクノロジー企業にとっての通貨となっています。CoreChao IC は、「超高価格の H100 フロー」という記事で、この「コンピューティング パワーの獲得」の狂気と緊張を追跡しました。ブラックマーケットへ」。

カードを自分の手で持つことが、大手メーカーが独自のチップを開発する根本的な理由です。

Qianxin TechnologyのChen Wei会長によれば、大手メーカーには供給保証、コスト削減、入札という3つの切り札があるという。

多くの中国の大手メーカー、特にインターネットと人工知能の大手にとって、高度なチップ輸出規制を背景に、いつでもコンピューティングパワーの供給が削減されるリスクに直面している。それは、コンピューティングパワーの安全性を保証するものである。しかし、各社が開発するチップは主に社内向けであり、仕様は自社製品向けにカスタマイズされており、汎用品ではありません。

コンピューティング能力を蓄積するために「お金を燃やしている」大手企業にとって、自己研究はコストを削減する方法です。 元TSMCの工場建設専門家であるWu Zihao氏は、「生産量が十分に多く、需要が十分に大きい場合は、自己研究を検討してください。そうしないと、実際にはコストを削減できない可能性があります。」と述べています。

2021年、マスク氏はテスラのトレーニングを目的とした自社開発のAIチップD1を搭載したDojoスーパーコンピューターを立ち上げた。オートパイロットシステム。モルガン・スタンレーの最新の調査レポートによると、このシステムは Nvidia の A100 と比較して総額 65 億米ドルを節約します。

AI の需要の高まりに伴い、Cloud Factory の GPU への依存度は CPU の依存度をはるかに上回っています。また、NVIDIA チップに対する需要は、Cloud Factory が NVIDIA の注文を獲得するための入札チップでもあります。

Amazon に近い関係者は Xinchao IC に対し、NVIDIA カードは決して安くはなく、大手 DSA メーカーが自社開発の特殊チップを持てば、チップと特許の平均コストを完全に削減できるだけでなく、 NVIDIA との競争力が向上します。

公開情報によると、Amazon は独自のコンピューティング サーバー、ストレージ サーバー、ルーターを設計するだけでなく、独自のサーバー チップ Graviton も開発しています。

AWS がユニバーサル Graviton4 プロセッサを発売

The Information によると、Amazon は Nvidia を Graviton に置き換えることで価格を引き下げ続けており、Graviton サーバーを直接レンタルしている顧客はコンピューティング コストを 10% ~ 40% 節約できます。 Nvidia の観点から見ると、世界最大のクラウド ファクトリー顧客である Amazon を維持したければ、ポーカー テーブルに座り、より良い価格で交渉する必要があります。

「この種の利益譲歩は、割引に完全に反映されない場合もありますが、配分には反映される可能性があります。」

前述の内部関係者によると、世界トップのスポットメーカーである Nvidia が直接的に非常に直感的な単価の割引を行うことは、製品の価格体系に多大な悪影響を及ぼし、製品価格の保護に資しないとのことです。 、相互接続機器のアップグレード、SSD ストレージのアップグレード、ラック構成の追加などを行って、大規模顧客に偽装割引を提供することができます。

より一般的な優先方法として、キャパシティ ティルティングと初回権利の提供もあります。

先行者利益により、Amazon は完成したマシンの価格を短期的に高く設定し、完成したマシンのプレミアムとサポートするソフトウェア ツール チェーンの流通からお金を「節約」(割引) することができます。

一部の大手メーカーは、供給の確保、コストの削減、入札に加えて、独自のチップを開発することで独自の競争力を確保したいと考えています。

Fengyun Society の副社長である Chen Jing 氏は、NVIDIA が販売するチップは一般的なコンピューティングに適しており、すべての機能を備えていますが、比較的高価でもあります。ただし、一部の顧客は、自社の利点を強化するために特定の機能のみを必要としていると述べました。 、彼らは独学を検討します。

「大規模なモデルの推論を行うだけでよく、トレーニング機能は必要ありません。この場合、単純な機能を備えた専用チップを設計できますが、速度は速く、価格は安くなります」とChen Jing氏は述べています。 「Google や Microsoft のような大企業は、独自のソフトウェアとハ​​ードウェアのシステム仕様を持っています。ノイズをどのように制御するか、どのレベルのエネルギー消費を達成する必要があります。NVIDIA では基準を満たすことができない可能性があります。自分で設計した方が便利です。」 」

シリコンバレーの大手企業の中でも、Google は自社のアーキテクチャ、コスト、チップ技術の差別化に非常に関心を持っており、大規模および中規模のトレーニングでより優れた費用対効果を実現するために、2016 年から独自の AI テンソル プロセッシング ユニット (TPU) を開発してきました。そしてそれらを保証するための推論とパフォーマンス。クラウドコンピューティング製品の独自性と認知度が向上します。

Google、第6世代TPU「Trillium」を発売

Google が公開した第 4 世代 TPU に関するデータによると、同じサイズのシステムと比較した場合、TPU v4 は NVIDIA A100 よりも 1.7 倍効率が高く、1.9 倍省エネです。

上記の点に加えて、環境保護の観点からは、CUDA の独占を打破するという、より深い理由があります。 NVIDIA が開発したプログラミング言語である CUDA は、GPU の価格が「高騰」し、顧客がそれを受け入れなければならない主な理由です。

クラウド ファクトリーが自己調査を行わない場合、たとえ適切な注文価格を獲得できたとしても、データ センターのプロセッサの 95% 以上が依然として NVIDIA GPU を使用し、クラウド AI 需要全体が依然として CUDA に依存することになります。生態系。最終的には、Nvidia の運命は Nvidia の手中にあります。

Cloud Factory はデータセンターに自社開発のチップを装備し、顧客が独自のエコシステムに移行できるように多くの基盤となるミドルウェアとバイナリ変換機能を開発するため、CUDA プログラムとの同等の互換性がより高度になり、その排他的依存性は徐々に減少します。

「これはすべてのクラウドファクトリーが行っていることだ。たとえプロセッサーがデータセンター全体の4%未満を占めていたとしても、それでも彼らはこれを行うことを主張しなければならない」と事情に詳しい関係者は語った。

02 人と金があるなら終わりにしよう

「人も金も物もあるし、同時に将来性もあるから終わらせてもいい」。

 

Legend Holdings の副社長である Yu Hao 氏は、チップに関する自主研究を行う大手メーカーのロジックは比較的スムーズであり、それが明らかな利点であると考えています。

「『人』はチップのライフサイクル全体で実務経験を積んだ『才能ある』人材でなければならず、『金』はコンピューティング・パワー・ビジネスをベースに収益に貢献し続ける『生きた金』でなければならない。こうして大手企業は、メーカーは、予測される市場の成長に伴い、コンピューティング能力の需要が定量化され、自社開発チップの戦略的調整が完了し、AI ビジネスのクローズドループに頼ることができます。自然にそうなった」とユー・ハオさんは新潮ICに語った。

ただし、自社開発のポーカー テーブルに座るための参加料は、少なくとも 20 億米ドルからとなります。今年の初めに、オープンAI CEOのサム・アルトマン氏は、チップ製造のために7兆ドルを調達するという突飛な計画さえ噂したが、後に関係者はその噂を否定した。

関係者によると、「7ナノメートルの中間ノードに基づいて計算すると、各企業が第1世代製品の開発を繰り返す場合、量産拡大には少なくとも20億ドルの費用がかかることになる」という。

また、自社開発チップは自社利用がほとんどであり、エコシステム構築の難しさを考慮する必要がありません。 Ran Ciyuan 氏は、Sky Eagle Capital のパートナーの次のようなコメントを引用しました。「専用チップのアーキテクチャ設計は、通常、特に複雑である必要はなく、アプリケーションの特性も非常に明確で、開発は比較的速いです。そのため、多くのインターネット向けに企業にとって、専用チップの開発は明確なシナリオに基づいており、ソフトウェア エコシステムの開発に多大な資金と時間を費やす必要はなく、プロセス IP も成熟しています。」

理論は有効ですが、どうすれば独学をうまく進めることができるでしょうか?

業界の知識によれば、チップの自己研究はフロントエンド部分とバックエンド部分に分けられます。フロントエンドは、チップの最も基本的な機能である論理設計であり、バックエンドは、すべての機能を回路に実装してテープ化するエンティティです。

自社開発チッププロセスの模式図

一般的に、小規模なチームが独立して完成できる設計は、ロジック チップのフロントエンドとバックエンド、およびソフトウェア ツール チェーン自体だけですが、それでも、多くの設計では自社開発の専用回路が 5% しかありません。

この件に詳しい前述の関係者は、「市場の誰もが 1/5 を自分で行い、残りの 4/5 を他の人に依頼します。これは非常に成熟したエコシステムです。これらの回路 IP を取得する方法に関しては、一部の人はそれを利用しています。」不適切なチャネルや、ARM などの IP 設計メーカーからのライセンスなど、準拠していないチャネルを経由するものもあります。」

多くのチームでは、実際にいくつかの回路を独自に設計する能力を持っていますが、知的財産保護が非常に厳しいIPを克服する必要があるため、たとえ作成したとしても、コンピュータアーキテクチャに違反する可能性が高く、使用できない、または他人の知的財産を侵害することさえあり、これは国内メーカーが独自のチップを開発するときに遭遇する最初のハードルでもあります。

NOC(Network on Chip)の非常に難しい構造など、自研チームでは設計できないものもいくつかあります。

自社開発チップの設計は一部に過ぎず、テープアウトや量産なども含まれます。その過程でテープアウトの失敗や量産能力など、さまざまな問題が発生する可能性がありますが、これらは自社開発ではありません。最終的には、産業チェーンの統合をどのように実装するかなど、一連の支援問題も解決する必要があります。

外部から見ると、専用のロジック チップは約 500mm² ですが、汎用 GPU は 800mm² になり、数百億、さらには数千億のトランジスタが含まれます。その機能の一部はベクトル計算に使用され、さまざまな演算を行うことができます。これらはすべてベクトル プロセッサと考えられますが、アプリケーション シナリオに実装するには、ストレージ、エネルギー消費制御、電源、およびマシン全体の動作条件の設計と実装も必要です。また、大規模なクラスタを形成するための相互接続とネットワークも必要です。

さらに、製品の最終的な目標は差別化を生み出すことであり、これは周辺機器インターフェイスとマシン全体で行う必要があり、業界では通常、ストレージ、エネルギー消費、面積効率の観点からさまざまな SKU が登場します。マシン全体。

言い換えれば、自社開発チップでは、業界チェーンの統合と IP の問題に加えて、製品の SKU も考慮する必要があります。ロジック チップを設計するだけでは十分ではありません。

匿名を希望したある幹部は新潮ICに対し、「多くの国内企業は製品設計能力を持たず、チップを製造した後、テストのためにさまざまな場所に行かなければならない。インスパーやスゴンなどに常駐している」と語った。大手メーカーのデータセンターは、テストが成功すれば、相手が新しいサーバーのマザーボードを購入できることを期待しています。

設計、テープアウト、製品化に加えて、量産ももう 1 つの課題です。小規模チームは生産能力を予約できるかどうかを検討する必要がありますか?

「生産量はファブ工場にとって常に非常に重要な数字です。」元TSMC工場建設専門家のウー・ジハオ氏は、メーカーはどのリンクに参入し、どれだけの生産量を約束するかを把握する必要がある、これがファブに好印象を与えるための最も重要なポイントであると述べた。

一流メーカーは基本的にDTCO(Design Technology Collaborative Optimization)段階でファブ工場の最新の生産能力を確保しており、現在ARMなど世界トップクラスの設計チームが毎年TSMCに常駐している。多くのEDAメーカー。

DTC は、3nm ノードでの合理的なレイアウト設計によってどれだけコストを節約できるか、どれだけパフォーマンスを向上できるかなど、特定のノード上の次世代プロセッサのパフォーマンス指標を決定します。

「NVIDIA と Apple は常に最先端の製造プロセスをテストすることに前向きです。TSMC が最先端の製造プロセスを考案する限り、たとえ歩留まりやパフォーマンスの向上が不明であっても、つまり経済モデルが確立される前であっても、計算すると、彼らはすでに生産能力を予約しているでしょう。DTCOとファブ工場との共同設計が、一流メーカーが生産能力を獲得する根本的な理由です」とWu Zihao氏は述べた。

最初から共同設計がなければ、ファブファクトリーとファブレスチーム、A社とB社の役割を交代する必要があります。誰もそれを使おうとしないため、ファブファクトリーは新しいプロセスを少しずつ推進することしかできません。 、最もリスクの低いプロセスから開始します。

たとえば、マイニングマシンのチップは非常に単純な構造でサイズが非常に小さいため、初期テストに非常に適しています。サムスンの 3nm チップの最初の顧客は中国のマイニング機器工場でした。

Wu Zihao 氏は、「ファブ工場は顧客からのこのような少量の注文で水のテストに成功した後、PC CPU、携帯電話チップ、そして最終的には AI チップを段階的に量産できるようになります。」と述べました。

現在、国内の大手メーカーは自社開発チップに少なくとも数十億ドルを投資している。新興企業がこのゲームに参入したい場合は、十分な初期顧客を持っているか、チップの適応と試行錯誤をサポートするアプリケーション プラットフォームを持っているか、または十分な資本または強力な資金調達能力を持っている必要があります。これら 2 つの条件のいずれかが必要です。満たした。

陳偉氏は新潮ICに対し、低コストの人的資源を持たず、学校や研究機関に依存しない営利企業の場合、量産前に少なくとも5億元から10億元の資金が必要になると語った。研究機関や研究機関の場合、他のサポートがあれば、人件費を大幅に削減でき、金額の基準をわずかに下げることができます。

「それほど資金がなくても、このスタートアップには非常に強力なコスト管理能力があるため、上流と下流の連携を最大限に活用してコストを削減できます。すべては製品の研究開発の継続を確保するためです。」

事情に詳しい関係者によると、ファブ選択の優先順位に関して、スタートアップ企業はまずTSMCの生産能力を発注することを選択し、次にGlobalFoundriesに発注することになるが、GlobalFoundriesには高度なプロセスとパッケージングがないため、その後SMICに頼るだろうが、SMIC Allは海外で予約できる生産能力は再来年を予定しています。

この状況について、投資機関は長期的な視点を持っています。

Yu Hao氏は、国内の自社開発ハイエンドチップに限っても、短期的にはテープアウトのボトルネックに直面するのは避けられず、長期的にはSMICに代表される高度なプロセスラインの研磨と生産能力の拡大の速度に依存すると述べた。主に内部循環に依存します。しかし、ハイエンドのチップ設計能力を持つメーカーは、海外への進出を検討し、外部循環を利用して内部循環を促進することを検討したいと考えるかもしれません。

03 Nvidia の「墓掘り人」になるのは簡単ではありません

古い顧客は自分のビジネスを立ち上げますが、常に被害を受けるのは Nvidia です。

この世界的な自己研究の波は、前回よりもさらに大きくなっています。 Google TPU や Amazon Graviton などの成熟した自己研究の成果に加えて。最近、テクノロジー界全体が「世界初のTransformer専用AIチップSohu」の衝撃を受けています。

米国のチップスタートアップEtchedがTransformer専用AIチップSohuを発売

このチップは、Transformer アーキテクチャをチップに直接埋め込んでおり、その推論性能は GPU や他の一般的な人工知能チップをはるかに上回り、2016 年に発売されたばかりの最高級チップである B200 よりも 10 倍強力であると言われています。今年の3月。噂によると、8 個の Sohu チップを搭載したサーバーは、160 個の H100 GPU のクラスターに匹敵するパフォーマンスを備え、1 秒あたり最大 500,000 個の Llama 7B トークンを処理できるとのことです。

「人気のフライドチキン」が誕生し、ファブファクトリーとそのパートナーは喜んだ。

同社はSohuチップの生産のためにTSMC 4nmプロセスと直接協力しており、トップサプライヤーから十分なHBMとサーバーの供給を得ていると報告されており、一部の初期顧客はすでに同社から数千万ドルのハードウェアを予約している。ネチズンは Etched に「Nvidia の墓掘り人」というニックネームを付けました。

しかし、立ち上る煙によって、NVIDIA の「自主研究」の神話は打ち砕かれるのでしょうか?実際には違います。

半導体業界には有名な「ミスターベンサイクル」があり、チップの種類は一般化とカスタマイズの間で定期的に進化しますが、ある一定の段階に達すると、一般的な構造が最もよく売れ、ユーザーに人気になります。 、汎用構造物は特定のニーズへの対応が遅れ、専用構造物が普及することになります。

そして NVIDIA は、まさにユニバーサル アーキテクチャの時代を代表するものであり、それはたまたままだ絶頂期にあります。

Wells Fargo の統計によると、NVIDIA は現在、世界のデータセンター AI アクセラレーション市場の 98% を占め、絶対的な支配的な地位にあります。これは、世界人口の 98% が、すべての GPU のパフォーマンスを「絞り出す」ために NVIDIA の CUDA C を使用しており、残りの 2% ~ 3% の人々だけが依然として、同じ性能を叩き出すために悪い「ハンマー」を使用することに固執していることを意味します。 "ネイル"。

「ところで、Amazon であれ、Intel であれ、自社が製造するプロセッサは経済的にクラウド ベンダーの利益の最大化を満足させることができないため、NVIDIA がその優位性を完全に失う日が来るまで、彼らは間違いなく NVIDIA チップを大量に使用し続けるでしょう。畜産の専門化について事情に詳しい関係者は語った。

しかし、横たわることは NVIDIA の性格にそぐわないものです。Huang Renxun 氏は、「悲しみの中で生まれ、幸せの中で死ぬ」ことを知っている人物で、1 年前の国立台湾大学での講演で次のように述べています。他人に餌として利用されているときは、自分がどんな状況に置かれているのかも分からないことが多いですが、何が何でも走り続けてください。

今回、シリコンバレー全体での自主研究という課題に直面し、Nvidia もカードを切りました。

前述の上級関係者は Xinchao IC に対し、「NVIDIA はもはや汎用 GPU ではありません。その GPU ユニットには、行列計算を解決するための多数の Tensor コアが見られます。さらに、Transformer エンジン、スパース化も見られます。エンジンなど、ハードウェア構造の点でも、ハードウェア オペレータのアップデートの点でも、NVIDIA は毎年 DSA ベースの設計トレンドに向かって進んでいます。」

DSA (Domain Specific Architecture) は、特定の分野向けにカスタマイズされたプログラマブル プロセッサ アーキテクチャであり、特定のアプリケーションのパフォーマンスとコスト効率を最適化できます。現在、Google、Tesla、OpenAI、Cerebras はすべて、特定のアプリケーション向けに独自の DSA チップを発売しています。

事情に詳しい関係者によると、たとえNvidiaがハードウェアを変更せず、汎用GPUが1つのオペレータのみを更新したとしても、DSAメーカーの利点は完全に失われることに、すべてのDSAメーカーが気づくだろう。 NVIDIAと比較すると、ロジックチップの面積が十分ではないだけでなく、デバイスの容量や速度も十分ではなく、演算能力もNVIDIAに及ばず、ソフトウェアの適応性も十分ではないと思われます。すべての DSA メーカーが直面している問題 - Muben サイクルは当初、DSA ドメイン固有のアーキテクチャとカスタマイズに移行する予定でしたが、現在は汎用プロセッサの時代に戻っています。

DSA メーカーとの「鏡を見る」ことに加えて、NVIDIA は、2024 年の初めに、半導体のベテランである Dina McKinney が率いる特にクラウド コンピューティングと 5G 通信に特化した新しい事業部門を設立しました。 、ゲームなどの分野のお客様向けにカスタマイズされたチップを構築しています。

ロイター通信は、この件に詳しい関係者の話として、エヌビディア幹部がアマゾン、メタ、マイクロソフト、グーグル、オープンAIの代表者と会談し、データセンター用チップに加え、通信、自動車向けのカスタムチップについても協議したと伝えた。およびビデオゲームクライアント。

以前、任天堂が今年発売するゲーム機「Nintendo Switch」の新バージョンには、NVIDIAのカスタマイズチップが搭載される可能性が高いと報じられていたが、NVIDIAも携帯端末市場で深い存在感を示し、Tegraシリーズのモバイルチップを発売している。このチップシリーズは、最終的にはモバイルデバイス市場での地位を占めることはありませんでした。

費用対効果が重視される市場では、Nvidia の墓掘り人になるのはそれほど簡単ではありません。これまでの墓掘り人のほとんどは失敗し、最終的には買収される可能性があります。たとえば、インテルとグーグルは多くの新興企業を買収しましたが、他のほとんどの企業は買収を待たずに直接消滅しました。

おそらく、視点を変えればスタートアップは成功しやすくなるでしょう。

「たとえば、AI プロセッサー自体に執着しないでください。DSA の理想を実現するために多くの時間を費やすよりも、システム レベルのソリューションを検討したほうがよいでしょう。たとえば、周辺機器は次のようになります。 AIプロセッサやプロ向けのストレージ、プロ向けのセンサー向けのサービスを提供することで、同じ目的を達成することもできる」と事情に詳しい関係者は語った。

2019 年、Nvidia は Mellanox を 69 億米ドルで買収すると発表しました。この評価額は非常に高かったため、Nvidia はキャッシュ フロー全体をほとんど使い果たしました。

この会社はポートや太陽光発電モジュールを開発しておらず、スイッチ自体も開発していません。スイッチの最下層と通信の最下層の間の高速相互接続のための PHY「InfiniBand」という 1 つの製品だけを製造しています。当時、サーバーの相互接続の制限を打ち破ることに熱心だった Nvidia にとって、これは非常に核となる周辺機器の要件でした。当時の NVLink がどれほど優れていたとしても、常に 1 台のマシンに固定されていました。しかし、InfiniBand を使用すると、スイッチがサーバー間の相互接続のボトルネックを突破し、すべての GPU を大規模なクラスターに相互接続できるようになります。

現在の状況を見ると、国内情勢は好況であり、自社開発チップの弾はしばらく飛ばなければならないだろう。 Chen Wei 氏は、ゲームを構築することは悪いことではありませんが、産業発展の重要な時期を逃さないようにハイエンドのゲームを構築する必要があると考えています。

Unfinished Research の創設者である Zhou Jiangong 氏は、この見解をさらに拡張し、将来のアプリケーションには、最先端の基本的な大型モデルの需要を超える、専門的でカスタマイズされた小型の AI チップが必要になると考えています。オープンソースの低コストでの小規模モデルのトレーニング、または大規模モデルの微調整と蒸留、および推論はすべて、自社開発チップに広いスペースをもたらします。さらに、新しいテクノロジーの急速な変化と未熟な段階では、上記のアプリケーションに関して多くの自己研究の機会が存在するでしょう。

「Nvidia を終わらせるようなことをするのではなく、Nvidia 以外のことをもっとやるべきです。」