ニュース

チップ大手が再び急上昇しましたが、その背後にいるのは誰でしょうか?

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

7月30日、エヌビディアの株価は7%下落し、同社の市場価値は一夜にして1,934億ドル蒸発し、2兆5,500億ドルまで下落した。

7月10日から30日にかけて、エヌビディアの株価は1株当たり134.91米ドルから103.73米ドルへと23%下落した。以前は、同社の止まらない上昇の勢いが投資家にリスクを無視させているように見えました。

投資家らは大企業がAI投資から収益を上げるのに苦戦しているとの懸念を強め、過去2週間にわたってエヌビディアなどの大手ハイテク株から資金を引き揚げた。

テクニカルアナリストらは、こうした変化によりエヌビディアの株価がさらに下落する余地が残されていると指摘した。

01

アップルのせい?

Nvidiaの株価急落はAppleに関連している可能性がある。

Appleは7月29日、同社の人工知能(AI)システム「Apple Intelligence」の2つのモデルが、Googleが設計したクラウドチップ上でトレーニングされたと技術文書で述べ、トレーニングに使用されるテンソル処理について詳述した。さらに、Apple は一部のデバイス向けに Apple Intelligence のプレビュー版もリリースしました。

Apple は 47 ページの論文の中で Google や Nvidia については言及していませんが、同社の Apple Foundation Model (AFM) と AFM サーバーはクラウド内の TPU クラスターでトレーニングされていると述べています。この論文では、このシステムにより Apple は AFM オンデバイス、AFM サーバー、およびより大きなモデルを含む AFM モデルを効率的かつスケーラブルにトレーニングできると述べています。

Appleによると、AFM-on-deviceは、2023年12月に発売される最も先進的なTPUである2048 TPU v5pチップの単一スライスでトレーニングされるという。 AFM サーバーは 8192 TPU v4 チップ上でトレーニングされており、データセンター ネットワーク上で 8 つのスライスとして連携するように構成されています。

Google は、AI モデルのトレーニングと推論を高速化するために、長い間データセンターに TPU を大量に導入してきました。さらに、Google は TPU を自社の用途だけでなく、クラウドコンピューティングサービスは第三者に提供されて使用され、販売用の製品になります。

Google の最新の TPU のコストは 1 時間あたり 2 ドル未満で、チップを使用するには 3 年前に予約注文する必要があります。 Google は 2015 年に社内ワークロード向けに TPU を初めて発売し、2017 年に一般公開しました。これらは現在、人工知能用に設計された最も洗練されたカスタム チップです。

それでも、Google は Nvidia のトップ顧客の 1 つであり、クラウド プラットフォーム上で Nvidia テクノロジーへのアクセスを販売しています。

Appleは以前、事前にトレーニングされたAIモデルを取得して実行してコンテンツを生成したり予測を行ったりする推論の一部は、Apple自身のデータセンターにあるチップ上で行われると述べていた。

Appleは6月のWWDC 2024中に関連する技術文書を公開し、Apple独自のプロセッサやApple Intelligenceの独自のソフトウェアフレームワークなどのハードウェアを使用することに加えて、エンジニアが人工知能モデルのトレーニングを高速化するためにGoogle TPUと組み合わせた独自のGPUも使用したことを示しました。

Google を例に挙げると、NVIDIA は競争圧力の増大に直面しており、自社開発の AI チップを通じて市場シェアを拡大​​し続けています。 TechInsights のデータによると、2023 年のデータセンター アクセラレータ市場では、Google の TPU 出荷台数は 200 万台に達すると見込まれていますが、NVIDIA の 380 万台にはわずかに及ばないものの、業界で 3 位に位置しており、NVIDIA は強い成長の勢いを持っています。 。同時に、マイクロソフトなどのテクノロジー大手は、Nvidiaへの依存を徐々に減らし、他の競合ブランドのチップに切り替えています。

02

GPUが高すぎる

単一依存のリスクに加えて、Nvidia GPU の価格の高さも多くのメーカーを怖がらせています。

報告書によると、Nvidiaの次世代Blackwell GPUを搭載したAIサーバーの価格は1台あたり200万~300万ドルにもなるという。

NVIDIA は、Blackwell アーキテクチャに基づいた 2 セットのリファレンス デザインを発表しました。その中で、NVL36 には 36 枚の B200 GPU アクセラレータ カードが搭載されており、価格は以前は 200 万ドルと予想されていましたが、現在は 180 万ドルとなっています。価格が上がりました。 NVL72 はサイズが 2 倍になり、72 枚の B200 アクセラレータ カードが装備されています。開始価格は 300 万米ドルになる予定です。

NVIDIA は、2025 年に B200 サーバーの出荷台数は 60,000 ~ 70,000 台に達し、総額は 1,200 億ドルから 2,100 億ドルに達すると予測しています。

現在、AWS、Dell、Google、Meta、MicrosoftなどがB200サーバーの購入に関心を示しており、その規模は予想を上回っています。

AI サーバーは主に CPU、GPU、FPGA およびその他のプロセッサーで構成されており、これらは多数のコンピューティング タスクを処理するために使用され、通常、大規模なデータ処理のニーズを満たすために、AI サーバーはより高性能なハードウェアを必要とします。そして複雑な計算。これらのハードウェアは価格が高いため、AI サーバーのコストの最大の割合を占めています。その中でも、GPU はさまざまなプロセッサの中で最も大きなコストを占めます。

AI のトレーニングと推論のプロセスにおいて、GPU は通常、最も高価なハードウェアです。これは、GPU が強力なコンピューティング能力と並列処理能力を備えており、AI モデルのトレーニングと推論のプロセスを高速化できるためです。ほとんどの AI サーバーには、ハイパフォーマンス コンピューティングのニーズを満たすために複数の GPU が搭載されています。

GPUは強力な演算能力を持っているため、消費電力も高くなります。 AI モデルのコンピューティング ニーズを満たすには、通常、複数の GPU を構成する必要があり、サーバーの消費電力がさらに増加し​​ます。消費電力が高いということは、サーバーの実行時により多くの電源が必要となり、電気代が高くつくことを意味します。

CPU と比較して、GPU はより複雑なアーキテクチャとより多くのコンポーネントを備えています。つまり、GPU のメンテナンスはより面倒で複雑であり、メンテナンスと管理にはより多くの専門技術者が必要になります。さらに、GPU の消費電力が高いため、冷却要件も高くなり、追加の冷却装置とメンテナンスのコストが必要になります。

AI テクノロジーの急速な発展に伴い、GPU のパフォーマンスも向上し続けています。競争力を維持するために、多くの企業は新しいバージョンの GPU を頻繁に購入する必要があり、サーバーのコストが増加します。

AI アプリケーションの推進に伴い、AI サーバーを導入する企業が増えており、供給が需要を上回ると、GPU の価格も上昇します。

03

競合他社のプレッシャー

NVIDIAの競合各社はこぞって準備を進めており、その中で最も注目を集めているAMDが最近好調だ。

7月30日、AMDは2024年第2四半期の財務報告書を発表し、純利益は前年同期比で881%増加し、データセンター事業の収益は2倍となり、Nvidiaから多くのビジネスを奪った。

同四半期のAMDの総収益は58億3,500万米ドルに達し、従来予想の57億2,000万米ドルを上回っただけでなく、前年比9%増、前月比7%増を達成した。純利益は2億6,500万米ドルに達し、前年比881%増、前月比115%増となりました。

データセンターで使用される GPU チップ MI300 の売上は、単一四半期で 10 億米ドルを超え、データセンター部門の収益の大幅な増加を牽引しました。

MI300シリーズは、AMDが2023年末にリリースしたAI GPUで、MI300Xのほか、CPUコアとGPUアクセラレータを統合したMI300Aがあり、その中でMI300XはNvidiaのH100とベンチマークを行います。 AMDによれば、AIトレーニングに使用した場合、MI300Xの性能はNVIDIA H100と同等であり、その性能は競合製品を上回っているという。 8 つの GPU で構成された単一サーバーを例にとると、1,760 億のパラメータを持つ BLOOM モデルと 700 億のパラメータを持つ Llama2 モデルを実行すると、MI300X プラットフォームのパフォーマンスは H100 プラットフォームの 1.4 ~ 1.6 倍になります。

AMDの最高経営責任者(CEO)Su Zifeng氏は、同社のAIチップの売り上げは「予想よりも高い」とし、MicrosoftはGPT-4 Turboのコンピューティング能力サポートやMicrosoftのWord、Teamsなどの複数のCopilotサービスをサポートするためにMI300チップの使用を増やしていると述べた。 Hugging Face は、新しい Microsoft クラウド Azure を採用した最初の顧客の 1 つです。これにより、企業および AI の顧客は、ワンクリックで数十万のモデルを MI300 に展開できるようになります。

今年6月、AMDは反復的なロードマップを発表し、今年の第4四半期にMI325Xを発売し、今後2年間にMI350シリーズとMI400シリーズを発売する予定で、その中でM1300XとMI325XはCDNA3を採用する予定だ。 M1350 は CDNA4 構造を採用し、MI400 は次世代 CDNA アーキテクチャを採用します。 AMDは毎年新しい製品シリーズを発売します。業界の観点から見ると、この速度は Nvidia が発表した計画と一致しています。

さらに、Su Zifeng 氏は、AI 推論に対する需要はトレーニングよりも大きくなるだろうと述べました。 AI PC は PC カテゴリの重要な部分を占めており、PC 市場は AMD のビジネスにとって優れた収益成長の機会です。

今年、AMDは投資を通じてAIの導入を加速させている。 同社は7月に6億6500万ドルを投じて、エンドツーエンドのAI主導ソリューションを提供する欧州最大の人工知能研究所であるSilo AIを買収した。この買収はAMDがNvidiaに追いつくための重要なステップと考えられている。

Su Zifeng 氏は、AMD エコシステムを拡大し、AMD コンピューティング プラットフォームの主導的地位を維持するために、Silo AI の買収に加えて、AMD は過去 12 か月間で 12 社以上の人工知能企業に 1 億 2,500 万米ドル以上を投資したと述べました。 AMDは今後もソフトウェアへの投資を続けると同氏は述べ、これがSilo AIに投資する理由の1つであると述べた。

AMD は、高品質の GPU ハードウェア、ソフトウェアおよびエコシステムの開発に基づいて、Nvidia が成功してきたのと同じ方法で競争しています。

04

NVIDIAにも弱点がある

NVIDIA と競争するには、自社の強みを活かして弱点を回避する、つまり、自社の強みを利用して NVIDIA の弱点を攻撃することが最善の戦略です。

GPU の並列処理能力は非常に強力ですが、これが AI トレーニングに優れている根本的な理由です。ただし、データが前後に移動されると、GPU はデータをそれほど高速に処理しません。 大規模な AI モデルを実行する場合、多くの場合、相互に接続された多数の GPU と多数のメモリ チップが必要になります。GPU とメモリ間のデータの移動が高速であればあるほど、パフォーマンスが向上します。大規模な AI モデルをトレーニングする場合、一部の GPU コアはアイドル状態になり、ほぼ半分の時間データを待機します。

多数のプロセッサ コアと大容量メモリを組み合わせてインメモリ コンピューティングを形成できれば、複数のチップ間の接続の複雑さが大幅に軽減され、データ転送速度が大幅に向上します。多数のプロセッサ コアがチップ内で相互に接続されており、独立した GPU を組み合わせた場合よりも数百倍高速に実行できます。現在、複数のスタートアップがこうした取り組みを行っており、その展開は注目に値する。

さらに、NVIDIA と戦うには、ソフトウェアとハ​​ードウェアのエコシステムにおける長期戦に備える必要があります。この点で、命を懸けて戦うための強力なリソースの背景が必要です。 AMDとIntelはこれを行っています。

さらに、チップ自体に加えて、チップ間の相互接続にもさらなる取り組みが必要です。この点では Nvidia がリーダーではなく、Broadcom がリーダーです。

Broadcom はチップ間の相互接続の問題を解決しており、Nvidia GPU と直接競合していません。 NVIDIA も独自のチップ間相互接続技術を持っていますが、業界全体の観点から見ると、世界 8 つの最大の AI サーバー システムのうち、7 社が Broadcom テクノロジーをサポートするイーサネット インフラストラクチャを導入しています。 2025 年までに、すべての超大規模 AI サーバー システムがイーサネットで動作するようになると予想されています。

Broadcom は、世界の 50GB/s SerDes 市場でシェアの 76% を占めており、低速パラレル データを高速シリアル データに変換し、パラレル データに戻します。受信側。このような動作により、TPU間でデータを高速に転送することができ、伝送効率が大幅に向上します。

AI の成長の恩恵も受けて、Broadcom のネットコム製品の収益は前年比 40% の成長率で増加しています。同社の財務報告書によると、今年5月時点の第2四半期におけるAIの収益は前年比280%増​​の31億米ドルとなり、この数字は今会計年度末までに110億米ドルを超えると予想されている。

05

大幅下落の後に再び大幅上昇

多くの競合他社がエヌビディアに圧力をかけており、これが同社の株価下落の重要な理由となっているが、市場の変化が非常に速いため、人々は間に合わない。

7月31日夜、エヌビディアの株価が突然急騰し、一時14%以上上昇し、時価総額は1日で3,269億ドル増加した。

エヌビディアは、1日の時価総額が3000億ドル以上増加した初の銘柄となった。現在、NVIDIA は米国株の 1 日の時価総額増加リストの上位 3 位を占めており、今年 2 月 22 日と 5 月 23 日の NVIDIA の 1 日の時価総額はそれぞれ 2,766 億米ドル、2,177 億米ドル増加しました。

モルガン・スタンレーは、NVIDIAが最近市場で売却されたことを考慮すると、具体的な理由は不明だが、関心のある投資家に良い市場参入の機会をもたらすと考えているため、同社をトップとして再上場したとの調査報告書を発表した。予想と目標株価は変更せず、格付けは「オーバーウエート」、目標株価は144ドルとした。

わずか 2 日間で、NVIDIA の株価は急落し、その後急騰しました。これは、ブラックウェルの供給が逼迫しており、すべての製品を予定通りに納品することが困難であることに関係している可能性があります。

モルガン・スタンレーは、ブラックウェル製品が市場の強い関心を呼び起こし、特に推論性能の大幅な向上が顧客の購買意欲をさらに高めていると述べた。

しかし、業界ではBlackwell GPUチップが遅れる可能性がある、あるいは同チップを搭載するサーバー製品が遅れる可能性があるというニュースが流れている。

多くの競合他社のテクノロジーや製品のパフォーマンスはますます向上しており、Nvidia に圧力をかけていますが、同社の GPU 製品は現時点および短期から中期的には AI サーバー市場の主力であり、全体の供給量は依然として高いです。需要を超えています。多くの顧客が楽しみにしている Blackwell GPU の出荷が近づいているため、出荷が遅れるというニュースは間違いなく市場の食欲を刺激し、株価の上昇を助けるでしょう。