ニュース

nvidia gpu の良い時代は終わったのでしょうか?

2024-10-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

nvidiaの「gpuフェスティバル」は終了するのか?

2022年11月30日に米国でopen ai社のchatgptがリリースされて以来、生成ai(人工知能)が大ブームとなり、ai半導体としてnvidiaのgpuが人気を集めている。しかし、gpu の生産には 2 つのボトルネックがあります。1 つは tsmc のミッドレンジ プロセスと、dram とスタックされた高帯域幅メモリ (hbm) であり、世界的な gpu 不足につながっています。 tsmc?」

これらのgpuの中でも「h100」の需要は特に高く、価格は4万ドルまで高騰し、いわゆるnvidiaの「gpuフェスティバル」を引き起こした。

このような状況下、tsmcは中工程のインターポーザー生産能力を2倍に増やし、skハイニックスなどのdramメーカーはhbmの生産を増やし、その結果「h100」のリードタイムは52週間から20週間に短縮された。

では、nvidiaの「gpuフェスティバル」は終了するのでしょうか?

そこでこの記事では、nvidia の「gpu day」が終了するかどうかについて説明します。結論から先に話しましょう。chatgptレベルのai開発・運用に必要なハイエンドaiサーバー(定義は後述)は2024年になっても3.9%しか出荷されないと予想されています。そのため、google、amazon、microsoftなどのクラウドサービスプロバイダー(csp)のニーズには全く応えられないと思われます。つまり、現時点ではnvidiaの「gpuフェスティバル」は始まりにすぎず、総合的な生成aiブームが到来しているということだ。

次に、nvidia gpu の 2 つの主要なボトルネックを簡単に確認してみましょう。

2 つの nvidia gpu ボトルネック

nvidia gpu の生産では、ファウンドリ tsmc が前工程、中間工程、後工程のすべてを担当します。ここで中間工程とは、gpu、cpu、hbmなどのチップを個別に製造し、12インチのシリコンウェハーから切り出した正方形の基板上に搭載する工程を指します。この基板はシリコンインターポーザーと呼ばれます(図1)。

図 1 nvidia gpu など、2.5d から 3d への中間プロセス (出典: 亀和田正)

また、tsmcが開発したnvidia gpuパッケージはcowos(chip on wafer on substrate)と呼ばれるものですが、ボトルネックとなるのはシリコンインターポーザーの容量とhbmの2つです(図2)。状況は以下の通りです。

図 2 cowos 構造と nvidia gpu の 2 つのボトルネック (出典: wikichip)

cowosは2011年に開発されましたが、その後、gpuの性能向上に伴いgpuチップのサイズは増大し続け、gpuに搭載されるhbmの数も増加してきました(図3)。その結果、シリコンインターポーザーは年々大型化しており、1 枚のウェハー上で利用できるインターポーザーの数は反比例して減少しています。

図 3 世代ごとに増加するインターポーザー面積と hbm 数 (出典: kc yee (tsmc))

また、gpuに搭載されるhbmの数も増加し、hbm内に積層されるdramチップの数も増加します。さらに、dram は 2 年ごとに微細化され、hbm 規格は 2 年ごとに更新され、性能が向上しています。そのため、最先端のhbmが不足しています。

このシナリオに基づき、tsmcはシリコンインターポーザーの生産能力を、2023年の夏頃に月当たり1万5000枚のウェハーから、今年の夏頃に月当たり3万枚以上のウェハーに倍増する予定だ。さらに、samsung electronicsとmicron technologyがnvidiaの認証を取得し、これまでsk hynixが独占していた最先端のhbmの供給を開始した。

上記の影響を受け、最も需要の高いnvidia h100の納期は52週間から20週間へと大幅に短縮されました。では、その結果、aiサーバーの出荷台数はどれくらい増加したのでしょうか?

2種類のaiサーバーの定義

digitimes research が発表した「global annual server shippings, 2023-2024」(servers report database, 2024)によると、ai サーバーには次の 2 種類があります。

hbm を搭載せず、2 つ以上の ai アクセラレータを搭載したシステムを「ユニバーサル ai サーバー」と呼びます。

hbm を利用した ai アクセラレータを少なくとも 4 つ搭載したシステムは、「ハイエンド ai サーバー」と呼ばれます。

ここでの ai アクセラレーターとは、ai アプリケーション、特にニューラル ネットワークや機械学習を高速化するために設計された特別なハードウェアを指します。代表的な例としては、nvidia の gpu があります。また、chatgptレベルの生成aiの開発・運用には、汎用aiサーバーではなく、ハイエンドaiサーバーが多数必要となります。

では、一般的なaiサーバーとハイエンドaiサーバーの出荷台数はどれくらいなのでしょうか?

一般的なaiサーバーとハイエンドaiサーバーの出荷

図4は、2022年から2023年までの汎用aiサーバーとハイエンドaiサーバーの出荷台数を示しています。一般的なaiサーバーの出荷台数は2022年に34万4,000台、2023年に47万台、2024年に72万5,000台と予想されている。

図 4 一般的な ai サーバーとハイエンド ai サーバーの出荷台数 (2022 ~ 2024 年) (出典: digitimes research)

同時に、chatgptレベルの生成aiの開発・運用に必要なハイエンドaiサーバーは、2022年に3万4,000台、2023年に20万台、2024年に56万4,000台の出荷が見込まれている。

では、ハイエンド ai サーバーの出荷は米国の csp のニーズを満たすことができるのでしょうか?

図5にサーバ、一般aiサーバ、ハイエンドaiサーバの出荷台数を示します。この図を描いて見たときに、「ハイエンドのaiサーバーがこれだけ出荷されているのか?」と驚いたのは、サーバー全体で見ると、汎用のaiサーバーなのかどうかが分からないからです。は依然としてハイエンドの人工知能サーバーであり、出荷台数は非常に少ないです。

図5 サーバ、汎用aiサーバ、ハイエンドaiサーバの出荷台数

出典:mic、digitimesより筆者作成

chatgpt レベルの生成 ai を開発して実行するには、何台のハイエンド ai サーバーが必要になるかを調べたとき、さらにがっかりしました。

chatgpt レベルで ai を生成するにはハイエンド ai サーバーが必要

chatgptの開発と運用には、30,000台のnvidia dgx h100ハイエンドaiサーバーが必要であると報告されています(図6)。この3万台という数字を見たときは、目眩がしてしまいました。

図 6 chatgpt を実行するにはハイエンド ai サーバーが何台必要ですか? (出典:hpcウェブサイト)

ちなみに、「nvidia dgx h100」は「h100」チップを8個搭載しており、各チップの価格は4万ドルまで高騰しており、システム総額は46万ドルとなっている。つまり、chatgptレベルのaiを生成するには、3万台×46万ドル=138億ドル(1ドル=145円換算で約2兆円!)の投資が必要となる。

世の中には生成aiシステムがあふれていると思いますが、chatgptのような生成aiは実際にどれくらい構築されている(あるいはこれから構築される予定)のでしょうか? (図7)

図 7 サーバー出荷台数、ハイエンド ai サーバー出荷台数、および chatgpt レベルで生成された ai システムの数 (出典: mic および digitimes)

2022 年のハイエンド ai サーバーの出荷台数は 34,000 台であるため、chatgpt レベルの ai システムは 1 つしか構築できません (これが chatgpt です)。翌2023年にはハイエンドaiサーバーの出荷台数が20万台に達すると予想されており、chatgptレベルのaiシステムを6~7台構築できるようになる。 2024年には56万4,000台のハイエンドaiサーバーが出荷される予定なので、18~19台のchatgptレベルのaiシステムを構築できることになる。

ただし、上記の試算は、3万台のハイエンドaiサーバー「nvidia dgx h100」でchatgptレベルのaiを構築できることを前提としている。ただし、ai の世代はさらに複雑になる可能性があるため、この場合は 30,000 台を超える nvidia dgx h100 が必要になる可能性があります。すべてを考慮すると、米国の通信サービス プロバイダーが現在のハイエンド ai サーバーの出荷に満足している可能性は低いです。

ここで、各エンド ユーザー (米国の csp など) が何台のハイエンド ai サーバーを所有しているかを見てみましょう。

エンドユーザー向けのハイエンド ai サーバーの数

図 8 は、エンド ユーザーごとのハイエンド ai サーバーの数を示しています。 2023年には、openaiを所有するmicrosoftが6万3000台のハイエンドaiサーバーを保有し最多となるが、2024年にはgoogleがmicrosoftを追い抜き、ハイエンドaiサーバーの台数が最多となる。

図 8 エンド ユーザー別のハイエンド人工知能サーバー (2023 ~ 2024 年) (出典: digitimes research)

2024年のトップ5は、googleが16万2000台(5システム)で1位、マイクロソフトが9万台(3システム)で2位、super microが6万8000台(2システム)で3位、アマゾン(6万7000台)が4位となった。次いで meta が 46,000 台 (1 システム) で 5 位にランクインしました (括弧内は chatgpt クラス生成 ai が構築できるシステム数)。米国の太陽熱発電会社上位5社が約8割のシェアを独占していることがわかる。

次に、ai アクセラレータのハイエンド ai サーバーの出荷台数を見てみましょう (図 9)。予想通り、nvidia の gpu が ai アクセラレータに最も多く使用されており、2024 年には 336,000 ユニットに達します。しかし、驚いたことに、2番目に人気のある企業はamdではなくgoogleです。

図 9 ai アクセラレータ別のハイエンド ai サーバー (2023 ~ 2024 年) (出典: digitimes research)

google は ai アクセラレータとして独自の tensor processing unit (tpu) を開発しました。このtpuを搭載したハイエンドaiサーバーは2024年までに13万8000台に達する。ここで、図 8 から、google は 2024 年までに 162,000 台のハイエンド ai サーバーを保有することがわかります。そのため、13万8000台にはgoogle独自のtpuが搭載され、残りの2万4000台にはnvidiaのgpuが搭載されると予想される。つまり、nvidia にとって、google は顧客であると同時に手強い敵でもあるのです。

また、2024年の出荷台数を見ると、3位のamdが4万5000台、次いで4位のamazonが4万台となっている。 amazon は、人工知能アクセラレーターとして aws trainium も開発しています。これ以上待てばamdがamazonに追い抜かれるかもしれない。

要約すると、現在 ai アクセラレータの出荷量が最も多いのは nvidia ですが、google と amazon がその強力な競争相手になりつつあります。 nvidia の競合相手は、プロセッサ メーカー amd ではなく (もちろん、絶滅危惧種の intel ではありません)、米国の csp である google と amazon です。

本格的な生成aiブームが到来

これまでのことをまとめてみましょう。 digitimes research のレポートによると、chatgpt レベルの生成 ai を開発および実行できるハイエンド ai サーバーの出荷台数は、2024 年までに全サーバーの 3.9% にとどまると予想されています。この出荷量では csp のニーズを満たすことができないと考えられます。

つまり、2023年から2024年にかけてのnvidiaの「gpuフェスティバル」は、まだ序章にすぎない。その結果、本格的な生成aiブームが到来する可能性がある。以下にその基本を示しましょう。

図 10 は、半導体工業会 (sia) が発表したアプリケーション別の半導体市場とその将来予測を示しています。 sia の予測によると、世界の半導体市場は 2030 年に 1 兆米ドルを超えると予想されています。

図10 用途別半導体出荷予測(出典:siaブログ)

2030 年までに、最大の市場はコンピューティングとデータ ストレージになるでしょう。これにはpcとサーバー(もちろんハイエンドaiサーバーも)が含まれるが、pcの出荷台数が大幅に増える可能性は低いため、サーバーが大半を占めることになるだろう。

有線通信とは、データセンターで使用される半導体のことを指します。これは、2030年までにコンピューティングとデータストレージ(3,300億ドル)+有線通信(600億ドル)=合計3,900億ドルがデータセンター用半導体(pc含む)となり、世界最大の市場になることを意味する。

もう一つ注目すべきはデータセンター市場とその展望です。図 11 に示すように。 2022 年の chatgpt リリース後、データセンター市場は着実に成長すると予想されます。データセンターはネットワークインフラ、サーバー、ストレージの3要素で構成されており、サーバーとストレージは2023年から2029年にかけてそれぞれ約2倍に増加すると予想されている。

図11 データセンター市場の見通し(総合的な生成aiブームはまだ到来していない) (出典:statista market insightsのデータをもとに筆者作成)

これにより、サーバー半導体(ハイエンドaiサーバー含む)が世界市場で最大のシェアを占め、データセンター市場も拡大すると考えられます。

最後にもう一度繰り返します。今のところ、nvidia の「gpu festival」は単なるホリデー前のイベントです。本格的な生成aiブームが到来しています。