ニュース

nvidia の後任になれるのは誰ですか?

2024-09-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

著者丨バリー

編集者丨グアン・ジュ

画像出典丨ミッドジャーニー

nvidia の代わりになるのは誰でしょうか?

データセンター用gpuの分野では、エヌビディアの出荷台数は2023年に376万台に達し、世界市場シェアの98%近くを占め、他の追随を許さないといえる。

ai アクセラレータまたはコンピューティング カードとも呼ばれる ai チップは、人工知能アプリケーションで多数のコンピューティング タスクを処理するために特に使用されるモジュールであり、主にグラフィックス プロセッサ (gpu)、フィールド プログラマブル ゲート アレイ (fpga)、およびアプリケーション固有のものが含まれます。集積回路(asic)など

gartnerによると、aiチップ市場は2023年に2022年比20.9%増の534億米ドルに達し、2024年には25.6%増の671億米ドルに達すると予想されています。 2027 年までに、ai チップの収益は 2023 年の市場規模の 2 倍以上となり、1,194 億ドルに達すると予想されています。

大手巨大企業によるコンピューティングパワーの軍拡競争が、間違いなくaiチップ市場の強力な原動力となっている。

2024 年以降、ほとんどすべての主流の大規模モデルには 1,000 億を超えるパラメータがあり、llama3 には 4,000 億のパラメータがあり、gpt4 には 1 兆 8000 億のパラメータがあります。数兆のパラメータを持つ大規模なモデルは、10,000 キロバイトを超える規模の超大規模な計算能力クラスターに相当します。

openai は少なくとも 50,000 個の nvidia ハイエンド gpu を搭載し、meta は 24,576 個の h100 で構成される独自のスーパー 10,000 カード クラスターを構築し、google は 26,000 個の h100 で構成される a3 スーパーコンピューターを持っています...40,000 社以上が nvidia gpu を購入しています。 meta、microsoft、amazon、google などが収益の合計 40% に貢献しました。

財務報告書によると、nvidia の粗利益率は 71% に達し、そのうち a100 および h100 シリーズの粗利益率は 90% にも達しました。ハードウェア企業として、nvidia はインターネット企業よりも高い粗利益率を持っています。

nvidia のデータセンター向け ai チップの価格は 1 個あたり 25,000 ~ 40,000 ドルで、従来の製品の 7 ~ 8 倍であると報告されています。調査会社オムディアのコンサルティングディレクター、杉山和弘氏は、エヌビディア製品の価格の高さがaiへの投資を希望する企業にとって負担となっていると述べた。

また、販売価格が高いため、多くの大口顧客が代替品を探し始めています。 7 月 30 日、apple は、自社の ai モデルが 8,000 個の google tpu を使用してトレーニングされたと発表しました。 openai の最初のチップも今日公開されました。これは tsmc の最も先進的な a16 オングストロームレベルのプロセスを使用し、sora ビデオ アプリケーション用に特別に構築されます。

世界中でaiチップスターのスタートアップやユニコーンが次々と誕生し、エヌビディアから食料を盗もうとしている。その中には、中国が支援するユニコーンのsambanovaや新興のetchedのほか、openaiのアルトマン最高経営責任者(ceo)が投資したユニコーンのセレブラス・システムズも含まれており、昨年armの上場を成功させた後、ソフトバンクグループの孫正義社長がipoに向けて全力で取り組んでいる。今年7月、同社は次のnvidiaを構築するために英国のaiチップ企業グラフコアを買収した。

sambanova、スタンフォード大学の中国人が開発した ai チップのユニコーン

8月27日、米国のaiチップ新興企業sambanovaは、リコンフィギャラブル・データ・フロー・ユニット(rdu)aiチップsn40lをベースにした、新たに発売した1兆パラメータ規模の人工知能(ai)モデル向けの世界初のaiチップシステムを初めて詳細に紹介した。 。

レポートによると、sambanova の sn40l に基づく 8 チップ システムは 5 兆のパラメータ モデルをサポートでき、単一システム ノードのシーケンス長は 256k+ に達する可能性があります。 yingwei の h100 チップと比較して、sn40l は h100 の 3.1 倍の推論パフォーマンスを達成するだけでなく、トレーニング パフォーマンスも 2 倍にし、総所有コストはわずか 1/10 です。

サンバノヴァ ceo ロドリゴ・リャン

同社の共同創設者3人は全員スタンフォード大学出身で、他の2人の共同創設者もスタンフォード大学の教授だった。

sambanovaの評価額は現在50億米ドル(約365億元)で、投資家にはintel、softbank、samsung、google ventureなどが含まれており、合計11億米ドルの6ラウンドの資金調達を完了している。

彼らはチップ上で nvidia に挑戦するだけでなく、ビジネス モデルの点でも nvidia を超えており、企業がプライベートな大規模モデルをトレーニングする支援に直接参加しています。また、チップは単体で販売されるのではなく、チップからサーバー システム、さらには大型モデルの展開に至るまで、カスタマイズされたテクノロジー スタックが販売されます。

対象顧客に対する同社の野心はさらに大きく、世界の大手企業 2,000 社をターゲットにしています。現在、sambanovaのチップとシステムは、世界トップクラスのスーパーコンピューティング研究所、日本の富岳、米国のアルゴンヌ国立研究所、ローレンス国立研究所、コンサルティング会社アクセンチュアを含む多くの大規模顧客を獲得している。

rodrigo liang 氏は、大規模モデルと生成 ai の商用化の次の戦場は、企業、特に大企業のプライベート データであると考えています。最終的に、同社は gpt-4 や google gemini のような 1 つの非常に大規模なモデルを実行するのではなく、データのさまざまなサブセットに基づいて、1 兆を超えるパラメーターが集約された 150 の独自のモデルを作成する予定です。

この戦略は、数百万のタスクに一般化できる巨大なモデルの作成を主な目的とする gpt-4 や google gemini などのアプローチとは大きく対照的です。

etched、2000年代生まれのハーバード大学中退者2人が設立したaiチップ企業

etched の創設者は、2000 年生まれのハーバード大学中退の 2 人です。 gavin uberti 氏は octoml と xnor.ai で上級職を歴任しており、chris zhu 氏はハーバード大学でコンピューター サイエンスの教育研究員を務めていることに加え、amazon などの企業でのインターン経験もあります。

chatgptがリリースされる前は大規模モデルの方向性について楽観的だった彼らは、2022年にハーバード大学を中退し、チップのai専用の大規模モデルを作成するためにrobert wachen氏と元cypress semiconductor最高技術責任者のmark ross氏と共同でetchedを設立した。

ギャビン・ウベルティ(左)とクリス・ジュー(右)

彼らは、transformer の ai チップのみを実行でき、asic 設計を採用するという、独自のルートを採用しました。現在、市場のほぼすべてのソリューションが ai モデルを広くサポートしており、2022 年末からは transformer モデルが市場全体を支配すると判断しています。gpu のパフォーマンスのアップグレードは遅すぎるため、唯一の方法は を使用することであると考えています。特殊な asic チップを使用することでのみ、パフォーマンスの飛躍的な向上を実現できます。

2 年を経て、etched は今年 6 月 27 日に初の ai チップ sohu を発売し、世界初の transformer コンピューティング専用チップとなりました。

大型モデルでは nvidia h100 よりも 20 倍速く、今年 3 月に発売された最上位チップ b200 よりも 10 倍以上速く動作します。 sohu チップを 8 個搭載したサーバーは、160 個の nvidia h100 gpu を完全に置き換えることができます。コストを大幅に削減しながらも、パフォーマンスの低下はありません。

sohu は 1 つのアルゴリズムのみをサポートするため、ほとんどの制御フロー モジュールを削除でき、チップにはより多くの数学的計算ユニットを統合でき、gpu の処理能力が 30% であるのに対し、計算能力の利用率は 90% 以上に達します。小規模な設計チームの場合、単一アーキテクチャのソフトウェア スタックを維持する方が明らかにストレスが少なくなります。

sohuチップのリリースと同時に、etchedはprimary venture partnersとpositive sum venturesが共同主導し、1億2000万米ドルのシリーズa資金調達を完了したことも発表した。

この資金調達ラウンドの主な投資家には、シリコンバレーの著名な投資家ピーター・ティール氏、仮想通貨取引プラットフォームcoinbaseの元最高技術責任者(cto)で元a16zゼネラルパートナーのバラジ・スリニバサン氏、github ceoのトーマス・ドームケ氏、クルーズ共同創設者のカイル・フォークト氏、quoraの共同創設者チャーリー・チーバー氏、もっと。

ウルトラマンが出資したaiチップユニコーンのcerebras systemsがipoを急ぐ計画

2015 年に設立された cerebras systems の最もユニークな点は、同社のチップが主流の nvidia gpu とは大きく異なることです。過去には、ムーアの法則に基づいてチップがどんどん小さくなっていきました。nvidia h100 を例に挙げると、814 平方ミリメートルのコア面積に 800 億個のトランジスタが搭載されています。

cerebras の ai チップは、チップ全体をますます大型化することを選択し、「世界最大の面積チップを作成した」と主張しています。報道によると、セレブラスが開発したwse 3チップはウエハー全体から切り出されたもので、板よりも大きく、人が両手で持つ必要がある。 wse 3 チップには、46,000 平方ミリメートルを超えるコア面積に 4,000 億個のトランジスタ (h100 の 50 倍) が搭載されています。

プレートより大きいチップは両手で持つ必要があります。出典: アルステクニカ

cerebras は、自社のチップがトレーニングできる ai 大型モデルのサイズは、現在の業界トップの大型モデル (openai の gpt-4 や google の gemini など) の 10 倍であると主張しています。

今年8月27日、cerebras systemsは「世界最速」をうたうai推論サービスcerebras inferenceの開始を発表した。公式ウェブサイトによると、この推論サービスは、精度を確保しながら nvidia のサービスより 20 倍高速であり、プロセッサ メモリ帯域幅は nvidia の 7,000 倍であり、価格は gpu のわずか 1/5 であり、価格性能比は優れています。 100倍に増加しました。 cerebras inference は、小規模開発から大規模エンタープライズ展開までのさまざまなニーズを満たすために、無料、開発者、エンタープライズ レベルを含む複数のサービス レベルも提供します。

共同創設者兼 ceo の andrew feldman はスタンフォード大学で mba を取得しており、最高技術責任者の gary lauterbach は業界トップのコンピューター アーキテクトの 1 人として知られています。 2007 年に 2 人はマイクロサーバー会社 seamicro を共同設立し、2012 年に amd に 3 億 3,400 万ドルで買収され、その後 2 人は amd に入社しました。

海外メディアの報道によると、セレブラス・システムズは米国で秘密裏にipoを申請しており、早ければ2024年10月にも上場される予定だという。現在、同社は7億2,000万米ドルを調達しており、その価値は約42億〜50億米ドルと評価されており、最大の個人投資家の1人はopenai ceoのサム・アルトマン氏である。アルトマン氏はセレブラス社の8,100万ドルのシリーズd資金調達に参加したと伝えられている。

tenstorrent に伝説のチップマスターが加わり、nvidia の「後継」となる

2021 年以前、tenstorrent はまだ無名の会社でした。しかし、「シリコンの不滅」として知られる半導体業界の偉人、ジム・ケラー氏が最高技術責任者兼社長として入社すると発表したことで、同社は一時的に有名になった。

ジム・ケラーのキャリアはコンピュータ業界の歴史と言えます。 jim keller は 1998 年から 1999 年まで amd で athlon をサポートする k7/k8 アーキテクチャに取り組み、2008 年から 2012 年まで apple で a4 および a5 プロセッサの開発を主導し、k12 arm を主宰しました。 amd のプロジェクト、zen アーキテクチャ プロジェクトに参加し、2016 年から 2018 年までテスラで fsd オートパイロット チップを開発し、2018 年から 2020 年までインテルの謎のプロジェクトに参加しました。

jim keller は、nvidia の高価な gpu の「代替品」を提供することを期待して tenstorrent に加わりました。彼は、nvidia が特定の市場に十分なサービスを提供できていないと考えており、これらの市場はまさに tenstorrent が獲得しようとしている市場です。

tenstorrent は、同社の galaxy システムは、世界で最も人気のある ai サーバーである nvidia dgx よりも 3 倍効率的で、33% 安価であると述べています。

報道によると、tenstorrentは第2世代の多目的aiプロセッサを今年末までにリリースする予定だという。昨年秋の tenstorrent の最新ロードマップによると、同社はマルチチップ ai ソリューション向けに black hole スタンドアロン ai プロセッサと quasar 低電力、低コストのチップレットをリリースする予定です。

同社は、今後のプロセッサは nvidia の ai gpu に匹敵するパフォーマンス効率を提供すると主張しています。同時に、tenstorrent は、自社のアーキテクチャは競合他社よりもメモリ帯域幅の消費が少なく、これが効率の向上とコストの削減の主な理由であると述べています。

tentorrent チップの主な特徴は、100 を超えるコアのそれぞれに小さな cpu、つまり「脳の中の頭脳」が搭載されており、どのデータを最初に処理するかを決定することで独自に「思考」できることです。必要ではないと考えられる特定のデータを破棄するかどうかを決定して、全体の効率を向上させます。

現時点で、tentorrent は少なくとも 6 ラウンドの資金調達を完了しています。以前、tentorrent の投資家は主にベンチャーキャピタルでした。つまりジム・ケラー氏の参加後、同社は 2023 年 8 月に 1 億米ドルの新たな資金調達ラウンドを完了し、現代自動車グループやサムスン触媒ファンドなどの産業資本が投資家の間で登場し始めました。 、サムスンのベンチャーキャピタル部門。

ソフトバンクがグラフコアを格安で買収し、nvidiaの競争相手を作る

グラフコアは、cto の simon knowles と ceo の nigel toon によって 2016 年に設立されました。同社は、人工知能と機械学習用に特別に設計されたプロセッサであるインテリジェンス プロセッシング ユニット (ipu) の開発に取り組んでおり、大規模並列 mimd アーキテクチャ、高メモリ帯域幅、密結合ローカル分散 sram などの独自のアーキテクチャと利点を備えています。

グラフコアは、gc200 ipu プロセッサー、bow ipu など、多数の ipu ベースの製品を次々と発売し、技術的なアップグレードと改善を継続的に行っています。

しかし、今年7月、この経営不振に陥った英国のaiチップ企業がソフトバンクに買収された。

この契約に基づき、グラフコアはソフトバンクの完全子会社となり、現在の社名で事業を継続することになる。報道によると、取引総額は約4億ポンド(約5億米ドル、35億6000万元)に達する可能性があり、これはグラフコアの前回の資金調達ラウンドの評価額である28億米ドルよりも約82%低い。ソフトバンクはグラフコアを20%割引で購入しただけだ。

グラフコアはかつて「英国版 nvidia」とみなされていました。しかし、2020年以降、同社は新たな投資を受けておらず、マイクロソフトからの重要な注文も失ったため、財務的に逼迫し、運営が困難になり、aiチップ分野の全体的な傾向についていけなくなった。同時に、米国は中国のai半導体に対する輸出規制を強化し続けており、これはグラフコアの中国での発展にも影響を及ぼし、最終的に同社は中国市場から撤退し、総収益の4分の1を失うことを選択せざるを得なくなった。

このグラフコアの買収は、aiチップ分野におけるソフトバンクの地位を強化するだけでなく、孫社長のai戦略における重要な一歩でもある。

元 google エンジニアが新種の lpu を開発するために groq を設立

今年8月、groqは6億4000万米ドルのシリーズd資金調達の完了を発表した。投資家にはブラックロック、シスコ・インベストメンツ、サムスン・カタリスト・ファンドなどが含まれ、評価額は28億米ドルとなっている。

元googleエンジニアのジョナサン・ロスによって2016年に設立された同社は、同社の言語処理装置ハードウェアlpuは、gpt-4などの既存のgenaiモデルを10倍の速度で実行でき、消費電力はわずか10分の1であると主張している。同社は、meta の llama 2 を使用して、ユーザーあたり 1 秒あたり 300 トークンという新しい大規模言語モデル (llm) パフォーマンス記録を樹立しました。

gpuの汎用性と比較すると、lpuは言語処理能力は高いものの、応用範囲が狭い。これにより、より広範囲の ai タスクへの汎用性が制限されます。さらに、lpu は新興テクノロジーであるため、まだコミュニティから広範な支持を得ておらず、使いやすさにも課題があります。

groq は、2025 年の第 1 四半期の終わりまでに 108,000 個を超える lpu を導入する予定であり、これは大手テクノロジー大手以外では最大規模の人工知能推論の導入となります。