ニュース

アマゾンがチップ会社を買収

2024-08-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Amazonは、カリフォルニア州サンノゼに拠点を置く上場Xperiの子会社であるチップメーカーおよびAIモデル圧縮会社Perceiveを現金8,000万ドルで買収することで合意に達した。 Perceive は、エッジ デバイス上で大規模な人工知能モデルを提供するテクノロジーに焦点を当て、画期的なニューラル ネットワーク推論ソリューションを開発している会社です。

アマゾンはこの技術に関する具体的な考えを明らかにしていない。 Amazonの広報担当者は、「Perceiveを買収し、その有能なチームをエッジで実行可能なデバイスに大規模な言語モデルとマルチモーダルエクスペリエンスをもたらす当社の取り組みに参加させる契約に署名できたことをうれしく思う」と述べた。

Xperiは今年初めからPerceiveの買い手を探していた。取引が完了すると、Perceive の従業員 44 人のほとんどが Amazon に入社する予定です。アマゾンは、この取引が日常的な買収であるとして、この取引に規制当局の承認が必要になるとは予想していないと述べた。

Perceiveのチップ紹介

情報によると、Perceive は共同 CEO の Murali Dharan 氏と Steve Teig 氏によって率いられています。同社には世界中に従業員がいます。同社はアイダホ州で研究所を運営する予定。 Teig 氏は、Xperi の最高技術責任者として在任中、Perceive の開発を推進し、同社の機械学習チームを率いながら、中核となるオーディオやイメージングのイノベーションを含む技術開発を監督しました。 Dharan 氏は、以前は Xperi のライセンス ビジネスの戦略的方向性、管理、成長を担当していましたが、現在は販売、マーケティング、カスタマー サクセスおよび運営を含む Perceive の事業運営を主導する責任を負っています。

Perceive は、エッジ デバイス上で大規模な AI モデルを提供する製品を提供しています。その主力製品は、電力が限られている場合でも、さまざまな環境でデータセンター レベルのニューラル ネットワークを実行できる Ergo AI プロセッサです。

レポートによると、これはエッジデバイスに画期的なパフォーマンスとエネルギー効率をもたらす AI プロセッサーであるとのことです。大規模なニューラル ネットワークをフル フレーム レートで実行でき、標準の CNN、RNN、LSTM などを含むさまざまなネットワーク アーキテクチャとタイプをサポートします。 Ergo は、オブジェクトの分類と検出から、画像のセグメンテーションとポーズ、音声信号の処理と言語に至るまで、幅広い機械学習タスクを処理するのに十分な柔軟性と強力さを備えています。 Ergo は複数のネットワークを同時に実行できるため、マルチタスクを実行することもできます。

Ergo の処理能力にもかかわらず、外部 DRAM は必要なく、7 mm x 7 mm の小さなパッケージにより、カメラ、ラップトップ、AR/VR グラスなどの小型デバイスでの使用に最適です。

Perceive 社によると、Ergo は他の製品に比べてエネルギー効率が 20 ~ 100 倍高く、30 fps のビデオで推論を実行するのに必要な計算能力はわずか 9 mW です。これは、デバイスが比類のないバッテリー寿命を実現し、発熱が少ないため、より小型で汎用性の高いパッケージが可能になることを意味します。

2023 年初めに、Perceive は新しい Ergo 2 AI プロセッサーを発売しました。レポートによると、このチップは、業界をリードする電力効率を維持しながら、変圧器モデル、大規模なニューラルネットワーク、同時実行の複数のネットワーク、マルチモーダル入力を必要とするユースケースなど、より複雑なユースケースに必要なパフォーマンスを提供できます。

Perceive の創設者兼 CEO の Steve Teig 氏は、最新の Ergo チップの市場機会について詳しく述べ、「新しい Ergo 2 プロセッサにより、デバイス メーカーがクラス最高のチップを構築できるように提供する機能を拡張しました。機能は開発中です」と述べています。 「言語または視覚処理の変換モデル、より高いフレームレートのビデオ処理、さらには複数の大規模なニューラル ネットワークを 1 つのアプリケーションに組み合わせる」など、野心的な製品に取り組んでいます。

Ergo 2 は、Perceive の第 1 世代 Ergo チップよりも 4 倍高速に動作し、マイクロ ML 用に設計された一般的なチップよりもはるかに高い処理能力を備えています。製品開発者は、YOLOv5、RoBERTa、GAN、U-Nets などの高度なニューラル ネットワークを活用して、正確な結果を迅速に提供できるようになりました。 Ergo 2 の処理はすべてオンチップで行われ、外部メモリを必要としないため、エネルギー効率、プライバシー、セキュリティが向上します。 Ergo 2 チップにより次のことが可能になります。

MobileNet V2 を実行すると、1 秒あたり 1,106 回の推論が可能

ResNet-50 実行時、1 秒あたり 979 推論

YoloV5-S を実行すると、1 秒あたり 115 回の推論が実行されます

これらの大規模ネットワークの実行に必要なパフォーマンス強化を提供するために、Ergo 2 チップはパイプライン アーキテクチャとユニファイド メモリ設計を採用しており、これにより柔軟性と全体的な動作効率が向上します。その結果、Ergo 2 は、より高解像度のセンサーと、以下を含む幅広いアプリケーションをサポートできるようになります。

音声テキスト変換や文章補完などの言語処理アプリケーション

音響エコーキャンセルやより豊富なオーディオイベント検出などのオーディオアプリケーション

ビデオの超解像度や姿勢検出など、要求の厳しいビデオ処理タスク。

Ergo 2 プロセッサのサイズは 7 mm x 7 mm で、22FDX プラットフォームを使用して GlobalFoundries によって製造されており、実行に外部 DRAM は必要ありません。消費電力が低いため、冷却も必要ありません。このチップは、複数の異種ネットワークを同時に実行でき、セキュリティ、アクセス制御、赤外線画像分析、または視覚検査などの産業用途に適したエンタープライズグレードのカメラなどのデバイスにインテリジェントなビデオおよびオーディオ機能を提供します。ラップトップ、タブレット、高度なウェアラブルなどの消費者向け製品。

AWSの自社開発チップの歴史

AWS は、10 年以上前に同社が Annapurna Labs を買収したことのおかげで、AI ワークロードとクラウド最適化のための独自のカスタム シリコンを長年構築してきました。このため、AWS は過去数年にわたって、クラウドで AI モデルをトレーニングするために独自の Graviton プロセッサ、Inferentia チップ、Trainium 機械学習プロセッサを構築してきました。

今年、アマゾンは人工知能(AI)技術の進歩において大きな一歩を踏み出した。

AWS は年次 AWS re:Invent カンファレンスで、AWS Trainium2 と Graviton4 という 2 つの新しいカスタム チップを発表しました。この 2 つのチップは、特に市場が主に Nvidia によって製造される高性能グラフィックス プロセッシング ユニット (GPU) の深刻な不足に直面している中で、AI 機能に対する需要の高まりに応えるアマゾン ウェブ サービス (AWS) の大胆な取り組みを表しています。

強化されたコンピューティング能力の必要性は、生成人工知能の人気の高まりから生じており、モデルのトレーニングとデプロイには強力なインフラストラクチャが必要です。 Nvidia は 2024 年まで GPU を完売すると伝えられており、TSMC の CEO を含む業界関係者は、この供給危機は 2025 年まで続く可能性があると予測しています。これを念頭に置いて、Amazon の新しいチップは、AI ワークロードに特化した代替品を提供することで、Nvidia への依存を軽減することを目指しています。

Trainium2 チップは大規模 AI モデルのトレーニング用に設計されており、前世代のチップよりも 4 倍高いパフォーマンスと 2 倍のエネルギー効率を備えています。 Amazon によると、このチップは最大 100,000 ユニットのクラウド クラスターで使用した場合、65 エクサフロップスを処理できます。この機能により、数千億のパラメーターを含む複雑なモデルのトレーニング時間が数か月から数週間に短縮されます。これらの進歩により、Trainium2 は AI トレーニング インフラストラクチャのリーダーとなっています。

Trainium2 チップは、その可能性が認められ、フレンドリーな AI モデルの構築に注力する Anthropic など、すでに複数の業界関係者からの関心を集めています。共同創設者の Tom Brown 氏は、Trainium2 により迅速な拡張が可能になり、以前のモデルよりも最大 4 倍高速に処理できると強調しました。 AWS と Anthropic などの企業とのパートナーシップは、独自のクラウドテクノロジーを活用して AI 運用を合理化する傾向が高まっていることを示しています。

一方、Graviton4 チップは、Amazon のこれまでで最も強力で効率的なプロセッサであり、さまざまなクラウド ワークロードに合わせて調整されています。前世代の Graviton3 と比較して、この第 4 世代チップはパフォーマンスが 30% 向上し、コア数が 50% 増加し、メモリ帯域幅が 75% 増加すると予想されています。これらの改善により、ユーザーは運用コストを削減し、データ処理速度を向上させることができるため、高性能データベースや集中的な分析アプリケーションを実行する企業に最適です。

Graviton4 の早期導入企業には、Datadog、Epic Games、SAP などの企業が含まれます。たとえば、Epic のチーフ クラウド エンジニアである Roman Visintine 氏は、このチップは遅延に敏感なワークロードで優れたパフォーマンスを発揮し、特にオンライン ゲーム エクスペリエンスに有益であると指摘しました。高速なデータ アクセスと処理が成功に不可欠な競争の激しい環境では、このクラウド サービスの最適化トレンドが非常に重要です。

Amazonの発表は、テクノロジー業界におけるより大きな傾向も浮き彫りにしており、企業は特定のコンピューティングニーズ、特に人工知能や機械学習タスクを満たすためにカスタムチップソリューションへの投資を増やしている。 Amazonは独自のハードウェアを開発することで差別化を図り、NvidiaやAMDなどの既存のチップメーカーへの依存を減らしたいと考えている。

AI テクノロジーが成長を続け、ヘルスケアからエンターテインメントに至るまで、さまざまな分野で普及するにつれて、効率的で高性能なチップのニーズはますます高まるでしょう。テクノロジーアナリストは、これらの新しい Amazon チップの発売が現在のニーズに即座に対応するだけでなく、将来の人工知能開発の基礎を築くことになると期待しています。

驚くべきことに、Microsoftは人工知能とクラウドサービス向けの独自のチップ開発も発表しているため、これらのチップの発売は戦略的なタイミングで行われた。これにより、AI ハードウェアの分野で熾烈な競争が引き起こされ、企業は急速にイノベーションを起こし、限界を押し広げようとしています。

AWS Trainium2 および Graviton4 チップは近い将来顧客に提供される予定であり、Trainium2 は来年中に発売され、Graviton4 はすでにプレビュー段階にあります。テクノロジー業界がクラウド コンピューティングと人工知能主導のソリューションへの移行を続ける中、Amazon はこのデジタル変革において重要な役割を果たそうとしています。

AIチップには大きな可能性がある

AWS は、企業のビジネス ニーズを満たすだけでなく、頻繁にチップを開発していますが、これは AI チップがクラウドだけでなくデバイス側にも反映される大きな可能性を秘めていることを改めて証明しています。

Futurum Intelligence によると、2023 年までに Nvidia は AI GPU 市場の 92%、データセンター AI 半導体市場全体の 75% を占めるようになるでしょう。この優位性は、2024 年までにほぼ半分に成長すると予想されるすでに巨大な市場において継続します。

アナリスト会社は、データセンター人工知能アプリケーション向けのプロセッサとアクセラレータの市場価値の合計は563億ドルに達し、2023年の年間市場価値377億ドルから49.3%増加すると予測している。市場アナリストは、市場は今後5年間で年平均成長率29.7%で成長し、市場規模は2026年に984億米ドル、2028年には1,383億米ドルに達すると予測しています。

Futurum は、AI データセンター プロセッサ市場を、CPU、GPU、専用アクセラレータ (XPU と呼ばれる)、Google、AWS、Microsoft などの企業が製造する独自のクラウド アクセラレータの 4 つのカテゴリに分類しています。

2023 年には、CPU が市場の 20.5%、GPU が市場の 73.5%、XPU とクラウド固有の製品がそれぞれ 3% を占めるようになるでしょう。

1. 2023 年には、CPU はデータセンターにおける AI 処理の 20% を占め、引き続き重要な役割を果たし続けるでしょう。フチュラムは、2023 年の 77 億ドルから 2028 年には 260 億ドルへと、5 年間の年平均成長率 28% で成長すると予測しています。 Futurum は、2023 年の市場シェアは Nvidia が 37%、Intel が 23% になると予測しています。

2. 2023 年までに、GPU はデータセンター AI アプリケーションで使用されるチップセットの 74% を占め、5 年間の年平均成長率は 30% となり、2023 年の 280 億米ドルから 2028 年には 1,020 億米ドルに増加すると予想されます。 Futurum は、Nvidia が AI GPU 市場の 92% を保持していると推定しています。

3. XPU は 5 年間の年平均成長率 31% を達成し、2023 年の 10 億米ドルから 2028 年には 37 億米ドルに成長すると予想されます。

4. パブリック クラウド AI アクセラレータは、5 年間の年平均成長率 35% を経験し、2023 年の 13 億米ドルから 2028 年には 60 億米ドルに成長すると予想されます。

Futurum は、データセンターで一般に利用できない AI プロセッサとアクセラレータをこの調査から除外し、したがって Meta、Tesla、Apple によって設計および使用されている AI チップセットも除外します。

地理的な観点から見ると、北米が市場を支配しており、2023 年までに市場シェアの 55% を占めると予想されます。ヨーロッパ、中東、アフリカ (EMEA) とアジア太平洋 (APAC) が重要な市場として続きますが、ラテンアメリカ (LATAM) は大きな成長の可能性を秘めた発展途上地域の代表です。

ビジュアルおよびオーディオ分析は、2023 年の最大のユースケースです。 Futurum は、2028 年のトップ 3 のユースケースは、ビジュアルとオーディオの分析、シミュレーションとモデリング、テキストの生成、分析、要約になると予測しています。

エッジ AI に特化した Omdia の新しい調査では、エッジ AI プロセッサー市場は 2028 年までに 602 億ドルの収益を生み出し、年平均成長率は 11% になると予測されています。

Omdia の最新のエッジプロセッサ予測では、さまざまな業界やデバイスが人工知能を採用するにつれて、収益の伸びはハードウェア需要の増加によって促進されると述べています。市場の成長を牽引している分野の 1 つは PC セグメントであり、Intel、AMD、Apple などの主要ベンダーからの製品提供が増加しています。 PCベンダーは自社デバイスにAIプロセッサを搭載することを「独自のセールスポイント」として売り出そうとしていると伝えられている。

この報告書は、パーソナルコンピューター分野に加えて、自動車、ドローン、監視カメラ、ロボットなどの分野での人工知能プロセッサーの急速な応用にも焦点を当てている。

このことから、AWS 買収の背後にある意図がわかります。