ニュース

Appleが認める:AIモデルはGoogleのカスタムチップを使用してトレーニングされている

2024-07-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

米国時間7月30日月曜日のニュース。りんご同社は次のように述べた。AIシステムのコアモデルは次のとおりです。グーグル設計されたプロセッサーで事前トレーニングを完了します。これは大手ハイテク企業が最先端の人工知能のトレーニング以外の選択肢を模索していることの表れだ。エヌビディアグラフィックプロセッサ代替案。

Apple は最新の技術文書の中で、人工知能モデルのトレーニングに Google の Tensor Processing Unit (TPU) を使用していることを認めました。これとは別に、Apple は月曜日に一部のユーザー向けに Apple Intelligence のプレビュー版をリリースしました。

長い間、NVIDIA の高性能 GPU はハイエンド人工知能モデル トレーニング市場を独占しており、OpenAI、Microsoft、Anthropic などの多くのテクノロジー企業がモデル トレーニングを高速化するために同社の GPU を採用しています。しかし、ここ数年、Nvidia GPU が不足しているため、Google、Meta、Oracle、Tesla などの企業は、それぞれの人工知能システムや製品開発のニーズを満たす独自のチップを開発しています。 。

Meta CEOのMark Zuckerberg氏とAlphabet CEOのSundar Pichai氏はともに、自社と業界他社との間で人工知能インフラが進歩する可能性を示唆する洞察を提供した。過剰投資という現象が存在するが、それが失敗していることも強調されている。非常に高いビジネスリスクにつながる可能性があります。ザッカーバーグ氏は特に、この点で遅れをとれば、今後10~15年で主要なテクノロジー分野での競争上の優位性を失う可能性があると指摘した。

この 47 ページの技術文書では、Apple は Google や NVIDIA に直接言及していませんが、自社の Attendal Factorization Machines (AFM) モデルと AFM サーバーが「クラウド TPU クラスター」環境でトレーニングされていると明確に述べており、これは間接的に Apple リソースがクラウド サービス プロバイダーによって提供されるサービスは、コンピューティング タスクを実行するために使用されます。

Appleは論文の中で、「このシステムを適用することで、デバイス側AFMからサーバー側AFM、さらには大規模モデルまでをカバーするAFMモデルを効率的かつスケーラブルにトレーニングできるようになった」と強調した。

これまでのところ、AppleとGoogleの公式代表者はコメントの要請に応じていない。

多くの同業他社と比較して、Apple はその後、2022 年末に OpenAI が ChatGPT を発表した後、他の企業も生成型人工知能テクノロジーの熱心な追求を開始しました。月曜日、Apple は Apple Smart を正式に発売しました。これは、Siri の新しいインターフェイス設計、大幅に改善された自然言語処理能力、テキストフィールドでの人工知能による自動要約など、一連の革新的な機能を備えてデビューしました。

来年、Apple は、画像や表現の自動生成、ユーザーの個人情報を使用して複雑でさまざまなアプリケーションのパフォーマンスを向上させる Siri の強化版など、生成人工知能に基づくさらなる機能をリリースする予定です。パーソナライズされたタスク。

月曜日に発表された技術文書の中で、Apple は自社デバイスでの AFM モデルトレーニングの具体的な詳細、つまりモデルが 2048 個の最新の TPU v5p チップを含む別の「スライス」上で完成されることを明らかにしました。 TPU v5p は現在最も先進的なテンソル処理ユニットであり、昨年 12 月に初めて発売されました。 AFM サーバーのトレーニングはさらに大規模で、8192 TPU v4 チップが使用されています。これらのチップは 8 つのスライスに注意深く構成されており、ネットワークを通じてデータセンター内で連携して、サーバーの強力なコンピューティング ニーズを共同でサポートします。

Google の公式情報によると、最新の TPU の稼働コストは 1 時間あたり 2 ドル未満ですが、確実に使用するには 3 年前に予約する必要があります。 2015 年に内部ワークロード向けに特別に設計され、Google が 2017 年に一般公開して以来、TPU は人工知能において最も成熟した先進的なカスタム チップの 1 つになりました。

注目に値するのは、Google が自社開発の TPU を持っているにもかかわらず、依然として Nvidia のトップ顧客としての地位を維持しており、Nvidia の GPU と独自の TPU を使用して人工知能システムをトレーニングし、クラウド プラットフォーム上で Nvidia テクノロジーへのアクセスを提供していることです。

Appleは以前、推論プロセス(コンテンツの生成または予測に事前トレーニングされた人工知能モデルを使用)は部分的に自社のデータセンターのチップ上で実行されると述べていた。

これは、Apple が自社の人工知能システムに関して最近発表した 2 番目の技術文書であり、6 月のより大まかな概要を示したバージョンに続き、同社が開発プロセスで TPU を使用していることがさらに裏付けられました。 (少し)