ニュース

Llama 3.1 モデルをカスタマイズするための強力なツールが登場しました。 NVIDIA は生成 AI ファウンドリを構築し、導入を加速します

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


賢いもの
著者ZeR0
編集者モーイン

Zhidongxi は 7 月 24 日、NVIDIA が新しい NVIDIA AI Foundry サービスと NVIDIA NIM 推論マイクロサービスの開始を発表し、新たに開始されたオープン ソース モデルの Meta Llama 3.1 シリーズと合わせて、グローバル企業の生成 AI を強力にサポートすると報告しました。

Llama 3.1 の大規模言語モデルには、8B、70B、および 405B の 3 つのパラメーター サイズがあります。モデルは 16,000 を超える NVIDIA Tensor Core GPU でトレーニングされ、データ センター、クラウド、NVIDIA RTX GPU を搭載したローカル ワークステーションまたは GeForce RTX GPU を搭載した PC のいずれにおいても、NVIDIA アクセラレーション コンピューティングとソフトウェア向けに最適化されています。

TSMC が世界的なチップ企業のファウンドリであるのと同様に、NVIDIA もエンタープライズ レベルの AI ファウンドリである NVIDIA AI Foundry を構築しました。

NVIDIA の創設者兼 CEO のジェンセン フアン氏は、「メタの Llama 3.1 オープン ソース モデルは、世界的な企業が生成 AI を導入する重要な瞬間を示しています。Llama 3.1 は、高度な生成 AI アプリケーションを作成する企業や業界の波を引き起こすでしょう。NVIDIA AI Foundry Llama 3.1 は、プロセス全体に統合されており、企業がカスタム Llama スーパー モデルを構築および展開するのに役立ちます。」


NVIDIA DGX Cloud AI プラットフォームを搭載し、NVIDIA が世界をリードするパブリック クラウドと共同設計した NVIDIA AI Foundry は、企業に大規模なコンピューティングを提供することを目的として、カスタム スーパー モデルを迅速に構築するために使用できるエンドツーエンドのサービスを提供します。 AI のニーズの変化に応じて、コンピューティング リソースを簡単に拡張できます。

「NVIDIA AI Foundry を使用すると、企業は必要な最先端の AI サービスを簡単に作成およびカスタマイズし、NVIDIA NIM を通じて展開できます」と Meta の創設者兼 CEO の Mark Zuckerberg 氏は述べています。

ドメイン固有のモデルを作成するためにさらに多くのトレーニング データが必要な企業は、自社のデータだけでなく、Llama 3.1 405B および NVIDIA Nemotron Reward モデルによって生成された合成データを使用して、これらのスーパー モデルをトレーニングして精度を向上させることができます。独自のトレーニング データをお持ちのお客様は、NVIDIA NeMo を使用して Llama 3.1 モデルをカスタマイズし、ドメイン アダプティブ プレトレーニング (DAPT) を通じてモデルの精度をさらに向上させることができます。

また、NVIDIA と Meta は、開発者が生成 AI アプリケーション用のより小さなカスタム Llama 3.1 モデルを作成できるように、Llama 3.1 の蒸留方法を提供するために協力しています。これにより、企業は AI ワークステーションやラップトップなど、より高速化されたインフラストラクチャ上で Llama を利用した AI アプリケーションを実行できるようになります。

カスタム モデルが作成されると、企業は NVIDIA NIM 推論マイクロサービスを構築し、好みのクラウド プラットフォームと世界的なサーバー メーカーの NVIDIA 認定システム上でクラス最高の機械学習オペレーション (MLOps) と人工知能を選択して使用できるようになります。 (AIOps) プラットフォームは、実稼働環境でこれらのモデルを実行します。


NIM マイクロサービスは、NIM なしで推論を実行する場合に比べて最大 2.5 倍高いスループットで Llama 3.1 モデルを実稼働環境にデプロイするのに役立ちます。


ai.nvidia.com で Llama 3.1 モデル用の NVIDIA NIM 推論マイクロサービスについて学び、実稼働グレードの AI への Llama 3.1 モデルの展開を加速します。

Llama 3.1 NIM マイクロサービスと新しい NVIDIA NeMo Retriever NIM マイクロサービスを組み合わせることで、AI 副操縦士、アシスタント、デジタル ヒューマン アバター用の高度な検索ワークフローを構築できます。


新しい NVIDIA NeMo Retriever NIM 推論マイクロサービスを使用して Retrieval Enhanced Generation (RAG) を実装することにより、企業はカスタム Llama スーパー モデルと Llama NIM マイクロサービスを運用環境に導入して応答精度を向上させることができます。

NeMo Retriever NIM マイクロサービスは、Llama 3.1 405B 用の NVIDIA NIM 推論マイクロサービスと組み合わせると、RAG ワークフローでのオープンおよび商用テキストの質問応答に非常に高い検索精度をもたらします。


NVIDIA AI Foundry は、NVIDIA ソフトウェア、インフラストラクチャ、専門知識をオープン コミュニティ モデル、テクノロジー、NVIDIA AI エコシステムのサポートと組み合わせます。 NVIDIA AI Enterprise の専門家とグローバル システム インテグレーター パートナーは、AI Foundry の顧客と協力して、開発から展開までのプロセス全体を加速します。


プロフェッショナル サービス企業の Accenture は、NVIDIA AI Foundry を初めて利用し、Accenture AI Refinery フレームワークを使用して、自社だけでなく、導入する生成 AI アプリケーションに文化、言語、業界を反映させたいと考えているクライアント向けにカスタム Llama 3.1 モデルを作成しました。

ヘルスケア、エネルギー、金融サービス、小売、運輸、通信、その他の業界の企業は、すでに Llama 用の NVIDIA NIM マイクロサービスを使用しています。 Llama 3.1 用の新しい NIM マイクロサービスを最初に使用した企業には、Aramco、AT&T、Uber などが含まれます。

エンタープライズ、データ、インフラストラクチャ プラットフォームを提供する数百の NVIDIA NIM パートナーは、これらの新しいマイクロサービスを自社の AI ソリューションに統合できるようになり、500 万人を超える開発者と 19,000 社のスタートアップからなる NVIDIA コミュニティに生成 AI を支援します。

Llama 3.1 NIM および NeMo Retriever NIM マイクロサービスの運用サポートは、NVIDIA AI Enterprise を通じて利用できます。 NVIDIA 開発者プログラムのメンバーは間もなく、NIM マイクロサービスに無料でアクセスして、好みのインフラストラクチャで研究、開発、テストを実施できるようになります。