ニュース

AI スター企業は小型モデルで競争し、コストは大幅に下がり、電気代も節約できるため、AI の普及が加速します

2024-07-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


スマートなもの (公開アカウント:翻訳
孟強編纂
編集者のユンペン

Venture Beat の報道によると、先週、Hugging Face、Mistral AI、OpenAI はそれぞれの小型モデル (SLM) を 7 月 16 日と 18 日に発表し、高度な自然言語処理機能の普及を約束しました。これまでテクノロジー企業は、大規模な言語モデル トラックでより大規模で複雑なニューラル ネットワークを追求するために競い合ってきましたが、Venture Beat は、これらの小規模なモデルが新たな道を切り開き、企業による AI ソリューションの使用方法にも影響を与える可能性があると考えています。

名前が示すように、小規模モデルは大規模言語モデル (LLM) に比べてパラメータが少なく、コンピューティング リソース要件も低くなります。パラメータが数千億、場合によっては数兆にも及ぶ大規模な言語モデルと比較して、SmolLM、Mistral NeMo、GPT-4o mini という 3 つの新しい小規模モデルのパラメータは、トレーニングに応じて数億から数百億の範囲に及ぶ可能性があります。エネルギー消費量は、大規模な言語モデルよりも低くなります。 3 つのモデルは AI を普及させるために異なる方法を使用していますが、強力な言語処理機能をより多くのデバイスやアプリケーションにもたらすという共通の目標を持っています。

1. 小規模モデルがエッジ コンピューティングをどのように変えるか

Venture Beat は、Hugging Face の SmolLM が 3 つの中で最も革新的であると考えています。モバイル デバイスで実行するように特別に設計されており、1 億 3,500 万個、3 億 6,000 万個、17 億個のパラメーターという 3 つの仕様があり、エッジ デバイスでの AI 処理を促進し、データ プライバシーと遅延という主要な問題を解決します。

SmolLM の重要性は、効率の向上だけにとどまりません。エッジ デバイスに AI 処理の使用を許可すると、デバイス アプリケーションを低遅延と高度なプライバシー保護に基づいて実行できるようになります。これまではプライバシーや接続の問題により実現できなかった複雑なAI機能がSmolLMを使えば実現できる可能性があります。

さらに、Mistral AI は、120 億のパラメーターと最大 128k のコンテキスト ウィンドウを備えた Mistral NeMo モデルを発表しました。 Mistral NeMo はデスクトップ コンピューターを対象としており、大規模なクラウド モデルと超小型のモバイル AI の間に位置します。前者はクラウド コンピューティング プラットフォーム上でトレーニングおよび実行される大規模な AI モデルですが、後者はリソースが限られたモバイル デバイスです (携帯電話やウェアラブルデバイスなど)。

Venture Beat は、Mistral NeMo のコンピューティング手法はエンタープライズ分野に大きな変化をもたらす可能性があると述べています。このモデルには、消費者向けのハードウェアを活用して、かつては巨大テクノロジー企業や潤沢な資金を持つ研究機関の管轄だった複雑な AI 機能を民主化する可能性があります。これは、顧客サービスの最適化やより高度なデータ分析ツールの提供など、さまざまな業界で AI 主導のアプリケーションを普及させるのに役立つ可能性があります。

2. OpenAIの効率的な小型モデルGPT-4o miniは美しい価格です

OpenAI は、市場で最もコスト効率の高い小型モデルと言われる GPT-4o mini の発売により、小型モデルの競争にも加わりました。 Venture Beat は、GPT-4o mini により AI 統合ファンドへのアクセスが大幅に削減されると主張しています。

さらに、GPT-4o mini の価格戦略は、特に新興企業や中小企業の間で AI 主導のイノベーションの新たな波を生み出す可能性があります。このモデルは、AI 統合のコストを大幅に削減することで、AI 主導のソリューションを導入するための参入障壁を効果的に下げます。 Ventrue Beat は、これにより複数の業界で技術革新と改革が加速する可能性があると考えています。さらに、この小型モデルへの移行は、AI コミュニティの新しいトレンドを反映しています。研究者や開発者は、効率性、アクセシビリティ、ニッチなアプリケーションにますます注目しています。この傾向は、特定のタスクや業界向けに最適化された、より的を絞った効率的な AI ソリューションにつながる可能性があります。

3. 小規模モデルはグリーンテクノロジーイノベーションを促進し、テクノロジーの二酸化炭素排出量を削減します

小型モデルへの移行は、AI が環境に与える影響についての懸念の高まりとも一致しています。小規模なモデルのトレーニングと操作では消費エネルギーが少なくなり、AI テクノロジーの二酸化炭素排出量が削減される可能性があります。ハイテク企業が持続可能性を求めるプレッシャーの増大に直面する中、ベンチャービートは小型モデルの低エネルギー消費と低排出ガスが重要なセールスポイントになる可能性があると考えている。

この小型モデルへの移行が環境に与える影響は深刻になる可能性があります。 AI の普及が進むにつれて、より効率的なモデルの普及によってエネルギーが大幅に節約される可能性があります。これにより、AI は地球温暖化に寄与し続けるのではなく、グリーン イノベーションにおいて主導的な役割を果たすことができるようになるかもしれません。

ただし、小型モデルの台頭には課題がないわけではありません。 AI がより普及するにつれて、偏見、説明責任、倫理的使用の問題がより差し迫ったものになります。規制されないまま放置されると、小規模なモデルを通じて AI が拡散し、既存の偏見が増幅されたり、新たな倫理的ジレンマが生じたりする可能性があります。小規模モデルの開発者とユーザーは、技術的な能力に加えて、倫理的な問題も優先する必要があります。

結論: AI 開発の将来は多様化と専門化を指し示す

小規模なモデルは効率性と汎用性の点で利点がありますが、パラメータ数の制限により、多くのタスクではその処理能力が大規模な言語モデルの処理能力に匹敵しない可能性があります。 Venture Beat は、これは将来の AI 開発環境ではさまざまなサイズの言語モデルが存在し、より小さなモデルには得意とする特定の側面があることを示していると述べました。

今後、AI モデルの開発が盛んになることが予想されます。大規模な言語モデルであっても、小規模なモデルであっても、重要なのは、モデルのサイズ間のバランスを見つけることです。パフォーマンスと特定のアプリケーション要件。企業および技術的な意思決定者にとって、これら 3 つの小規模モデルは、より効率的で専門的で導入可能な AI ソリューションへの移行を表しており、エンタープライズ環境での AI 統合の新たな可能性を提供します。小規模モデルがクラウド内で現在主流となっている大規模モデルに取って代わることができるかどうかについては、結論を出すにはまだ時期尚早です。

出典: VentureBeat