私の連絡先情報
郵便管理者@information.bz
2024-09-06
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
原題: deepseek ai モデルのバージョン 2.5 へのアップグレード開始: coder と chat の統合、人間の好みの調整、執筆タスクの最適化、指示のフォローなど。
it houseは9月6日、deepseek coder v2とdeepseek v2 chatの2つのモデルが統合されアップグレードされ、アップグレードされた新モデルがdeepseek v2.5であると報告した。
出典: linux.do フォーラムのネットユーザーからのスクリーンショット
deepseek は昨日 (9 月 5 日)、api サポート ドキュメントを正式に更新し、deepseek coder v2 と deepseek v2 chat モデルを統合し、アップグレードして新しい deepseek v2.5 新モデルを発売することを発表しました。
公式には上位互換性があると述べられており、api ユーザーはディープシークコーダーまたはディープシークチャットを通じて新しいモデルにアクセスできます。
新しいモデルは、一般的な機能とコーディング機能の点で、旧バージョンの 2 つのモデルを大幅に上回っています。
新しいモデルは人間の好みに合わせて調整され、タスクや指示の作成などの多くの側面で最適化されています。
arenahard の勝率が 68.3% から 76.3% に増加
alpacaeval 2.0 lc の勝率は 46.61% から 50.52% に増加しました
mt-bench スコアが 8.84 から 9.02 に増加
alignbench スコアは 7.88 から 8.04 に増加しました
新しいモデルは、元の coder モデルに基づいてコード生成機能をさらに向上させ、一般的なプログラミング アプリケーション シナリオを最適化し、標準テスト セットで次の結果を達成します。
ヒト評価: 89%
livecodebench (1 月から 9 月): 41%
it ホームノート:deepseek ai モデルは、2023 年に設立された企業である hangzhou deepseek artificial intelligence によって開始されました。
公式の紹介文は以下の通り。
世界をリードする汎用人工知能の基礎となるモデルとテクノロジーの研究に焦点を当て、人工知能の最先端の問題に挑戦します。 deepseek チームは、自社開発のトレーニング フレームワーク、自社構築のインテリジェント コンピューティング クラスター、wanka のコンピューティング能力などのリソースに基づいて、わずか半年で数百億のパラメーターを備えた複数の大規模モデルをリリースし、オープンソース化しました。 deepseek-llm 一般言語モデル、deepseek-coder コード大規模モデル、そして 2024 年 1 月に国内初の大規模 moe モデル (deepseek-moe) のオープンソース化を主導し、各主要モデルの汎用化効果は同レベルを超えています。公開された評価リストと実際のサンプルでのモデルの優れたパフォーマンス。