2024-09-29
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
最近、中国電信人工知能研究所(teleai)は、国産のwankaクラスタートレーニング(wanka wancanと呼ばれる)に基づいて中国初の1兆パラメータの大規模モデルを完成させ、国内初のモデルを正式にオープンソース化した。 telechat2-115b は、huawanka クラスターと国産のディープラーニング フレームワークによって学習された数千億のパラメーターを備えた大規模なモデルであり、star semantics の大規模なモデルです。
これは、中国電信グループの最高技術責任者、中国電信人工知能研究所の所長である李雪龍教授が主導したもう一つの画期的な重要な科学研究成果であり、国内の大規模モデル訓練が真に国有化の代替を実現したことを示している。国内生産のための独自の革新性、安全性、制御性の新たな段階が正式に市場に参入しました。
telechat2-115bは、チャイナテレコムが自社開発したtianyi cloud「統合インテリジェントコンピューティングサービスプラットフォーム」と人工知能企業の「xinghai aiプラットフォーム」に基づいてトレーニングされており、トレーニングを確保しながらモデルトレーニングの効率と精度を向上させるためにさまざまな最適化手法を使用しています。精度、安定性、同じ計算能力で gpu の計算効率の 93% 以上を達成し、モデルの有効トレーニング時間は 98% 以上を占めます。
telechat2-115b のオープンソースは、大規模モデルのローカライゼーションのための新たな旅の始まりです。 teleai は、大規模モデルをレイアウトし、オープンソース化した最初の国有企業として、オープンソースを通じて大規模モデル技術の継続的な進歩を積極的に推進し、技術革新から産業実装への迅速な移行を促進し、リードし続けています。
今年 5 月の opencampass テスト リストでは、telechat シリーズ モデルの論理的推論機能がオープンソースの大規模モデルのリストで 1 位にランクされました。 telechat2-115bは新世代版として、9月に発表された最新のc-eval評価オープンアクセスモデル総合リストにおいて86.9点のスコアで1位となった。その一般的な機能は、特にツールの使用、論理的推論、数学的計算、コード生成、および長文の書き込みの点で、telechat シリーズ モデルよりも 30% 近く優れています。
teleai が独自に開発した大規模なセマンティック モデルは、多くの権威あるコンテストで 1 位を獲得したことがわかります。その中で、ccl2024会議における中国の空間意味理解評価と古代中国の歴史的事象タイプ抽出評価で1位を獲得しました。さらに、nlpcc2024 中国論証ペーパーマイニング (shared task5) チャレンジでも優勝しました。
(情報)