ニュース

アリババ同義前文の技術的支柱、周昌氏が辞任するが、最後の日はまだ来ていない

2024-07-18

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

マシンハートレポート

マシーンハート編集部

今日、Alibaba Tongyi Qianwen の技術的バックボーンである Zhou Chang (ニックネーム: Zhong Huang) が起業するために辞任したという市場ニュースがあります。 Machine Heart ニュースによると、Zhou Chang 氏は確かに辞任する予定ですが、辞任の最終日はまだ到来していません。

周昌は同義前文の大きなモデルの重要な人物です。 2020 年から 2021 年にかけて、彼はチームを率いて超大規模マルチモーダル事前トレーニング モデル M6 の設計と実装を行い、パラメーター数と低炭素トレーニング モードで画期的な進歩を遂げました。今年、Tongyi Qianwen のオープンソース モデル Owen1.5-72B は、HuggingFace モデルのパフォーマンス リスト (ChatArena) に初めて掲載されたオープンソース モデルとなり、オープンソース コミュニティで一般的に使用されているモデル シリーズの 1 つでもあります。

Zhou Chang 氏は、DAMO アカデミー在籍中に、超大規模製品グラフ表現アルゴリズム APP、ユーザー表現フレームワーク ATRank、自己ベースのベクトル再現アルゴリズム CLRec シリーズの開発など、複数のプロジェクトで重要な役割を果たしました。 -教師あり対照学習。

Zhou Chang 氏は、2012 年に復丹大学でコンピュータ科学技術の学士号を取得し、2017 年に北京大学でコンピュータ ソフトウェアと理論の博士号を取得して学校の採用活動を通じてアリババに入社し、アリババで 8 年以上働いています。 。

ディープラーニング、グラフマイニング、分散コンピューティングを専門とし、機械学習、データマイニング、データベースの分野の主要な国際会議で 30 以上の論文を発表しており、NeurIPS/ICML/KDD などの学術会議で査読者を務めています。 /WWW。 Zhou Chang氏のチームの研究成果は、中国電子協会や杭州の革新・起業家精神をリードするチームから科学技術進歩賞一等賞などの賞や栄誉を獲得している。

Workplace Bonus によると、アリババ内部関係者の周昌氏の評価は「彼は、単一の分野やシナリオに特化したものではなく、より汎用性のある大規模なモデルを作りたがっている」というものだ。

現時点では周昌本人は次の計画に応じていない。



同義前文について

Tongyi Qianwen は、Alibaba Tongyi Laboratory が独自に開発した非常に大規模な言語モデルです。Tongyi Laboratory は、アリババ グループの各事業部門の一般的な自然言語処理技術の研究と開発に特化しています。インテリジェントな言語処理サービスを提供します。アリババ同義研究所の現在の所長は周静仁氏だ。

2023 年 4 月 7 日、Tongyi Qianwen は招待テストを開始しました。

2023 年 4 月 11 日、すべてのアリババ製品が同義前文大規模モデルに接続され、将来的には包括的な変革が行われます。

2023 年 8 月に、Tongyi Qianwen は qwen-7b モデルをオープンソース化しました。

2023 年 9 月に、Tongyi Qianwen が正式に公開され、同月 25 日、Alibaba Cloud は、オープンソースの Tongyi Qianwen 140 億パラメータ モデル Qwen-14B とその会話モデル Qwen-14B-Chat が無料で商用利用できると発表しました。使用。

2023 年 10 月 31 日、Tongyi Qianwen 2.0 が正式にアップグレードおよびリリースされ、それに応じて Tongyi Qianwen アプリもリリースされました。

2023 年 12 月 1 日、Alibaba Cloud は、Tongyi Qianwen 720 億パラメータ モデル Qwen-72B、18 億パラメータ モデル Qwen-1.8B、および大型オーディオ モデル Qwen-Audio をオープンソース化しました。これまでのところ、Tongyi Qianwen は「フルサイズ、フルモダリティ」のオープンソースを達成しており、18 億、70 億、140 億、720 億のパラメーターを持つ合計 4 つの大規模な言語モデルがオープンソースであり、さらに 2 つのマルチ言語モデルがオープンソースになっています。モーダル モード: 視覚的理解と音声的理解。

2024年1月4日、同義前文アプリは「同義舞踊王」機能を開始しました。

2024 年 1 月 26 日、Tongyi Qianwen 視覚理解モデル Qwen-VL が Max バージョンを開始しました。

2024 年 3 月 22 日には、1,000 万語の長文文書処理機能が誰でも無料で公開されます。

2024 年 3 月 29 日、最初の MoE モデル Qwen1.5-MoE-A2.7B がオープンソース化されました。

2024 年 4 月 3 日、Tongyi Lingma は Tongyi Qianwen APP で正式に公開され、無料で公開されました。

2024 年 4 月 7 日、320 億パラメータ モデル Qwen1.5-32B がオープンソース化されました。

2024年4月28日、1,000億レベルのパラメータモデルQwen1.5-110Bが発売されました。

2024 年 5 月 9 日、Tongyi Qianwen 2.5 大型モデルがリリースされ、Tongyi に名前が変更されました。

2024 年 5 月の時点で、Tongyi Qianwen は、プログラミング、読み取り、オーディオおよびビデオ処理、キャラクター作成、金融、顧客サービス、健康、法律およびその他の分野を含む 8 つの主要なインダストリ モデルを提供しており、コードの作成、コードの読み取り、バグのチェック、コードの最適化、長いテキスト フィードと概要の取得、オーディオおよびビデオ コンテンツの処理、パーソナライズされたキャラクターの作成、財務レポートの解釈、金融業界のイベントやその他のシナリオの分析を行います。