Alibaba Cloud の 38 件の論文がトップカンファレンスである ACL に採択され、Tongyi チームは多数の大型モデルの最先端技術を公開しました
2024-08-14
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Chao Newsクライアント記者の張雲山
計算言語学と自然言語処理の分野で最高の学術会議である ACL 2024 年次会議が今週タイで開催され、多くの大規模なモデルを含む Alibaba Cloud からのハイレベルな論文 38 件が会議に採択されました。 Tongyi Qianwen チームによる関連論文。モデル SFT テクノロジー、LLM ロールプレイング機能、マルチモーダル モデル評価ベンチマークなどの大きなトピックをカバーしています。バンコクカンファレンスのTongyiブースには世界中のNLP研究者や開発者が注目し、Tongyiは現場で最も注目されている中国人モデルとなった。
今週、ACL 2024年次総会がタイで開催される
計算言語学協会の ACL 年次総会は、国際計算言語学協会が主催し、計算言語学と自然言語処理の分野でトップクラスの学術会議です。 ACL 2024 は同協会の第 62 回会議であり、今年の会議では「オープン サイエンス、オープン データ、オープン モデルを通じた再現可能な自然言語処理研究の促進」というテーマに特に焦点が当てられています。
Alibaba Cloud は常に ACL に最も多くの論文が掲載されているテクノロジー企業の 1 つであり、今年は 16 の主要な会議論文を含む合計 38 の論文が掲載されました。中国の大型モデルの「オープンソース」パワーの代表として、Tongyi の大型モデル チームはこのカンファレンスで多数の最先端の大型モデル テクノロジーを公開し、世界中の NLP 研究者や開発者と直接コミュニケーションをとりました。
「Large Language Models are Superpositions of All Characters: Attaining Arbitrary Roll-play via Self-Alignment」では、大規模モデルのロールプレイングのための自己調整戦略 DITTO が初めて提案され、LLM のロールプレイング機能が大幅に向上しました。Tongyi チームはこれをオープンソース化しました。同上; 「AIR-Bench: Benchmarking Large Audio-Language Models via Generative Comprehension」では、Tongyi チームが立ち上げた音声言語理解モデルの評価ベンチマーク AIR-Bench を紹介しており、モデルの生成命令追従能力を評価するために使用されます。業界; 「大規模言語モデルの能力が教師付き微調整データ構成によってどのように影響されるか」では、一連の実験を通じて SFT データが LLM の数学的、コード的、人間的調整能力にどのような影響を与えるかを実証しており、研究者や開発者に参考となります。 SFT の仕事で。
海外の開発者が Qwen に基づいて大規模なタイ語モデルと大規模な東南アジア言語モデルをトレーニングしました
2023 年 8 月以来、Tongyi Qianwen は数十の LLM、マルチモーダル、特殊機能モデルをオープンソース化しており、Qwen シリーズのオープンソース モデルは 2,000 万回以上ダウンロードされています。
東南アジアでは、Tongyi Qianwen オープンソース モデルにも多くの忠実なユーザーがおり、Qwen トレーニングに基づいたタイ語、ベトナム語、東南アジアなどの言語向けの大規模なモデルがオープンソース コミュニティでよく見られます。たとえば、シンガポールのエンジニア、Liu Gan は、Qwen1.5 に基づいて東南アジアで人気の大型モデル Sailor をトレーニングし、0.5B、1.8B、4B、7B、14B などの全範囲のサイズをカバーしました。ベトナムのエンジニア、Nguyen Quan は大型のベトナム製モデルを開発しました。同氏は、「社内のベンチマーク評価によると、Qwen2 の基本モデルは、現在市場に出ているすべてのクローズド ソースの大規模言語モデルを上回っています。」と述べています。
添付: ACL 2024 に含まれる Alibaba Cloud 文書のリスト
ACL 2024 に含まれる Alibaba Cloud 論文のリスト
「転載の際は出典を明記してください」