berita

38 makalah Alibaba Cloud diterima oleh ACL, konferensi teratas, dan tim Tongyi mengungkapkan sejumlah model besar teknologi mutakhir

2024-08-14

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Reporter klien Chao News, Zhang Yunshan
Konferensi Tahunan ACL 2024, konferensi akademis terkemuka di bidang linguistik komputasi dan pemrosesan bahasa alami, diadakan di Thailand pada minggu ini. Sebanyak 38 makalah tingkat tinggi dari Alibaba Cloud diterima dalam konferensi tersebut, termasuk banyak makalah model besar. makalah terkait dari tim Tongyi Qianwen, yang mencakup topik besar. Teknologi Model SFT, kemampuan bermain peran LLM, tolok ukur evaluasi model multi-modal, dll. Stan Tongyi di konferensi Bangkok disaksikan oleh para peneliti dan pengembang NLP dari seluruh dunia, dan Tongyi menjadi model Tiongkok yang paling banyak ditonton di tempat tersebut.
Pertemuan Tahunan ACL 2024 diadakan di Thailand minggu ini
Pertemuan Tahunan ACL Asosiasi Linguistik Komputasi diselenggarakan oleh Asosiasi Internasional untuk Linguistik Komputasi dan merupakan konferensi akademik terkemuka No. 1 di bidang linguistik komputasi dan pemrosesan bahasa alami. ACL 2024 adalah konferensi asosiasi yang ke-62. Konferensi tahun ini memberikan perhatian khusus pada topik "mempromosikan penelitian pemrosesan bahasa alami yang dapat direproduksi melalui sains terbuka, data terbuka, dan model terbuka."
Alibaba Cloud selalu menjadi salah satu perusahaan teknologi dengan jumlah makalah terbanyak yang dimasukkan dalam ACL. Tahun ini, total 38 artikel telah dimasukkan, termasuk 16 makalah konferensi utama. Sebagai perwakilan dari kekuatan "sumber terbuka" model-model besar Tiongkok, tim model besar Tongyi mengungkapkan sejumlah teknologi model besar yang mutakhir pada konferensi ini dan berkomunikasi secara tatap muka dengan para peneliti dan pengembang NLP dari seluruh dunia.
"Model Bahasa Besar adalah Superposisi Semua Karakter: Mencapai Permainan Peran Sewenang-wenang melalui Penyelarasan Diri" pertama kali mengusulkan strategi penyelarasan diri DITTO untuk permainan peran model besar, yang secara signifikan meningkatkan kemampuan bermain peran LLM memiliki sumber terbuka DITTO ; "AIR-Bench: Membandingkan Model Bahasa Audio Besar melalui Pemahaman Generatif" memperkenalkan tolok ukur evaluasi model pemahaman bahasa audio AIR-Bench yang diluncurkan oleh tim Tongyi, yang digunakan untuk mengevaluasi kemampuan mengikuti instruksi generatif model, mengisi kesenjangan dalam industri; " "Bagaimana Kemampuan dalam Model Bahasa Besar Dipengaruhi oleh Penyempurnaan Komposisi Data yang Diawasi" menunjukkan melalui serangkaian eksperimen bagaimana data SFT memengaruhi kemampuan matematika, kode, dan penyelarasan manusia LLM, yang dapat memberikan referensi bagi peneliti dan pengembang. dalam pekerjaan SFT mereka.
Pengembang luar negeri melatih model bahasa Thailand yang besar dan model bahasa Asia Tenggara yang besar berdasarkan Qwen
Sejak Agustus 2023, Tongyi Qianwen telah menjadi sumber terbuka lusinan model LLM, multi-modal, dan kemampuan khusus, dan model sumber terbuka seri Qwen telah diunduh lebih dari 20 juta kali.
Di Asia Tenggara, model open source Tongyi Qianwen juga memiliki banyak pengguna setia. Model besar untuk bahasa Thailand, Vietnam, Asia Tenggara, dan bahasa lain berdasarkan pelatihan Qwen sering terlihat di komunitas open source. Misalnya, insinyur Singapura Liu Gan melatih model Sailor besar yang populer di Asia Tenggara berdasarkan Qwen1.5, yang mencakup berbagai ukuran seperti 0.5B, 1.8B, 4B, 7B, dan 14B; model. Dia berkata: "Menurut evaluasi benchmark internal kami, model dasar Qwen2 melampaui semua model bahasa besar sumber tertutup yang saat ini ada di pasaran."
Terlampir: Daftar makalah Alibaba Cloud yang disertakan dalam ACL 2024
Daftar makalah Alibaba Cloud yang disertakan dalam ACL 2024
"Harap sebutkan sumbernya saat mencetak ulang"
Laporan/Umpan Balik