notícias

Os 38 artigos do Alibaba Cloud foram aceitos pela ACL, a principal conferência, e a equipe Tongyi divulgou uma série de grandes modelos de tecnologias de ponta

2024-08-14

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Repórter cliente do Chao News, Zhang Yunshan
A Conferência Anual ACL 2024, a principal conferência acadêmica na área de linguística computacional e processamento de linguagem natural, foi realizada na Tailândia esta semana. Um total de 38 artigos de alto nível do Alibaba Cloud foram aceitos pela conferência, incluindo muitos modelos grandes. artigos relacionados da equipe Tongyi Qianwen, cobrindo grandes tópicos de tecnologia Model SFT, capacidades de role-playing LLM, benchmarks de avaliação de modelo multimodal, etc. O estande da Tongyi na conferência de Bangkok foi assistido por pesquisadores e desenvolvedores de PNL de todo o mundo, e Tongyi se tornou o modelo chinês mais assistido no local.
A Reunião Anual ACL 2024 é realizada na Tailândia esta semana
A Reunião Anual da ACL da Association for Computational Linguistics é organizada pela International Association for Computational Linguistics e é a conferência acadêmica número 1 na área de linguística computacional e processamento de linguagem natural. ACL 2024 é a 62ª conferência da associação. A conferência deste ano presta atenção especial ao tema de "promover pesquisas reprodutíveis em processamento de linguagem natural por meio de ciência aberta, dados abertos e modelos abertos".
Alibaba Cloud sempre foi uma das empresas de tecnologia com maior número de artigos incluídos no ACL. Este ano, um total de 38 artigos foram incluídos, incluindo 16 artigos de conferências principais. Como representante do poder de "código aberto" dos grandes modelos da China, a grande equipe de modelos de Tongyi divulgou uma série de tecnologias de ponta para grandes modelos nesta conferência e se comunicou pessoalmente com pesquisadores e desenvolvedores de PNL de todo o mundo.
"Grandes modelos de linguagem são superposições de todos os personagens: alcançando a dramatização arbitrária por meio do autoalinhamento" propôs pela primeira vez a estratégia de autoalinhamento DITTO para a dramatização de modelos grandes, o que melhorou significativamente as capacidades de role-playing do LLM. DITTO; "AIR-Bench: Benchmarking Large Audio-Language Models via Generative Comprehension" apresenta o benchmark de avaliação de modelo de compreensão de linguagem de áudio AIR-Bench lançado pela equipe Tongyi, que é usado para avaliar a capacidade generativa de seguimento de instruções do modelo, preenchendo uma lacuna no a indústria; ""Como as habilidades em modelos de linguagem grande são afetadas pela composição de dados de ajuste fino supervisionada" demonstra por meio de uma série de experimentos como os dados SFT afetam as capacidades matemáticas, de código e de alinhamento humano do LLM, o que pode fornecer uma referência para pesquisadores e desenvolvedores no seu trabalho SFT.
Desenvolvedores estrangeiros treinaram um grande modelo de idioma tailandês e um grande modelo de idioma do sudeste asiático baseado em Qwen
Desde agosto de 2023, Tongyi Qianwen abriu o código-fonte de dezenas de LLM, modelos multimodais e de capacidade especial, e a série Qwen de modelos de código aberto foi baixada mais de 20 milhões de vezes.
No Sudeste Asiático, o modelo de código aberto Tongyi Qianwen também tem muitos usuários fiéis. Grandes modelos para tailandês, vietnamita, sudeste asiático e outros idiomas baseados no treinamento Qwen podem frequentemente ser vistos na comunidade de código aberto. Por exemplo, o engenheiro de Singapura Liu Gan treinou o popular modelo grande do Sudeste Asiático Sailor baseado em Qwen1.5, cobrindo uma gama completa de tamanhos como 0,5B, 1,8B, 4B, 7B e 14B. O engenheiro vietnamita Nguyen Quan desenvolveu um grande vietnamita; modelo. Ele disse: "De acordo com nossa avaliação interna de benchmark, o modelo básico Qwen2 supera todos os modelos de linguagem grande de código fechado atualmente no mercado."
Em anexo: Lista de documentos do Alibaba Cloud incluídos no ACL 2024
Lista de papéis do Alibaba Cloud incluídos no ACL 2024
"Por favor, indique a fonte ao reimprimir"
Relatório/Comentários