Alibaba Cloud의 38개 논문이 최고 컨퍼런스인 ACL에서 승인되었으며 Tongyi 팀은 다수의 대형 모델 최첨단 기술을 공개했습니다.
2024-08-14
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
차오뉴스 고객 기자 장윤산
컴퓨터 언어학과 자연어 처리 분야 최고의 학술 컨퍼런스인 ACL 2024 연례 컨퍼런스가 이번 주 태국에서 개최되었습니다. 모델 SFT 기술, LLM 롤플레잉 기능, 다중 모드 모델 평가 벤치마크 등을 다루는 Tongyi Qianwen 팀의 관련 논문. 방콕 컨퍼런스의 Tongyi 부스는 전 세계 NLP 연구자 및 개발자들이 지켜보는 가운데 Tongyi는 현장에서 가장 주목받는 중국 모델이 되었습니다.
ACL 2024 연차총회가 이번 주 태국에서 개최됩니다.
전산언어학협회 ACL 연차총회는 국제전산언어학회(International Association for Computational Linguistics)가 주최하며 전산언어학과 자연어처리 분야 최고의 학술회의이다. ACL 2024는 협회의 62번째 컨퍼런스로, 올해 컨퍼런스는 '오픈 사이언스, 오픈 데이터, 오픈 모델을 통한 재현 가능한 자연어 처리 연구 촉진'이라는 주제에 특히 주목하고 있습니다.
Alibaba Cloud는 항상 ACL에 가장 많은 논문이 포함된 기술 회사 중 하나였습니다. 올해에는 16개의 주요 컨퍼런스 논문을 포함하여 총 38개의 기사가 포함되었습니다. 중국 대형 모델의 '오픈 소스' 파워를 대표하는 Tongyi의 대형 모델 팀은 이번 컨퍼런스에서 다수의 최첨단 대형 모델 기술을 공개하고 전 세계 NLP 연구원 및 개발자와 직접 소통했습니다.
"대형 언어 모델은 모든 문자의 중첩입니다: 자체 정렬을 통한 임의의 역할극 획득"은 LLM의 역할극 기능을 크게 향상시킨 대규모 모델 역할극을 위한 자체 정렬 전략 DITTO를 처음으로 제안했습니다. Tongyi 팀은 오픈 소스를 보유하고 있습니다. DITTO ; "AIR-Bench: 생성적 이해를 통한 대규모 오디오 언어 모델 벤치마킹"은 Tongyi 팀이 출시한 오디오 언어 이해 모델 평가 벤치마크 AIR-Bench를 소개합니다. 업계; ""대규모 언어 모델의 능력이 감독된 미세 조정 데이터 구성에 의해 어떻게 영향을 받는가"는 일련의 실험을 통해 SFT 데이터가 LLM의 수학적, 코드 및 인간 정렬 기능에 어떻게 영향을 미치는지 보여 주며, 이는 연구원과 개발자에게 참조 자료를 제공할 수 있습니다. SFT 작업에서.
해외 개발자들은 Qwen을 기반으로 대규모 태국어 언어 모델과 대규모 동남아시아 언어 모델을 훈련했습니다.
2023년 8월부터 Tongyi Qianwen은 수십 개의 LLM, 다중 모드 및 특수 기능 모델을 오픈소스화했으며 Qwen 시리즈 오픈소스 모델은 2천만 번 이상 다운로드되었습니다.
동남아시아에서도 Tongyi Qianwen 오픈 소스 모델에는 충성도 높은 사용자가 많습니다. Qwen 교육을 기반으로 하는 태국어, 베트남어, 동남아시아 및 기타 언어에 대한 대규모 모델은 오픈 소스 커뮤니티에서 자주 볼 수 있습니다. 예를 들어, 싱가포르 엔지니어 Liu Gan은 Qwen1.5를 기반으로 0.5B, 1.8B, 4B, 7B 및 14B와 같은 모든 크기를 포괄하는 인기 있는 동남아시아 대형 모델 Sailor를 교육했습니다. 베트남 엔지니어 Nguyen Quan은 대형 베트남어를 개발했습니다. 그는 "내부 벤치마크 평가에 따르면 Qwen2 기본 모델은 현재 시장에 나와 있는 모든 폐쇄 소스 대형 언어 모델을 능가합니다."라고 말했습니다.
첨부: ACL 2024에 포함된 Alibaba Cloud 논문 목록
ACL 2024에 포함된 Alibaba Cloud 논문 목록
"재인쇄시 출처를 밝혀주세요"