38 статей Alibaba Cloud были приняты ACL, ведущей конференцией, и команда Tongyi раскрыла ряд передовых технологий для крупных моделей.
2024-08-14
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Репортер клиента Chao News Чжан Юньшань
На этой неделе в Таиланде прошла ежегодная конференция ACL 2024, ведущая научная конференция в области компьютерной лингвистики и обработки естественного языка. Всего на конференцию было принято 38 докладов высокого уровня из Alibaba Cloud, в том числе множество крупных модельных проектов. сопутствующие статьи команды Тонги Цяньвэнь, охватывающие важные темы: технология Model SFT, возможности ролевых игр LLM, тесты оценки мультимодальных моделей и т. д. За стендом Тонги на конференции в Бангкоке наблюдали исследователи и разработчики НЛП со всего мира, и Тонги стала самой популярной китайской моделью на сцене.
Ежегодное собрание ACL 2024 пройдет на этой неделе в Таиланде
Ежегодное собрание ACL (Ежегодное собрание Ассоциации компьютерной лингвистики) организовано Международной ассоциацией компьютерной лингвистики и является ведущей академической конференцией № 1 в области компьютерной лингвистики и обработки естественного языка. ACL 2024 — 62-я конференция ассоциации. В этом году особое внимание уделяется теме «продвижения исследований в области воспроизводимой обработки естественного языка посредством открытой науки, открытых данных и открытых моделей».
Alibaba Cloud всегда была одной из технологических компаний с наибольшим количеством статей, включенных в ACL. В этом году в общей сложности было включено 38 статей, включая 16 основных докладов конференции. Будучи представителем силы больших моделей Китая с открытым исходным кодом, команда больших моделей Тонги раскрыла на этой конференции ряд передовых технологий больших моделей и лично пообщалась с исследователями и разработчиками НЛП со всего мира.
«Большие языковые модели представляют собой суперпозиции всех персонажей: достижение произвольной ролевой игры посредством самовыравнивания» впервые предложили стратегию самовыравнивания DITTO для ролевых игр с большими моделями, которая значительно улучшила возможности LLM по ролевой игре. Команда Tongyi открыла исходный код. ТАКЖЕ; «AIR-Bench: сравнение больших моделей аудиоязыка с помощью генеративного понимания» представляет тест оценки модели понимания аудиоязыка AIR-Bench, запущенный командой Tongyi, который используется для оценки способности модели следовать генеративным инструкциям, заполняя пробел в отрасль «Как на способности в больших языковых моделях влияет контролируемая точная настройка композиции данных» демонстрирует посредством серии экспериментов, как данные SFT влияют на математические, кодовые и человеческие возможности выравнивания LLM, что может служить справочной информацией для исследователей и разработчиков; в своей работе SFT.
Зарубежные разработчики обучили большую языковую модель тайского языка и большую языковую модель Юго-Восточной Азии на основе Qwen.
С августа 2023 года Tongyi Qianwen выложила в открытый доступ десятки моделей LLM, мультимодальных моделей и моделей со специальными возможностями, а серию моделей с открытым исходным кодом Qwen была загружена более 20 миллионов раз.
В Юго-Восточной Азии модель с открытым исходным кодом Tongyi Qianwen также имеет много лояльных пользователей. Большие модели для тайского, вьетнамского, юго-восточного азиатского и других языков, основанные на обучении Qwen, часто можно увидеть в сообществе с открытым исходным кодом. Например, сингапурский инженер Лю Ган подготовил популярную большую модель Sailor в Юго-Восточной Азии на основе Qwen1.5, охватывающую полный диапазон размеров, таких как 0,5B, 1,8B, 4B, 7B и 14B, вьетнамский инженер Нгуен Цюань разработал большую вьетнамскую модель; Он сказал: «Согласно нашей внутренней сравнительной оценке, базовая модель Qwen2 превосходит все модели больших языков с закрытым исходным кодом, имеющиеся в настоящее время на рынке».
Прилагается: Список документов Alibaba Cloud, включенных в ACL 2024.
Список документов Alibaba Cloud, включенных в ACL 2024
«При перепечатке просьба указывать источник»