новости

Награды ACL 2024: одна из лучших статей по расшифровке Oracle на HuaTech, награда GloVe Time Test Award

2024-08-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Отчет о сердце машины

Редакция «Машинное сердце»

Участники получили много пользы от этой конференции ACL.

Шестидневный турнир ACL 2024 пройдет в Бангкоке, Таиланд.



ACL — ведущая международная конференция в области компьютерной лингвистики и обработки естественного языка. Она организуется Международной ассоциацией компьютерной лингвистики и проводится ежегодно. ACL всегда занимала первое место по академическому влиянию в области НЛП, а также является конференцией, рекомендованной CCF-A.

Конференция ACL в этом году является 62-й и собрала более 400 передовых работ в области НЛП. Вчера днем ​​на конференции были объявлены лучшие доклады и другие награды. На этот раз были вручены 7 наград за лучшую работу (две неопубликованные), 1 награда за лучшую тематическую статью и 35 наград за выдающуюся работу.

Конференция также присудила 3 ​​награды за ресурсы, 3 награды за социальное влияние и 2 награды за испытание временем.

Кроме того, Премию за выдающиеся достижения на этой конференции получил Ральф Гришман, профессор кафедры компьютерных наук Нью-Йоркского университета.

Ниже приводится конкретная информация о награде.

лучшая статья



Документ 1: Миссия: невыполнимые языковые модели

  • В ролях: Джули Каллини, Изабель Пападимитриу, Ричард Фьютрелл, Кайл Маховальд, Кристофер Поттс
  • Учреждение: Стэнфордский университет, Калифорнийский университет в Ирвине, Техасский университет в Остине.
  • Ссылка на статью: https://arxiv.org/abs/2401.06416.

Введение в статью: Хомский и другие считают, что способность к обучению больших языковых моделей (LLM) одинакова для языков, которые могут или не могут быть изучены людьми. Однако опубликованных экспериментальных данных, подтверждающих это утверждение, мало.

В ходе исследования был разработан набор синтетических языков различной сложности, каждый из которых создан путем систематического изменения английских данных с использованием неестественного порядка слов и грамматических правил с целью синтеза языков, которые было бы невозможно выучить людям.

В ходе исследования были проведены обширные оценочные эксперименты, чтобы оценить способность небольшой модели GPT-2 изучать эти «невозможные языки», и эти оценки проводились на разных этапах обучения, чтобы сравнить процесс обучения для каждого языка. Основной вывод исследования заключается в том, что GPT-2 труднее изучать «невозможные языки» по сравнению с английским, что бросает вызов утверждениям Хомского и других.

Что еще более важно, исследование надеется, что его подход откроет плодотворное направление исследований, позволяя протестировать различные архитектуры LLM на множестве «невозможных языков», чтобы понять, как LLM можно использовать в качестве инструмента когнитивного и типологического исследования.



Документ 2: Почему чувствительные функции сложны для трансформаторов?

  • Автор: Майкл Хан, Марк Рофин
  • Учреждение: Саарский университет
  • Ссылка на статью: https://arxiv.org/abs/2402.09963.

Аннотация: Экспериментальные исследования выявили ряд отклонений в обучаемости и ограничений преобразователей, таких как постоянные трудности в обучении вычислениям на простых формальных языках, таких как PARITY, и предвзятость к функциям низкой степени. Однако теоретическое понимание остается ограниченным, а существующие теории репрезентации либо переоценивают, либо недооценивают реалистичные возможности обучения.

Это исследование показывает, что в архитектуре трансформатора ландшафт потерь ограничен чувствительностью входного пространства: трансформаторы, выходы которых чувствительны ко многим частям входной цепочки, расположены в изолированных точках пространства параметров, что приводит к низкому смещению чувствительности в обобщение.

Это исследование теоретически и экспериментально показывает, что теория объединяет обширные экспериментальные наблюдения о способностях и предубеждениях трансформаторов к обучению, таких как их смещение обобщения в сторону низкой чувствительности и степени, а также сложность обобщения длины четности. Это говорит о том, что понимание индуктивных смещений трансформатора требует изучения не только его принципиальной выразительности, но и ландшафта функции потерь.



Документ 3: Расшифровка языка Oracle Bone с помощью диффузионных моделей

  • Авторы: Хайсу Гуань, Хуаньсинь Ян, Синьюй Ван, Шэнвэй Хань и др.
  • Учреждения: Хуачжунский университет науки и технологий, Университет Аделаиды, Аньянский педагогический университет, Южно-Китайский технологический университет.
  • Ссылка на документ: https://arxiv.org/pdf/2406.00684.

Введение в статью: Oracle Bone Script (OBS) возник во времена династии Шан в Китае около 3000 лет назад. Он является краеугольным камнем истории языка и предшествует многим устоявшимся системам письменности. Хотя были обнаружены тысячи надписей, большое количество костей оракулов остаются нерасшифрованными, окутывая этот древний язык пеленой тайны. Появление современной технологии искусственного интеллекта открыло новые области для расшифровки Oracle, поставив перед традиционными методами НЛП проблемы, которые в значительной степени полагаются на большие текстовые массивы.

В этом документе представлен новый метод с использованием технологии генерации изображений для разработки диффузионной модели, оптимизированной для дешифрования Oracle, — Oracle Bone Script Decipher (OBSD). Используя стратегию условного распространения, OBSD предоставил важные подсказки для расшифровки Oracle и открыл новое направление для анализа древних языков с помощью ИИ. Чтобы проверить эффективность, исследователи провели обширные эксперименты с набором данных Oracle, и количественные результаты доказали эффективность OBSD.



Документ 4: Причинная оценка профилей запоминания

  • В ролях: Пьетро Лесчи, Клара Мейстер, Томас Хофманн, Андреас Влахос, Тьяго Пиментель
  • Учебное заведение: Кембриджский университет, ETH Zurich
  • Ссылка на документ: https://arxiv.org/pdf/2406.04327.

Введение в статью: Понимание памяти в языковых моделях имеет практическое и социальное значение, например, изучение динамики обучения моделей или предотвращение нарушения авторских прав. Предыдущие исследования определяют память как причинно-следственную связь между «обучением с использованием экземпляра» и «способностью модели предсказывать этот экземпляр». Это определение основано на контрфактическом предположении: способности наблюдать, что произошло бы, если бы модель не увидела данный экземпляр. Существующие методы с трудом обеспечивают вычислительно эффективные и точные оценки таких контрфактических явлений. Более того, эти методы обычно оценивают память архитектуры модели, а не память конкретных экземпляров модели.

Эта статья заполняет важный пробел, предлагая новый, принципиальный и эффективный подход к оценке памяти, основанный на эконометрическом модели «разница в разнице». С помощью этого метода исследователи наблюдают за поведением модели только в небольшом количестве случаев в течение всего процесса обучения, чтобы описать профиль памяти модели, то есть тенденцию ее памяти во время процесса обучения. В экспериментах с использованием набора моделей Pythia они обнаружили, что память (i) сильнее и устойчивее в более крупных моделях, (ii) определяется порядком данных и скоростью обучения и (iii) стабильна при разных размерах моделей, поэтому. воспоминания в большей модели можно предсказать на основе меньшей модели.



Документ 5: Модель Aya: точно настроенная многоязычная языковая модель открытого доступа с инструкциями

  • Автор: Ахмет Устюн, Вираат Арьябуми, Чжэн Синь Юн, Вэй-Инь Ко и др.
  • Учреждения: Когер, Университет Брауна и т. д.
  • Ссылка на документ: https://arxiv.org/pdf/2402.07827.

Введение в статью: Недавние достижения в области больших языковых моделей (LLM) были сосредоточены на небольшом количестве языков, богатых данными. Как можно расширить возможности для прорывов за пределы других языков? Исследование представляет Aya, крупномасштабную многоязычную модель генеративного языка, которая следует инструкциям для 101 языка, более 50% из которых считаются малоресурсными. Aya превосходит mT0 и BLOOMZ в большинстве задач, охватывая при этом вдвое больше языков.

Кроме того, исследование представляет обширный набор новых тестов, расширяя возможности многоязычного оценивания до 99 языков. Наконец, исследование обеспечивает детальное изучение оптимального точно настроенного состава смеси, обрезки данных, а также токсичности, систематической ошибки и безопасности модели.



Документ 6: Полуконтролируемая нейронная реконструкция протоязыка

  • Автор: Лян Лу, Пейронг Се, Дэвид Р. Мортенсен
  • Учреждение: CMU, Университет Южной Калифорнии.
  • Ссылка на документ: https://arxiv.org/pdf/2406.05930.

Причина награждения: Это новаторское исследование направлено на полуавтоматизацию задачи реконструкции прототипного языка в исторической лингвистике, предлагая новую полуконтролируемую архитектуру. Этот метод превосходит предыдущие контролируемые методы за счет введения процесса отражения «прототип-родной язык» в реконструкцию «родной язык-прототип». Эта статья является хорошим примером того, как современные вычислительные модели, такие как нейронные кодеры и декодеры, могут внести вклад в лингвистику.



Документ 7: Выполнимость естественного языка: исследование распределения проблем и оценка языковых моделей на основе преобразователей (неопубликовано)

  • В ролях: Таринду Мадусанка, Ян Пратт-Хартманн, Риза Батиста-Наварро.

Причина награждения: В данной статье четко описан синтетический набор данных для оценки логического вывода. Это хорошее дополнение к большим наборам данных для вывода, когда неясно, какие способности измеряются. Теоретически действительно есть основания ожидать, что некоторые подмножества будут сложнее других, и эти ожидания подтверждаются в статье. В рамках каждой категории авторы уделяют особое внимание выборке действительно сложных случаев.

Награда «Проверено временем»

Премия ACL Time Test Award присуждается почетным работам, оказавшим долгосрочное влияние на области обработки естественного языка и компьютерной лингвистики. Она делится на две награды: 10 лет назад (2014 г.) и 25 лет назад (максимум 1999 г.). двух работ присуждаются каждый год.



Документ 1: GloVe: глобальные векторы для представления слов

  • Автор: Джеффри Пеннингтон, Ричард Сочер, Кристофер Д. Мэннинг
  • Учреждение: Стэнфордский университет
  • Ссылка на статью: https://aclanthology.org/D14-1162.pdf.

Введение. Методы изучения представлений слов в векторном пространстве успешно улавливают детальные семантические и синтаксические правила с использованием векторной арифметики, но синтаксические правила остаются непрозрачными. В этом исследовании анализируются и уточняются, какие свойства должна иметь модель, чтобы синтаксические правила появлялись в векторах слов.

В этом исследовании предлагается новая глобальная модель логарифмической линейной регрессии — GloVe, предназначенная для изучения векторных представлений слов. Эта модель сочетает в себе преимущества глобальной матричной факторизации и методов локального контекстного окна.

GloVe достигла наилучшего результата (75%) в задаче по аналогии слов и превзошла аналогичные модели по задаче сходства слов и распознаванию названных объектов.

Причина награды: встраивание слов было краеугольным камнем методов глубокого обучения обработке естественного языка (НЛП) с 2013 по 2018 год и продолжает оказывать значительное влияние. Они не только повышают производительность задач НЛП, но также оказывают существенное влияние на вычислительную семантику, такую ​​как сходство и аналогия слов. Двумя наиболее влиятельными методами встраивания слов, вероятно, являются Skip-gram/CBOW и GloVe. По сравнению со скип-граммом, GloVe был предложен позже. Его относительное преимущество заключается в его концептуальной простоте, оптимизации сходства векторного пространства непосредственно на основе характеристик распределения между словами, а не косвенно как набора параметров с точки зрения упрощенного моделирования языка.





Документ 2: Меры сходства распределения

  • Автор: Лилиан Ли
  • Учреждение: Корнельский университет
  • Ссылка на статью: https://aclanthology.org/P99-1004.pdf.

Введение в статью: Автор изучает меры сходства распределения с целью улучшения оценок вероятности невидимых одновременно происходящих событий. Их вклад тройной: эмпирическое сравнение широкого спектра показателей; классификация функций сходства на основе содержащейся в них информации и введение новой функции, которая лучше всего подходит для оценки распределения основных агентов;



Премия за заслуги перед жизнью

Награда ACL за заслуги перед жанром была вручена Ральфу Гришману. Ральф Гришман — профессор кафедры компьютерных наук Нью-Йоркского университета, специализирующийся на исследованиях в области обработки естественного языка (НЛП). Он является основателем проекта Proteus, который внес значительный вклад в извлечение информации (IE) и способствовал развитию этой области.



Он также разработал Java Extraction Toolkit (JET), широко используемый инструмент извлечения информации, который предоставляет несколько компонентов языкового анализа, такие как сегментация предложений, аннотация именованных сущностей, аннотация и нормализация темпоральных выражений, тегирование частей речи, синтаксический анализ частей и совместный анализ. Относится к анализу. Эти компоненты можно объединять в конвейеры в соответствии с различными приложениями, которые можно использовать для интерактивного анализа отдельных предложений или пакетного анализа целых документов. Кроме того, JET предоставляет простые инструменты для аннотирования и отображения документов и включает в себя полный процесс извлечения сущностей, связей и событий в соответствии со спецификацией ACE (автоматическое извлечение контента).

Работа профессора Гришмана охватывает множество основных проблем НЛП и оказала глубокое влияние на современные технологии обработки речи.

35 выдающихся статей

  • Документ 1: Квантованная боковая настройка: быстрая и эффективная по памяти настройка квантованных моделей большого языка
  • В ролях: Чжэнсинь Чжан, Дань Чжао, Сюпэн Мяо, Габриэле Олиаро, Чжихао Чжан, Цин Ли, Юн Цзян, Чжихао Цзя
  • Учреждения: КМУ, Университет Цинхуа, лаборатория Пэнчэн и т. д.
  • Ссылка на документ: https://arxiv.org/pdf/2401.07159.
  • Документ 2: L-Eval: введение стандартизированной оценки для языковых моделей с длинным контекстом
  • В ролях: Чэньсинь Ань, Шаньсан Гун, Мин Чжун, Синцзянь Чжао, Мукай Ли, Цзюнь Чжан, Линпэн Конг, Сипэн Цю
  • Учреждения: Университет Фудань, Университет Гонконга, Университет Иллинойса в Урбана-Шампейн, Шанхайская лаборатория искусственного интеллекта.
  • Ссылка на документ: https://arxiv.org/abs/2307.11088.
  • Документ 3: Активное обучение с причинно-следственной связью для устранения искажений больших языковых моделей
  • Ссылка на статью: https://openreview.net/forum?id=idp_1Q6F-lC.
  • Документ 4: CausalGym: Сравнительный анализ методов причинной интерпретации при решении лингвистических задач
  • Автор: Арьяман Арора, Дэн Джурафски, Кристофер Поттс
  • Учреждение: Стэнфордский университет
  • Ссылка на статью: https://arxiv.org/abs/2402.12560.
  • Документ 5: Не галлюцинируйте, воздержитесь: выявление пробелов в знаниях LLM посредством сотрудничества нескольких LLM
  • В ролях: Шанбинь Фэн, Вейцзя Ши, Ике Ван, Вэньсюань Дин, Видхиша Балачандран, Юлия Цветков
  • Учреждения: Вашингтонский университет, Калифорнийский университет в Беркли, Гонконгский университет науки и технологий, CMU.
  • Ссылка на статью: https://arxiv.org/abs/2402.00367.
  • Тема 6: Перевод речи с использованием моделей речевого фундамента и больших языковых моделей: что есть и чего не хватает?
  • Автор: Марко Гайдо, Сара Папи, Маттео Негри, Луиза Бентивольи
  • Учреждение: Фонд Бруно Кесслера, Италия.
  • Ссылка на статью: https://arxiv.org/abs/2402.12025.
  • Документ 7: Должно ли НЛП быть экстрактивным?
  • Автор: Стивен Бёрд
  • Учреждение: Университет Чарльза Дарвина
  • Ссылка на документ: https://drive.google.com/file/d/1hvF7_WQrou6CWZydhymYFTYHnd3ZIljV/view.
  • Документ 8: IRCoder: промежуточные представления делают языковые модели надежными генераторами многоязычного кода
  • Автор: Индранейл Пауль, Горан Главаш, Ирина Гуревич
  • Учреждение: Технический университет Дармштадта и др.
  • Ссылка на документ: https://arxiv.org/abs/2403.03894.
  • Документ 9: MultiLegalPile: многоязычный юридический корпус объемом 689 ГБ
  • Автор: Матиас Штюрмер, Ветон Матоши и др.
  • Учреждение: Бернский университет, Стэнфордский университет и др.
  • Ссылка на документ: https://arxiv.org/pdf/2306.02069.
  • Статья 10: PsySafe: комплексная структура для психологической атаки, защиты и оценки безопасности многоагентных систем
  • В ролях: Зайбинь Чжан, Юнтин Чжан, Лицзюнь Ли, Хунчжи Гао, Лицзюнь Ван, Хучуань Лу, Фэн Чжао, Юй Цяо, Цзин Шао
  • Учреждения: Шанхайская лаборатория искусственного интеллекта, Даляньский технологический университет, Китайский университет науки и технологий.
  • Ссылка на документ: https://arxiv.org/pdf/2401.11880.
  • Тема 11: Могут ли большие языковые модели быть хорошими эмоциональными помощниками? Смягчение предубеждений в отношении эмоциональной поддержки в разговоре
  • Автор: Донджин Кан, Сунхван Ким и др.
  • Учреждение: Университет Ёнсей и т. д.
  • Ссылка на документ: https://arxiv.org/pdf/2402.13211.
  • Тема 12: Политический компас или вращающаяся стрелка? К более осмысленным оценкам ценностей и мнений в больших языковых моделях
  • Автор: Пауль Реттгер, Валентин Хофманн и др.
  • Учреждения: Университет Боккони, Институт искусственного интеллекта Аллена и др.
  • Ссылка на документ: https://arxiv.org/pdf/2402.16786.
  • Документ 13. Та же задача, больше токенов: влияние длины входных данных на эффективность рассуждений в больших языковых моделях
  • Автор: Мош Леви, Алон Джейкоби, Йоав Голдберг
  • Учреждение: Университет Бар-Илан, Институт искусственного интеллекта Аллена.
  • Ссылка на документ: https://arxiv.org/pdf/2402.14848.
  • Документ 14: Работают ли ламы на английском языке на скрытом языке многоязычных трансформеров?
  • Автор: Крис Вендлер, Вениамин Веселовский и др.
  • Учреждение: Федеральная политехническая школа Лозанны.
  • Ссылка на документ: https://arxiv.org/pdf/2402.10588.
  • Документ 15. Серьезное отношение к юмору: создание наборов данных о юморе с помощью несмешных больших языковых моделей
  • Автор: Закари Хорвиц, Джингру Чен и др.
  • Учреждение: Колумбийский университет, Федеральная политехническая школа Лозанны.
  • Ссылка на документ: https://arxiv.org/pdf/2403.00794.
  • Документ 16: Оценка уровня диалектности предсказывает соглашение между аннотаторами в многодиалектных наборах данных арабского языка
  • Автор: Амр Келег, Валид Магди, Шэрон Голдуотер
  • Учреждение: Эдинбургский университет
  • Ссылка на документ: https://arxiv.org/pdf/2405.11282.
  • Документ 17: G-DlG: На пути к выбору данных инструкций высокого качества на основе градиента для машинного перевода
  • В ролях: Синъюань Пань, Луян Хуан, Лиян Кан, Чжичэн Лю, Юй Лу, Шаньбо Чэн
  • Организация: ByteDance Research
  • Ссылка на документ: https://arxiv.org/pdf/2405.12915.
  • Документ 18: Медиа-фрейминг: типология и обзор вычислительных подходов в разных дисциплинах
  • Автор: Юлия Отмахова, Шима Ханезар, Леа Фрерманн
  • Ссылка на статью: https://openreview.net/pdf?id=9AV_zM56pwj.
  • Документ 19: SPZ: метод увеличения данных на основе семантических возмущений с зональным смешиванием для обнаружения болезни Альцгеймера
  • Автор: ФанФан Ли, Чэн Хуан, Пучжэнь Су, Цзе Инь
  • Документ 20: Жадность — это все, что вам нужно: оценка методов вывода токенизатора
  • Учреждения: Университет Бен-Гуриона в Негеве, Массачусетский технологический институт.
  • Автор: Омри Узан, Крэйг В.Шмидт, Крис Таннер, Юваль Пинтер
  • Ссылка на статью: https://arxiv.org/abs/2403.01289.
  • Статья 21: Сложность языка и точность распознавания речи: орфографическая сложность вредит, фонологическая сложность — нет
  • Учреждение: Университет Нотр-Дам (США)
  • Автор: Тихиро Такучи, Дэвид Чианг
  • Ссылка на статью: https://arxiv.org/abs/2406.09202.
  • Документ 22: Управление ламой 2 с помощью контрастной активирующей добавки
  • Учреждения: Антропный, Гарвардский университет, Геттингенский университет (Германия), Центр ИИ, совместимого с человеком.
  • В ролях: Нина Римски, Ник Габриэли, Джулиан Шульц, Мэг Тонг, Эван Джей Хабингер, Александр Мэтт Тернер
  • Ссылка на документ: https://arxiv.org/abs/2312.06681.
  • Документ 23: EconAgent: агенты на основе моделей большого языка для моделирования макроэкономической деятельности
  • Учреждение: Международная аспирантура Университета Цинхуа-Шэньчжэнь, Университет Цинхуа.
  • Автор: Нянь Ли, Чэнь Гао, Мингю Ли, Юн Ли, Цинминь Ляо
  • Ссылка на статью: https://arxiv.org/abs/2310.10436.
  • Статья 24: M4LE: многофункциональный, многодиапазонный, многозадачный, многодоменный, долгосрочный оценочный тест для больших языковых моделей
  • Учреждения: Китайский университет Гонконга, Лаборатория Ноева ковчега Huawei, Гонконгский университет науки и технологий.
  • В ролях: Вай-Чунг Кван, Синшань Цзэн, Юфэй Ван, Юсен Сун, Лянъю Ли, Лифэн Шан, Цюнь Лю, Кам-Фай Вонг
  • Ссылка на статью: https://arxiv.org/abs/2310.19240.
  • Документ 25: ПРОВЕРЬТЕ ПОЧЕМУ: проверка причинно-следственных фактов с помощью структуры аргументов
  • 作者: Цзяшэн Си, Ибо Чжао, Инцзе Чжу, Хайян Чжу, Вэньпэн Лу, Дэю Чжоу
  • Документ 26: Об эффективной и статистической оценке качества аннотаций данных
  • В ролях: Ян-Кристоф Кли, Хуан Халаджян, Марк Киршнер, Рахул Наир.
  • Учреждения: UKP Lab, TU Darmstadt, Apple.
  • Ссылка на документ: https://arxiv.org/pdf/2405.11919.
  • Документ 27: Эмулируемое несовпадение: безопасное выравнивание для больших языковых моделей может иметь неприятные последствия!
  • В ролях: Чжаньхуэй Чжоу, Цзе Лю, Чжичен Донг, Цзяхэн Лю, Чао Ян, Ванли Оуян, Юй Цяо
  • Организация: Шанхайская лаборатория искусственного интеллекта
  • Ссылка на документ: https://arxiv.org/pdf/2402.12343.
  • Документ 28: IndicLLMSuite: план создания наборов данных для предварительного обучения и точной настройки для индийских языков
  • Автор: Мохаммед Сафи Ур Рахман Хан, Приям Мехта, Анант Санкар и др.
  • Учреждения: Центр Нилекани в AI4Bharat, Индийский технологический институт (Мадрас), Microsoft и др.
  • Ссылка на документ: https://arxiv.org/pdf/2403.06350.
  • Документ 29: MultiPICo: Многоязычный перспективистский корпус Irony
  • Автор: Сильвия Касола, Симона Френда, Сода Марем Ло, Эрхан Сезерер и др.
  • Учреждения: Туринский университет, aequa-tech, Центр развития Amazon (Италия) и др.
  • Источник: https://assets.amazon.science/08/83/9b686f424c89b08e8fa0a6e1d020/multipico-multilingual-perspectivist-irony-corpus.pdf
  • Документ 30: MMToM-QA: Мультимодальная теория разума, ответы на вопросы
  • Автор: Чуаньян Цзинь, Ютун Ву, Цзин Цао, Цзяннан Сян и др.
  • Учреждения: Нью-Йоркский университет, Гарвардский университет, Массачусетский технологический институт, Калифорнийский университет, Сан-Диего, Университет Вирджинии, Университет Джонса Хопкинса.
  • Ссылка на документ: https://arxiv.org/pdf/2401.08743.
  • Документ 31: MAP еще не умер: раскрытие истинных режимов языковой модели путем устранения вырожденности
  • Автор: Дэвис Йошида, Картик Гоял, Кевин Гимпел
  • Учреждение: Технологический институт Тойоты, Чикаго, Технологический институт Джорджии.
  • Ссылка на документ: https://arxiv.org/pdf/2311.08817.
  • Документ 32: NounAtlas: Заполнение пробела в маркировке номинальных семантических ролей
  • Автор: Роберто Навильи, Марко Ло Пинто, Паскуале Сильвестри и др.
  • Документ 33: Земля плоская, потому что... Исследование убеждений студентов-магистрантов в отношении дезинформации посредством убедительной беседы
  • Автор: Жунву Сюй, Брайан С. Линь, Шуцзянь Ян, Тяньги Чжан и др.
  • Учреждения: Университет Цинхуа, Шанхайский университет Цзяо Тонг, Стэнфордский университет, Наньянский технологический университет.
  • Ссылка на документ: https://arxiv.org/pdf/2312.09085.
  • Документ 34: Давайте поговорим по-настоящему: модель разговорного диалога для личного разговора
  • Автор: Се Джин Пак, Чхэ Вон Ким, Хён Соп Ра, Мин Су Ким и др.
  • Учреждение: Корейский институт передовой науки и технологий (KAIST)
  • Ссылка на документ: https://arxiv.org/pdf/2406.07867.
  • Документ 35: Встраивание слов — основа языковых моделей
  • В ролях: Чи Хан, Цзялян Сюй, Манлин Ли, И Фунг, Чэнкай Сун, Нань Цзян, Тарек Ф. Абдельзахер, Хэн Цзи
  • Учреждение: Университет Иллинойса в Урбана-Шампейн.
  • Ссылка на документ: https://arxiv.org/pdf/2305.12798.

Награда за лучшую тематическую статью



Диссертация: OLMo: Ускорение изучения языковых моделей

  • Автор: Дирк Гроеневелд, Из Белтаги и др.
  • Учреждения: Институт искусственного интеллекта Аллена, Вашингтонский университет и др.
  • Ссылка на документ: https://arxiv.org/pdf/2402.00838.

Цитата: Эта работа является важным шагом к прозрачности и воспроизводимости в обучении больших языковых моделей, шагом вперед в усилиях сообщества по достижению прогресса (или, по крайней мере, предоставлению возможности внести свой вклад другим исследователям, которые не являются гигантами отрасли).

Премия за ресурсную бумагу

3 статьи получили награду Resource Paper Award.

Документ 1: Latxa: модель открытого языка и пакет оценки баскского языка

Учебное заведение: Университет Страны Басков, Испания.

  • В ролях: Хулен Эчанис, Оскар Сайнс, Найара Перес, Ициар Альдабе, Герман Ригау, Энеко Агирре, Айтор Ормазабаль, Микель Артече, Айтор Сороа
  • Ссылка: https://arxiv.org/pdf/2403.20266.

Причины награждения: В этом документе подробно описаны детали сбора корпуса и оценки набора данных. Хотя эта методология актуальна для исследований баскского языка, ее можно распространить на построение крупных моделей для других языков с ограниченными ресурсами.

Документ 2: Долма: открытый корпус из трех триллионов токенов для исследования предварительной подготовки языковой модели

  • Учреждения: Институт искусственного интеллекта Аллена, Калифорнийский университет в Беркли и др.
  • Автор: Лука Солдайни, Родни Кинни и др.
  • Ссылка: https://arxiv.org/abs/2402.00159.

Причина награждения: эта статья демонстрирует важность управления данными при подготовке наборов данных для обучения больших языковых моделей. Это дает очень ценную информацию широкому кругу людей в сообществе.

Документ 3: AppWorld: управляемый мир приложений и людей для сравнительного анализа агентов интерактивного кодирования

  • Учреждения: Государственный университет Нью-Йорка в Стоуни-Брук, Институт искусственного интеллекта Аллена и др.
  • Автор: Харш Триведи, Тушар Хот и др.
  • Ссылка: https://arxiv.org/abs/2407.18901

Причины награждения: Это исследование представляет собой очень важную и удивительную работу по созданию интерактивного моделирования и оценки среды. Это побудит всех создавать более точные динамические тесты для сообщества.

Премия за социальное воздействие

3 статьи получили премию Social Impact Award.

Статья 1: Как Джонни может убедить LLM сделать им джейлбрейк: переосмысление убеждения для того, чтобы бросить вызов безопасности ИИ путем гуманизации LLM

  • Авторы: И Цзэн, Хунпэн Линь, Цзинвэнь Чжан, Дийи Ян и др.
  • Учреждения: Технологический институт Вирджинии, Китайский университет Жэньминь, Калифорнийский университет в Дэвисе, Стэнфордский университет.
  • Ссылка на документ: https://arxiv.org/pdf/2401.06373.

Причина награждения: В этой статье исследуется тема безопасности ИИ — джейлбрейка, изучается метод, разработанный в области социальных исследований. Исследование очень интересно и потенциально может оказать существенное влияние на общество.

Документ 2: DIALECTBENCH: тест НЛП для диалектов, разновидностей и близкородственных языков

  • Автор: Фахим Фейсал, Ореваоген Ахия, Аарохи Шривастава, Кабир Ахуджа и др.
  • Учреждения: Университет Джорджа Мейсона, Вашингтонский университет, Университет Нотр-Дам, RC Athena.
  • Ссылка на документ: https://arxiv.org/pdf/2403.11009.

Причина награждения: вариации диалектов — малоизученное явление в области НЛП и искусственного интеллекта. Однако с точки зрения языка и общества его исследования имеют чрезвычайно высокую ценность и имеют важные последствия для приложений. В этой статье предлагается совершенно новый ориентир для изучения этой проблемы в эпоху LLM.

Документ 3: Пить пиво после молитвы? Измерение культурных предубеждений в больших языковых моделях?

  • Автор: Тарек Наус, Майкл Дж. Райан, Алан Риттер, Вэй Сюй
  • Учреждение: Технологический институт Джорджии.
  • Ссылка на документ: https://arxiv.org/pdf/2305.14456.

Причины получения награды: Эта статья демонстрирует важную проблему эпохи LLM: культурные предубеждения. В этой статье изучается арабская культура и языковая среда, и результаты показывают, что нам необходимо учитывать культурные различия при разработке программ LLM. Следовательно, то же исследование можно повторить в других культурах, чтобы обобщить и оценить, затронуты ли другие культуры этой проблемой.