nouvelles

ACL 2024 Awards : l'un des meilleurs articles sur le déchiffrement d'Oracle à HuaTech, GloVe Time Test Award

2024-08-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Rapport sur le cœur de la machine

Département éditorial de Machine Heart

Les contributeurs ont beaucoup gagné de cette conférence ACL.

L'ACL 2024, d'une durée de six jours, se tient à Bangkok, en Thaïlande.



ACL est la plus grande conférence internationale dans le domaine de la linguistique informatique et du traitement du langage naturel. Elle est organisée par l'Association internationale pour la linguistique informatique et a lieu chaque année. L'ACL a toujours été classée première en termes d'influence académique dans le domaine de la PNL, et c'est également une conférence recommandée par le CCF-A.

La conférence ACL de cette année est la 62e et a reçu plus de 400 travaux de pointe dans le domaine de la PNL. Hier après-midi, la conférence a annoncé le meilleur article et d'autres récompenses. Cette fois, 7 Best Paper Awards (deux inédits), 1 Best Theme Paper Award et 35 Outstanding Paper Awards ont été décernés.

La conférence a également décerné 3 Resource Awards, 3 Social Impact Awards et 2 Time Test Awards.

De plus, le Lifetime Achievement Award de cette conférence a été décerné à Ralph Grishman, professeur au Département d'informatique de l'Université de New York.

Ce qui suit est des informations spécifiques sur les récompenses.

meilleur papier



Papier 1 : Mission : Modèles de langage impossibles

  • Avec : Julie Kallini, Isabel Papadimitriou, Richard Futrell, Kyle Mahowald, Christopher Potts
  • Institution : Université de Stanford, Université de Californie, Irvine, Université du Texas à Austin
  • Lien papier : https://arxiv.org/abs/2401.06416

Introduction à l'article : Chomsky et d'autres pensent que la capacité d'apprentissage des grands modèles linguistiques (LLM) est la même pour les langues qui peuvent ou non être apprises par les humains. Cependant, il existe peu de preuves expérimentales publiées pour étayer cette affirmation.

L'étude a développé un ensemble de langages synthétiques de complexité variable, chacun conçu en modifiant systématiquement les données anglaises en utilisant un ordre des mots et des règles grammaticales non naturelles, dans le but de synthétiser des langages qui seraient impossibles à apprendre pour les humains.

L'étude a mené des expériences d'évaluation approfondies pour évaluer la capacité du petit modèle GPT-2 à apprendre ces « langues impossibles » et a mené ces évaluations à différentes étapes tout au long de la formation afin de comparer le processus d'apprentissage de chaque langue. La principale conclusion de l'étude est que GPT-2 est difficile à apprendre comme des « langues impossibles » par rapport à l'anglais, ce qui remet en cause les affirmations de Chomsky et d'autres.

Plus important encore, l'étude espère que son approche ouvrira une piste de recherche fructueuse, permettant de tester différentes architectures LLM sur une variété de « langages impossibles » afin de comprendre comment le LLM peut être utilisé comme outil d'investigation cognitive et typologique.



Document 2 : Pourquoi les fonctions sensibles sont-elles difficiles pour les transformateurs ?

  • Auteurs : Michael Hahn, Mark Rofin
  • Institution : Université de la Sarre
  • Lien papier : https://arxiv.org/abs/2402.09963

Résumé : Des études expérimentales ont identifié une série de biais et de limites d'apprentissage des transformateurs, tels que la difficulté persistante à apprendre à calculer des langages formels simples tels que PARITY et un biais en faveur des fonctions de bas degré. Cependant, la compréhension théorique reste limitée et les théories existantes de la représentation surestiment ou sous-estiment les capacités d’apprentissage réalistes.

Cette étude démontre que dans l'architecture du transformateur, le paysage des pertes est limité par la sensibilité de l'espace d'entrée : les transformateurs dont les sorties sont sensibles à de nombreuses parties de la chaîne d'entrée sont situés à des points isolés dans l'espace des paramètres, ce qui entraîne un biais de faible sensibilité dans généralisation.

Cette étude montre théoriquement et expérimentalement que la théorie unifie des observations expérimentales approfondies sur les capacités et les biais d'apprentissage des transformateurs, tels que leur biais de généralisation vers une sensibilité et un degré faibles, et la difficulté de la généralisation de la longueur de parité. Cela suggère que la compréhension des polarisations inductives d'un transformateur nécessite d'étudier non seulement son expressivité de principe, mais également son paysage de fonctions de perte.



Article 3 : Déchiffrer le langage Oracle Bone avec des modèles de diffusion

  • Auteurs : Haisu Guan, Huanxin Yang, Xinyu Wang, Shengwei Han, etc.
  • Institutions : Université des sciences et technologies de Huazhong, Université d'Adélaïde, Université normale d'Anyang, Université de technologie de Chine du Sud
  • Lien papier : https://arxiv.org/pdf/2406.00684

Introduction à l'article : Oracle Bone Script (OBS) est né sous la dynastie chinoise Shang il y a environ 3 000 ans. Il constitue la pierre angulaire de l'histoire des langues et est antérieur à de nombreux systèmes d'écriture établis. Bien que des milliers d’inscriptions aient été découvertes, un grand nombre d’os d’oracle restent indéchiffrés, enveloppant cette langue ancienne d’un voile de mystère. L’émergence de la technologie moderne de l’IA a ouvert de nouveaux domaines pour le déchiffrement Oracle, posant des défis aux méthodes traditionnelles de PNL qui s’appuient fortement sur de grands corpus de textes.

Cet article présente une nouvelle méthode utilisant la technologie de génération d'images pour développer un modèle de diffusion optimisé pour le déchiffrement Oracle, Oracle Bone Script Decipher (OBSD). En utilisant la stratégie de diffusion conditionnelle, OBSD a généré des indices importants pour le déchiffrement Oracle et a ouvert une nouvelle direction pour l’analyse des langues anciennes assistée par l’IA. Afin de vérifier l'efficacité, les chercheurs ont mené des expériences approfondies sur l'ensemble de données Oracle, et les résultats quantitatifs ont prouvé l'efficacité d'OBSD.



Article 4 : Estimation causale des profils de mémorisation

  • Avec Pietro Lesci, Clara Meister, Thomas Hofmann, Andreas Vlachos, Tiago Pimentel
  • Institution : Université de Cambridge, ETH Zurich
  • Lien papier : https://arxiv.org/pdf/2406.04327

Introduction à l'article : Comprendre la mémoire dans les modèles de langage a des implications pratiques et sociales, telles que l'étude de la dynamique de formation des modèles ou la prévention de la violation du droit d'auteur. Des recherches antérieures définissent la mémoire comme la relation causale entre « l'entraînement à l'aide d'une instance » et « la capacité du modèle à prédire cette instance ». Cette définition s'appuie sur un contrefactuel : la capacité d'observer ce qui se serait passé si le modèle n'avait pas vu l'instance. Les méthodes existantes ont du mal à fournir des estimations informatiques efficaces et précises de ces contrefactuels. De plus, ces méthodes estiment généralement la mémoire de l’architecture du modèle plutôt que la mémoire d’instances de modèle spécifiques.

Cet article comble une lacune importante en proposant une nouvelle approche efficace et fondée sur des principes pour estimer la mémoire basée sur un plan économétrique de différence dans la différence. Avec cette méthode, les chercheurs n'observent le comportement du modèle que sur un petit nombre d'instances pendant tout le processus de formation pour décrire le profil de mémoire du modèle, c'est-à-dire sa tendance de mémoire au cours du processus de formation. Dans des expériences utilisant la suite de modèles Pythia, ils ont constaté que la mémoire (i) est plus forte et plus persistante dans les modèles plus grands, (ii) est déterminée par l'ordre des données et le taux d'apprentissage, et (iii) est stable dans différentes tendances de taille de modèle. les mémoires du modèle plus grand peuvent être prédites à partir du modèle plus petit.



Article 5 : Modèle Aya : un modèle de langage multilingue en libre accès optimisé pour les instructions

  • Auteurs : Ahmet Üstün, Viraat Aryabumi, Zheng Xin Yong, Wei-Yin Ko, etc.
  • Institutions : Cohere, Brown University, etc.
  • Lien papier : https://arxiv.org/pdf/2402.07827

Introduction à l'article : Les avancées récentes dans les grands modèles de langage (LLM) se sont concentrées sur un petit nombre de langages riches en données. Comment les possibilités de percées peuvent-elles être élargies au-delà des autres langues ? La recherche présente Aya, un modèle de langage génératif multilingue à grande échelle qui suit les instructions pour 101 langues, dont plus de 50 % sont considérées comme à faibles ressources. Aya surpasse mT0 et BLOOMZ sur la plupart des tâches tout en couvrant deux fois plus de langues.

En outre, la recherche introduit une vaste gamme de nouvelles évaluations, étendant l’état de l’art en matière d’évaluation multilingue à 99 langues. Enfin, l’étude fournit une enquête détaillée sur la composition optimale du mélange, l’élagage des données et la toxicité, les biais et la sécurité du modèle.



Article 6 : Reconstruction du proto-langage neuronal semi-supervisé

  • Auteurs : Liang Lu, Peirong Xie, David R. Mortensen
  • Établissement : CMU, Université de Californie du Sud
  • Lien papier : https://arxiv.org/pdf/2406.05930

Raison du prix : Cette recherche révolutionnaire vise à semi-automatiser la tâche de reconstruction de prototypes de langues en linguistique historique, en proposant une nouvelle architecture semi-supervisée. Cette méthode surpasse les méthodes supervisées précédentes en introduisant un processus de réflexion « prototype-langage natif » dans la reconstruction « langage natif-prototype ». Cet article est un bon exemple de la manière dont les modèles informatiques modernes, tels que les codeurs et décodeurs neuronaux, peuvent contribuer à la linguistique.



Article 7 : Satisfiabilité du langage naturel : exploration de la distribution des problèmes et évaluation des modèles de langage basés sur des transformateurs (non publié)

  • Texte : Tharindu Madusanka, Ian Pratt-Hartmann, Riza Batista-Navarro

Raison de l'attribution : Cet article décrit clairement un ensemble de données d'évaluation synthétique pour l'inférence logique. Il s’agit d’un bon complément aux grands ensembles de données d’inférence où il n’est pas clair quelles capacités sont mesurées. Théoriquement, il y a effectivement des raisons de s’attendre à ce que certains sous-ensembles soient plus difficiles que d’autres, et ces attentes sont validées dans l’article. Au sein de chaque catégorie, les auteurs accordent une attention particulière à l’échantillonnage des cas véritablement difficiles.

Prix ​​éprouvé

L'ACL Time Test Award récompense des articles honorifiques qui ont eu un impact à long terme sur les domaines du traitement du langage naturel et de la linguistique informatique. Il est divisé en deux prix : il y a 10 ans (2014) et il y a 25 ans (1999 au maximum). de deux articles sont décernés chaque année.



Article 1 : GloVe : vecteurs globaux pour la représentation des mots

  • Auteurs : Jeffrey Pennington, Richard Socher, Christopher D. Manning
  • Établissement : Université de Stanford
  • Lien article : https://aclanthology.org/D14-1162.pdf

Introduction : Les méthodes d'apprentissage des représentations spatiales vectorielles des mots ont réussi à capturer des règles sémantiques et syntaxiques fines à l'aide de l'arithmétique vectorielle, mais les règles syntaxiques restent opaques. Cette étude analyse et clarifie les propriétés que le modèle doit avoir pour que les règles syntaxiques apparaissent dans les vecteurs de mots.

Cette étude propose un nouveau modèle de régression linéaire logarithmique global - GloVe, conçu pour apprendre les représentations vectorielles des mots. Ce modèle combine les avantages de la factorisation matricielle globale et des méthodes de fenêtre contextuelle locale.

GloVe a obtenu la meilleure performance de 75 % sur la tâche d'analogie de mots et a surpassé les modèles associés sur la tâche de similarité de mots et de reconnaissance d'entités nommées.

Raison du prix : les intégrations de mots ont été la pierre angulaire des méthodes d'apprentissage profond pour le traitement du langage naturel (NLP) de 2013 à 2018 et continuent d'exercer une influence significative. Non seulement ils améliorent les performances des tâches de PNL, mais ils ont également un impact significatif sur la sémantique informatique, telle que la similarité et l’analogie des mots. Les deux méthodes d'intégration de mots les plus influentes sont probablement skip-gram/CBOW et GloVe. Comparé à skip-gram, GloVe a été proposé plus tard. Son avantage relatif réside dans sa simplicité conceptuelle, optimisant la similarité de l'espace vectoriel directement sur la base des caractéristiques de distribution entre les mots, plutôt qu'indirectement en tant qu'ensemble de paramètres dans une perspective de modélisation simplifiée du langage.





Document 2 : Mesures de similarité distributionnelle

  • Auteur : Lillian Lee
  • Établissement : Université Cornell
  • Lien article : https://aclanthology.org/P99-1004.pdf

Introduction de l'article : L'auteur étudie les mesures de similarité de distribution dans le but d'améliorer les estimations de probabilité d'événements de cooccurrence invisibles. Leur contribution est triple : une comparaison empirique d'un large éventail de mesures ; une classification des fonctions de similarité basée sur les informations qu'elles contiennent et l'introduction d'une nouvelle fonction supérieure dans l'évaluation des distributions d'agents sous-jacentes.



Prix ​​pour l'ensemble de sa carrière

Le Lifetime Achievement Award de l'ACL a été décerné à Ralph Grishman. Ralph Grishman est professeur au Département d'informatique de l'Université de New York, où il se concentre sur la recherche dans le domaine du traitement du langage naturel (NLP). Il est le fondateur du projet Proteus, qui a apporté d'importantes contributions à l'extraction d'informations (IE) et favorisé le développement de ce domaine.



Il a également développé le Java Extraction Toolkit (JET), un outil d'extraction d'informations largement utilisé qui fournit plusieurs composants d'analyse du langage tels que la segmentation des phrases, l'annotation des entités nommées, l'annotation et la normalisation des expressions temporelles, le marquage des parties du discours, l'analyse des parties et la co-analyse. analyse. Fait référence à l'analyse. Ces composants peuvent être combinés en pipelines selon différentes applications, qui peuvent être utilisés pour l'analyse interactive de phrases uniques ou l'analyse par lots de documents entiers. De plus, JET fournit des outils simples pour l'annotation et l'affichage des documents, et comprend un processus complet pour extraire les entités, les relations et les événements conformément à la spécification ACE (Automatic Content Extraction).

Les travaux du professeur Grishman couvrent plusieurs questions fondamentales de la PNL et ont eu un impact profond sur la technologie moderne de traitement du langage.

35 articles remarquables

  • Article 1 : Réglage latéral quantifié : réglage rapide et économe en mémoire des grands modèles de langage quantifiés
  • Titre : Zhengxin Zhang, Dan Zhao, Xupeng Miao, Gabriele Oliaro, Zhihao Zhang, Qing Li, Yong Jiang, Zhihao Jia
  • Institutions : CMU, Université Tsinghua, Laboratoire Pengcheng, etc.
  • Lien papier : https://arxiv.org/pdf/2401.07159
  • Article 2 : L-Eval : Institution d'une évaluation standardisée pour les modèles de langage à contexte long
  • Titre : Chenxin An, Shansan Gong, Ming Zhong, Xingjian Zhao, Mukai Li, Jun Zhang, Lingpeng Kong, Xipeng Qiu
  • Institutions : Université Fudan, Université de Hong Kong, Université de l'Illinois à Urbana-Champaign, Shanghai AI Lab
  • Lien papier : https://arxiv.org/abs/2307.11088
  • Article 3 : Apprentissage actif guidé par la causalité pour débiaiser les grands modèles de langage
  • Lien papier : https://openreview.net/forum?id=idp_1Q6F-lC
  • Article 4 : CausalGym : Analyse comparative des méthodes d'interprétabilité causale sur les tâches linguistiques
  • Auteurs : Aryaman Arora, Dan Jurafsky, Christopher Potts
  • Établissement : Université de Stanford
  • Lien papier : https://arxiv.org/abs/2402.12560
  • Article 5 : N'hallucinez pas, abstenez-vous : identifier les lacunes dans les connaissances LLM via une collaboration multi-LLM
  • Lire : Shangbin Feng, Weijia Shi, Yike Wang, Wenxuan Ding, Vidhisha Balachandran, Yulia Tsvetkov
  • Institutions : Université de Washington, Université de Californie, Berkeley, Université des sciences et technologies de Hong Kong, CMU
  • Lien papier : https://arxiv.org/abs/2402.00367
  • Chapitre 6 : Traduction de la parole avec des modèles de fondation de la parole et des modèles linguistiques à grande échelle : qu'y a-t-il et que manque-t-il ?
  • Auteurs : Marco Gaido, Sara Papi, Matteo Negri, Luisa Bentivogli
  • Institution : Fondation Bruno Kessler, Italie
  • Lien papier : https://arxiv.org/abs/2402.12025
  • Papier 7 : La PNL doit-elle être extractive ?
  • Auteur : Steven Bird
  • Établissement : Université Charles Darwin
  • Lien papier : https://drive.google.com/file/d/1hvF7_WQrou6CWZydhymYFTYHnd3ZIljV/view
  • Article 8 : IRCoder : les représentations intermédiaires rendent les modèles de langage robustes et générateurs de codes multilingues
  • Auteurs : Indraneil Paul, Goran Glavaš, Iryna Gurevych
  • Institution : Université technique de Darmstadt, etc.
  • Lien papier : https://arxiv.org/abs/2403.03894
  • Article 9 : MultiLegalPile : un corpus juridique multilingue de 689 Go
  • Auteurs : Matthias Stürmer, Veton Matoshi, etc.
  • Institution : Université de Berne, Université de Stanford, etc.
  • Lien papier : https://arxiv.org/pdf/2306.02069
  • Chapitre 10 : PsySafe : un cadre complet pour l'attaque, la défense et l'évaluation psychologiques de la sécurité des systèmes multi-agents
  • 作者: Zaibin Zhang 、 Yongting Zhang 、 Lijun Li 、 Hongzhi Gao 、 Lijun Wang 、 Huchuan Lu 、 Feng Zhao 、 Yu Qiao、Jing Shao
  • Institutions : Laboratoire d'intelligence artificielle de Shanghai, Université de technologie de Dalian, Université des sciences et technologies de Chine
  • Lien papier : https://arxiv.org/pdf/2401.11880
  • Chapitre 11 : Les grands modèles linguistiques peuvent-ils être un bon soutien émotionnel ? Atténuer le biais de préférence dans les conversations de soutien émotionnel
  • Auteurs : Dongjin Kang, Sunghwan Kim, etc.
  • Institution : Université Yonsei, etc.
  • Lien papier : https://arxiv.org/pdf/2402.13211
  • Chapitre 12 : Boussole politique ou flèche tournante ? Vers des évaluations plus significatives des valeurs et des opinions dans les grands modèles linguistiques
  • Auteurs : Paul Röttger, Valentin Hofmann, etc.
  • Institutions : Université Bocconi, Allen Institute for Artificial Intelligence, etc.
  • Lien papier : https://arxiv.org/pdf/2402.16786
  • Article 13 : Même tâche, plus de jetons : l'impact de la longueur d'entrée sur les performances de raisonnement des grands modèles de langage
  • Auteurs : Mosh Levy, Alon Jacoby, Yoav Goldberg
  • Institution : Université Bar-Ilan, Institut Allen pour l'intelligence artificielle
  • Lien papier : https://arxiv.org/pdf/2402.14848
  • Papier 14 : Les lamas fonctionnent-ils en anglais ? Sur le langage latent des transformateurs multilingues
  • Auteurs : Chris Wendler, Veniamin Veselovsky, etc.
  • Établissement : Ecole Polytechnique Fédérale de Lausanne
  • Lien papier : https://arxiv.org/pdf/2402.10588
  • Article 15 : Prendre l'humour au sérieux : créer des ensembles de données sur l'humour avec de grands modèles linguistiques peu drôles
  • Auteurs : Zachary Horvitz, Jingru Chen, etc.
  • Institution : Columbia University, Ecole Polytechnique Fédérale de Lausanne
  • Lien papier : https://arxiv.org/pdf/2403.00794
  • Article 16 : L'estimation du niveau de dialecte prédit l'accord entre annotateurs dans des ensembles de données arabes multidialectes
  • Auteurs : Amr Keleg, Walid Magdy, Sharon Goldwater
  • Établissement : Université d'Édimbourg
  • Lien papier : https://arxiv.org/pdf/2405.11282
  • Article 17 : G-DlG : Vers une sélection de données d'instructions diversifiées basée sur des gradients et de haute qualité pour la traduction automatique
  • Titre : Xingyuan Pan, Luyang Huang, Liyan Kang, Zhicheng Liu, Yu Lu, Shanbo Cheng
  • Organisation : Recherche ByteDance
  • Lien papier : https://arxiv.org/pdf/2405.12915
  • Article 18 : Cadrage des médias : une typologie et une enquête sur les approches informatiques dans toutes les disciplines
  • Auteurs : Yulia Otmakhova, Shima Khanehzar, Lea Frermann
  • Lien papier : https://openreview.net/pdf?id=9AV_zM56pwj
  • Article 19 : SPZ : Une méthode d'augmentation des données basée sur la perturbation sémantique avec mélange zonal pour la détection de la maladie d'Alzheimer
  • Auteurs : FangFang Li, Cheng Huang, PuZhen Su, Jie Yin
  • Document 20 : La cupidité est tout ce dont vous avez besoin : une évaluation des méthodes d'inférence Tokenizer
  • Institutions : Université Ben Gourion du Néguev, MIT
  • Auteurs : Omri Uzan, Craig W.Schmidt, Chris Tanner, Yuval Pinter
  • Lien papier : https://arxiv.org/abs/2403.01289
  • Chapitre 21 : Complexité du langage et précision de la reconnaissance vocale : la complexité orthographique nuit, la complexité phonologique ne nuit pas
  • Institution : Université de Notre Dame (USA)
  • Auteurs : Chihiro Taquchi, David Chiang
  • Lien papier : https://arxiv.org/abs/2406.09202
  • Papier 22 : Piloter Llama 2 via l'ajout d'activation contrastive
  • Institutions : Anthropic, Harvard University, University of Göttingen (Allemagne), Center for Human-Compatible AI
  • Parmi eux : Nina Rimsky, Nick Gabrieli, Julian Schulz, Meg Tong, Evan J Hubinger, Alexander Matt Turner
  • Lien papier : https://arxiv.org/abs/2312.06681
  • Document 23 : EconAgent : agents habilités par un grand modèle de langage pour simuler des activités macroéconomiques
  • Institution : École supérieure internationale de l'Université Tsinghua-Shenzhen, Université Tsinghua
  • Auteurs : Nian Li, Chen Gao, Mingyu Li, Yong Li, Qingmin Liao
  • Lien papier : https://arxiv.org/abs/2310.10436
  • Chapitre 24 : M4LE : un benchmark d'évaluation multi-capacités, multi-portées, multi-tâches, multi-domaines et à long contexte pour les grands modèles linguistiques
  • Institutions : Université chinoise de Hong Kong, Laboratoire Huawei Noah's Ark, Université des sciences et technologies de Hong Kong
  • Titre : Wai-Chung Kwan, Xingshan Zeng, Yufei Wang, Yusen Sun, Liangyou Li, Lifeng Shang, Qun Liu, Kam-Fai Wong.
  • Lien papier : https://arxiv.org/abs/2310.19240
  • Article 25 : CHECKWHY : Vérification des faits causals via la structure des arguments
  • Titre : Jiasheng Si, Yibo Zhao, Yingjie Zhu, Haiyang Zhu, Wenpeng Lu, Deyu Zhou
  • Article 26 : Sur l'estimation efficace et statistique de la qualité pour l'annotation des données
  • Parmi eux : Jan-Christoph Klie, Juan Haladjian, Marc Kirchner et Rahul Nair
  • Établissements : UKP Lab, TU Darmstadt, Apple
  • Lien papier : https://arxiv.org/pdf/2405.11919
  • Document 27 : Désalignement émulé : l'alignement de sécurité pour les grands modèles linguistiques peut se retourner contre vous !
  • 作者:Zhanhui Zhou, Jie Liu, Zhichen Dong, Jiaheng Liu, Chao Yang, Wanli Ouyang, Yu Qiao
  • Organisation : Laboratoire d’intelligence artificielle de Shanghai
  • Lien papier : https://arxiv.org/pdf/2402.12343
  • Article 28 : IndicLLMSuite : Un modèle pour la création d'ensembles de données de pré-formation et de réglage fin pour les langues indiennes
  • Auteurs : Mohammed Safi Ur Rahman Khan, Priyam Mehta, Ananth Sankar, etc.
  • Institutions : Nilekani Center d'AI4Bharat, Indian Institute of Technology (Madras), Microsoft, etc.
  • Lien papier : https://arxiv.org/pdf/2403.06350
  • Article 29 : MultiPICo : Corpus d'ironie perspectiviste multilingue
  • Auteurs : Silvia Casola, Simona Frenda, Soda Marem Lo, Erhan Sezerer, etc.
  • Institutions : Université de Turin, aequa-tech, Amazon Development Center (Italie), etc.
  • Lire la suite : https://assets.amazon.science/08/83/9b686f424c89b08e8fa0a6e1d020/multipico-multilingual-perspectivist-irony-corpus.pdf
  • Article 30 : MMToM-QA : Réponse aux questions sur la théorie multimodale de l'esprit
  • Auteurs : Chuanyang Jin, Yutong Wu, Jing Cao, Jiannan Xiang, etc.
  • Institutions : Université de New York, Université Harvard, MIT, Université de Californie, San Diego, Université de Virginie, Université Johns Hopkins
  • Lien papier : https://arxiv.org/pdf/2401.08743
  • Article 31 : MAP n'est pas encore mort : découvrir les véritables modes de modèle de langage en conditionnant la dégénérescence
  • Auteurs : Davis Yoshida, Kartik Goyal, Kevin Gimpel
  • Établissement : Institut de technologie Toyota de Chicago, Institut de technologie de Géorgie
  • Lien papier : https://arxiv.org/pdf/2311.08817
  • Article 32 : NounAtlas : Combler les lacunes dans l'étiquetage des rôles sémantiques nominaux
  • Auteurs : Roberto Navigli, Marco Lo Pinto, Pasquale Silvestri, etc.
  • Article 33 : La Terre est plate parce que… enquêter sur la croyance des LLM à l'égard de la désinformation via PersuasiveConversation
  • Auteurs : Rongwu Xu, Brian S. Lin, Shujian Yang, Tiangi Zhang, etc.
  • Institutions : Université Tsinghua, Université Jiao Tong de Shanghai, Université Stanford, Université technologique de Nanyang
  • Lien papier : https://arxiv.org/pdf/2312.09085
  • Document 34 : Passons à la réalité : modèle de dialogue parlé pour les conversations en face à face
  • Auteurs : Se Jin Park, Chae Won Kim, Hyeongseop Rha, Minsu Kim, etc.
  • Institution : Institut supérieur coréen des sciences et technologies (KAIST)
  • Lien papier : https://arxiv.org/pdf/2406.07867
  • Article 35 : Les intégrations de mots sont des orientations pour les modèles de langage
  • 作者:Chi Han, Jialiang Xu, Manling Li, Yi Fung, Chenkai Sun, Nan Jiang, Tarek F. Abdelzaher, Heng Ji
  • Établissement : Université de l'Illinois à Urbana-Champaign
  • Lien papier : https://arxiv.org/pdf/2305.12798

Prix ​​du meilleur article thématique



Thèse : OLMo : Accélérer la science des modèles linguistiques

  • Auteurs : Dirk Groeneveld, Iz Beltagy, etc.
  • Institutions : Allen Institute for Artificial Intelligence, Université de Washington, etc.
  • Lien papier : https://arxiv.org/pdf/2402.00838

Citation : Ce travail est une étape importante vers la transparence et la reproductibilité dans la formation de grands modèles de langage, un pas en avant dans les efforts de la communauté pour progresser (ou du moins pour permettre à d'autres chercheurs qui ne sont pas des géants de l'industrie de contribuer de toute urgence).

Prix ​​du document ressource

3 articles ont remporté le Resource Paper Award.

Article 1 : Latxa : Un modèle de langage ouvert et une suite d'évaluation pour le basque

Institution : Université du Pays Basque, Espagne

  • Parmi eux : Julen Etxaniz, Oscar Sainz, Naiara Perez, Itziar Aldabe, German Rigau, Eneko Agirre, Aitor Ormazabal, Mikel Artetxe, Aitor Soroa
  • Lien : https://arxiv.org/pdf/2403.20266

Raisons de l'attribution : Cet article décrit en détail les détails de la collecte de corpus et de l'évaluation des ensembles de données. Bien que pertinente pour la recherche sur la langue basque, cette méthodologie peut être étendue à la construction de grands modèles pour d’autres langues à faibles ressources.

Article 2 : Dolma : un corpus ouvert de trois billions de jetons pour la recherche sur la pré-formation des modèles linguistiques

  • Institutions : Allen Institute for Artificial Intelligence, Université de Californie, Berkeley, etc.
  • Auteurs : Luca Soldaini, Rodney Kinney, etc.
  • Lien : https://arxiv.org/abs/2402.00159

Raison de l'attribution : Cet article démontre l'importance de la gestion des données lors de la préparation d'ensembles de données pour la formation de grands modèles de langage. Cela fournit des informations très précieuses à un large éventail de personnes au sein de la communauté.

Document 3 : AppWorld : un monde contrôlable d'applications et de personnes pour l'analyse comparative des agents de codage interactifs

  • Institutions : State University of New York at Stony Brook, Allen Institute for Artificial Intelligence, etc.
  • Auteurs : Harsh Trivedi, Tushar Khot, etc.
  • Lien : https://arxiv.org/abs/2407.18901

Raisons du prix : Cette recherche est un travail très important et étonnant dans la construction de simulation et d'évaluation d'environnements interactifs. Cela encouragera tout le monde à produire des références dynamiques plus rigoureuses pour la communauté.

Prix ​​de l'impact social

3 articles ont remporté le Social Impact Award.

Sujet 1 : Comment Johnny peut persuader les LLM de les jailbreaker : repenser la persuasion pour remettre en question la sécurité de l'IA en humanisant les LLM

  • Auteurs : Yi Zeng, Hongpeng Lin, Jingwen Zhang, Diyi Yang, etc.
  • Institutions : Virginia Tech, Renmin University of China, University of California, Davis, Stanford University
  • Lien papier : https://arxiv.org/pdf/2401.06373

Raison de l'attribution : Cet article explore le thème de la sécurité de l'IA - le jailbreak, en étudiant une méthode développée dans le domaine de la recherche en sciences sociales. La recherche est très intéressante et pourrait avoir un impact significatif sur la communauté.

Article 2 : DIALECTBENCH : Une référence en PNL pour les dialectes, les variétés et les langues étroitement liées

  • Auteurs : Fahim Faisal, Orevaoghene Ahia, Aarohi Srivastava, Kabir Ahuja, etc.
  • Institutions : Université George Mason, Université de Washington, Université de Notre Dame, RC Athena
  • Lien papier : https://arxiv.org/pdf/2403.11009

Raison du prix : La variation dialectale est un phénomène peu étudié dans les domaines de la PNL et de l’intelligence artificielle. Cependant, du point de vue du langage et de la société, ses recherches sont d’une très grande valeur et ont d’importantes implications en termes d’applications. Cet article propose un benchmark très nouveau pour étudier ce problème à l'ère du LLM.

Article 3 : Boire de la bière après la prière ? Mesurer les préjugés culturels dans les grands modèles linguistiques

  • Auteurs : Tarek Naous, Michael J. Ryan, Alan Ritter, Wei Xu
  • Institution : Institut de technologie de Géorgie
  • Lien papier : https://arxiv.org/pdf/2305.14456

Raisons du prix : Cet article démontre un problème important à l'ère du LLM : les préjugés culturels. Cet article étudie la culture arabe et l'environnement linguistique et les résultats montrent que nous devons prendre en compte les différences culturelles lors de la conception des LLM. Par conséquent, la même étude peut être reproduite dans d’autres cultures pour généraliser et évaluer si d’autres cultures sont également affectées par ce problème.