Les 38 articles d'Alibaba Cloud ont été acceptés par l'ACL, la conférence la plus importante, et l'équipe de Tongyi a dévoilé un certain nombre de technologies de pointe à grande échelle.
2024-08-14
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Zhang Yunshan, journaliste client de Chao News
La conférence annuelle ACL 2024, la plus grande conférence universitaire dans le domaine de la linguistique informatique et du traitement du langage naturel, s'est tenue cette semaine en Thaïlande. Au total, 38 articles de haut niveau d'Alibaba Cloud ont été acceptés par la conférence, dont de nombreux grands modèles. articles connexes de l'équipe Tongyi Qianwen, couvrant de vastes sujets, la technologie Model SFT, les capacités de jeu de rôle LLM, les références d'évaluation de modèles multimodaux, etc. Le stand Tongyi à la conférence de Bangkok a été observé par des chercheurs et développeurs en PNL du monde entier, et Tongyi est devenu le mannequin chinois le plus regardé sur les lieux.
La réunion annuelle de l'ACL 2024 se tient cette semaine en Thaïlande
La réunion annuelle de l'ACL de l'Association for Computational Linguistics est organisée par l'Association internationale pour la linguistique computationnelle et constitue la première conférence universitaire dans le domaine de la linguistique computationnelle et du traitement du langage naturel. ACL 2024 est la 62e conférence de l'association. La conférence de cette année accorde une attention particulière au thème de « la promotion de la recherche reproductible sur le traitement du langage naturel grâce à la science ouverte, aux données ouvertes et aux modèles ouverts ».
Alibaba Cloud a toujours été l'une des entreprises technologiques avec le plus grand nombre d'articles inclus dans ACL. Cette année, un total de 38 articles ont été inclus, dont 16 articles de conférence principaux. En tant que représentant de la puissance « open source » des grands modèles chinois, l'équipe des grands modèles de Tongyi a dévoilé un certain nombre de technologies de pointe pour les grands modèles lors de cette conférence et a communiqué en face-à-face avec des chercheurs et des développeurs PNL du monde entier.
"Les grands modèles de langage sont des superpositions de tous les personnages : atteindre un jeu de rôle arbitraire via l'auto-alignement" a d'abord proposé la stratégie d'auto-alignement DITTO pour le jeu de rôle sur grands modèles, qui a considérablement amélioré les capacités de jeu de rôle de LLM. DITTO ; "AIR-Bench : Benchmarking Large Audio-Language Models via Generative Comprehension" présente le benchmark d'évaluation du modèle de compréhension du langage audio AIR-Bench lancé par l'équipe Tongyi, qui est utilisé pour évaluer la capacité de suivi d'instructions génératives du modèle, comblant ainsi une lacune dans l'industrie ; « Comment les capacités dans les grands modèles de langage sont affectées par la composition des données de réglage fin supervisé » démontre à travers une série d'expériences comment les données SFT affectent les capacités mathématiques, de code et d'alignement humain de LLM, ce qui peut fournir une référence aux chercheurs et aux développeurs. dans leur travail SFT.
Les développeurs étrangers ont formé un grand modèle linguistique thaïlandais et un grand modèle linguistique d'Asie du Sud-Est basé sur Qwen.
Depuis août 2023, Tongyi Qianwen a mis en open source des dizaines de modèles LLM, multimodaux et à capacités spéciales, et la série Qwen de modèles open source a été téléchargée plus de 20 millions de fois.
En Asie du Sud-Est, le modèle open source Tongyi Qianwen compte également de nombreux utilisateurs fidèles. De grands modèles pour le thaï, le vietnamien, l'Asie du Sud-Est et d'autres langues basés sur la formation Qwen peuvent souvent être vus dans la communauté open source. Par exemple, l'ingénieur singapourien Liu Gan a formé le grand modèle Sailor populaire d'Asie du Sud-Est basé sur Qwen1.5, couvrant une gamme complète de tailles telles que 0,5B, 1,8B, 4B, 7B et 14B. L'ingénieur vietnamien Nguyen Quan a développé un grand vietnamien ; Il a déclaré : « Selon notre évaluation de référence interne, le modèle de base Qwen2 surpasse tous les grands modèles de langages fermés actuellement sur le marché. »
Ci-joint : Liste des documents Alibaba Cloud inclus dans l'ACL 2024
Liste des documents Alibaba Cloud inclus dans l'ACL 2024
"Veuillez indiquer la source lors de la réimpression"