I 38 documenti di Alibaba Cloud sono stati accettati da ACL, la conferenza più importante, e il team di Tongyi ha rivelato una serie di tecnologie all'avanguardia di grandi dimensioni
2024-08-14
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Zhang Yunshan, giornalista cliente di Chao News
La conferenza annuale ACL 2024, la principale conferenza accademica nel campo della linguistica computazionale e dell'elaborazione del linguaggio naturale, si è tenuta in Tailandia questa settimana. Un totale di 38 documenti di alto livello di Alibaba Cloud sono stati accettati dalla conferenza, tra cui molti modelli di grandi dimensioni. documenti correlati del team Tongyi Qianwen, che coprono argomenti di ampia portata sulla tecnologia Model SFT, capacità di gioco di ruolo LLM, benchmark di valutazione del modello multimodale, ecc. Lo stand di Tongyi alla conferenza di Bangkok è stato seguito da ricercatori e sviluppatori di PNL provenienti da tutto il mondo, e Tongyi è diventato il modello cinese più visto sulla scena.
Questa settimana si terrà in Thailandia il meeting annuale ACL 2024
L'incontro annuale ACL dell'Associazione per la Linguistica Computazionale è organizzato dall'Associazione Internazionale per la Linguistica Computazionale ed è la conferenza accademica numero 1 nel campo della linguistica computazionale e dell'elaborazione del linguaggio naturale. ACL 2024 è la 62a conferenza dell'associazione. La conferenza di quest'anno presta particolare attenzione al tema della "promozione della ricerca sull'elaborazione riproducibile del linguaggio naturale attraverso la scienza aperta, i dati aperti e i modelli aperti".
Alibaba Cloud è sempre stata una delle aziende tecnologiche con il maggior numero di documenti inclusi in ACL. Quest'anno sono stati inclusi un totale di 38 articoli, inclusi 16 documenti di conferenze principali. In qualità di rappresentante del potere "open source" dei grandi modelli cinesi, il team dei grandi modelli di Tongyi ha rivelato una serie di tecnologie all'avanguardia per i grandi modelli in questa conferenza e ha comunicato faccia a faccia con ricercatori e sviluppatori di PNL di tutto il mondo.
"I modelli linguistici di grandi dimensioni sono sovrapposizioni di tutti i personaggi: ottenere un gioco di ruolo arbitrario tramite l'autoallineamento" ha proposto per la prima volta la strategia di autoallineamento DITTO per il gioco di ruolo di modelli di grandi dimensioni, che ha migliorato significativamente le capacità di gioco di ruolo di LLM. Il team di Tongyi ha reso open source DITTO; "AIR-Bench: Benchmarking Large Audio-Language Models via Generative Comprehension" introduce il benchmark di valutazione del modello di comprensione del linguaggio audio AIR-Bench lanciato dal team Tongyi, che viene utilizzato per valutare l'istruzione generativa del modello in seguito all'abilità, colmando una lacuna in l'industria; "Come le abilità nei modelli linguistici di grandi dimensioni sono influenzate dalla composizione dei dati di ottimizzazione supervisionata" dimostra attraverso una serie di esperimenti come i dati SFT influiscono sulle capacità matematiche, di codice e di allineamento umano di LLM, che possono fornire un riferimento per ricercatori e sviluppatori nella loro attività SFT.
Gli sviluppatori stranieri hanno formato un ampio modello linguistico tailandese e un ampio modello linguistico del sud-est asiatico basato su Qwen
Dall'agosto 2023, Tongyi Qianwen ha reso open source dozzine di modelli LLM, multimodali e con capacità speciali e la serie Qwen di modelli open source è stata scaricata più di 20 milioni di volte.
Nel sud-est asiatico, il modello open source Tongyi Qianwen ha anche molti utenti fedeli. Nella comunità open source si possono spesso vedere grandi modelli per tailandese, vietnamita, sud-est asiatico e altre lingue basate sulla formazione Qwen. Ad esempio, l'ingegnere di Singapore Liu Gan ha addestrato il popolare modello di grandi dimensioni del sud-est asiatico basato su Qwen1.5, che copre una gamma completa di dimensioni come 0,5B, 1,8B, 4B, 7B e 14B. L'ingegnere vietnamita Nguyen Quan ha sviluppato un grande vietnamita; modello Ha detto: "Secondo la nostra valutazione di benchmark interna, il modello base Qwen2 supera tutti i modelli linguistici di grandi dimensioni closed source attualmente sul mercato."
In allegato: Elenco dei documenti Alibaba Cloud inclusi nell'ACL 2024
Elenco dei documenti Alibaba Cloud inclusi nell'ACL 2024
"In caso di ristampa indicare la fonte"