Nachricht

Die 38 Beiträge von Alibaba Cloud wurden von der Top-Konferenz ACL angenommen und das Tongyi-Team stellte eine Reihe großer, innovativer Technologien vor

2024-08-14

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Chao News-Kundenreporter Zhang Yunshan
Die ACL-Jahreskonferenz 2024, die führende akademische Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache, fand diese Woche in Thailand statt. Insgesamt wurden 38 hochrangige Beiträge von Alibaba Cloud angenommen, darunter viele große Modellvorträge. Verwandte Artikel des Tongyi Qianwen-Teams zu großen Themen, Modell-SFT-Technologie, LLM-Rollenspielfunktionen, multimodale Modellbewertungs-Benchmarks usw. Der Tongyi-Stand auf der Bangkok-Konferenz wurde von NLP-Forschern und -Entwicklern aus der ganzen Welt beobachtet und Tongyi wurde zum meistgesehenen chinesischen Model vor Ort.
Die ACL-Jahrestagung 2024 findet diese Woche in Thailand statt
Die ACL-Jahrestagung der Association for Computational Linguistics wird von der International Association for Computational Linguistics organisiert und ist die wichtigste akademische Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. ACL 2024 ist die 62. Konferenz des Vereins. Die diesjährige Konferenz widmet sich dem Thema „Förderung reproduzierbarer Forschung zur Verarbeitung natürlicher Sprache durch offene Wissenschaft, offene Daten und offene Modelle“.
Alibaba Cloud war schon immer eines der Technologieunternehmen mit der höchsten Anzahl an Beiträgen im ACL. In diesem Jahr wurden insgesamt 38 Artikel aufgenommen, darunter 16 Hauptkonferenzbeiträge. Als Vertreter der „Open-Source“-Macht der chinesischen Großmodelle stellte das Großmodellteam von Tongyi auf dieser Konferenz eine Reihe hochmoderner Großmodelltechnologien vor und kommunizierte persönlich mit NLP-Forschern und -Entwicklern aus der ganzen Welt.
„Große Sprachmodelle sind Überlagerungen aller Charaktere: Erzielung willkürlicher Rollenspiele durch Selbstausrichtung“ schlug zunächst die Selbstausrichtungsstrategie DITTO für Rollenspiele mit großen Modellen vor, die die Rollenspielfähigkeiten von LLM erheblich verbesserte DITTO; „AIR-Bench: Benchmarking Large Audio-Language Models via Generative Comprehension“ stellt den vom Tongyi-Team ins Leben gerufenen Benchmark zur Bewertung des Audio-Sprachverständnismodells AIR-Bench vor, der zur Bewertung der generativen Befehlsfolgefähigkeit des Modells verwendet wird und eine Lücke schließt die Branche; „Wie Fähigkeiten in großen Sprachmodellen durch überwachte Feinabstimmung der Datenkomposition beeinflusst werden“ demonstriert anhand einer Reihe von Experimenten, wie sich SFT-Daten auf die mathematischen, Code- und menschlichen Ausrichtungsfähigkeiten von LLM auswirken, was als Referenz für Forscher und Entwickler dienen kann in ihrer SFT-Arbeit.
Ausländische Entwickler trainierten ein großes thailändisches Sprachmodell und ein großes südostasiatisches Sprachmodell basierend auf Qwen
Seit August 2023 hat Tongyi Qianwen Dutzende LLM-, multimodale und Spezialfähigkeitsmodelle als Open-Source-Modelle bereitgestellt, und die Qwen-Reihe von Open-Source-Modellen wurde mehr als 20 Millionen Mal heruntergeladen.
In Südostasien hat das Open-Source-Modell Tongyi Qianwen auch viele treue Benutzer. Große Modelle für Thailändisch, Vietnamesisch, Südostasien und andere Sprachen, die auf Qwen-Training basieren, sind häufig in der Open-Source-Community zu sehen. Beispielsweise hat der singapurische Ingenieur Liu Gan das beliebte südostasiatische Großmodell Sailor auf Basis von Qwen1.5 trainiert, das eine ganze Reihe von Größen wie 0,5B, 1,8B, 4B, 7B und 14B abdeckt; der vietnamesische Ingenieur Nguyen Quan hat ein großes vietnamesisches Modell entwickelt Er sagte: „Laut unserer internen Benchmark-Bewertung übertrifft das Qwen2-Basismodell alle derzeit auf dem Markt befindlichen Closed-Source-Modelle für große Sprachen.“
Anbei: Liste der in ACL 2024 enthaltenen Alibaba Cloud-Dokumente
Liste der in ACL 2024 enthaltenen Alibaba Cloud-Artikel
„Bitte geben Sie beim Nachdruck die Quelle an“
Bericht/Feedback