noticias

Los 38 artículos de Alibaba Cloud fueron aceptados por ACL, la conferencia más importante, y el equipo de Tongyi reveló una serie de tecnologías de vanguardia de modelos grandes.

2024-08-14

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

El reportero cliente de Chao News, Zhang Yunshan
La Conferencia Anual ACL 2024, la conferencia académica más importante en el campo de la lingüística computacional y el procesamiento del lenguaje natural, se celebró en Tailandia esta semana. La conferencia aceptó un total de 38 artículos de alto nivel de Alibaba Cloud, incluidos muchos modelos de gran tamaño. artículos relacionados del equipo de Tongyi Qianwen, que cubren grandes temas: tecnología Model SFT, capacidades de juego de roles LLM, puntos de referencia de evaluación de modelos multimodales, etc. El stand de Tongyi en la conferencia de Bangkok fue visto por investigadores y desarrolladores de PNL de todo el mundo, y Tongyi se convirtió en el modelo chino más visto en la escena.
La reunión anual de ACL 2024 se celebra en Tailandia esta semana
La Reunión Anual ACL de la Asociación de Lingüística Computacional está organizada por la Asociación Internacional de Lingüística Computacional y es la conferencia académica número uno en el campo de la lingüística computacional y el procesamiento del lenguaje natural. ACL 2024 es la 62ª conferencia de la asociación. La conferencia de este año presta especial atención al tema de "promover la investigación del procesamiento del lenguaje natural reproducible a través de ciencia abierta, datos abiertos y modelos abiertos".
Alibaba Cloud siempre ha sido una de las empresas de tecnología con mayor número de artículos incluidos en ACL. Este año se han incluido un total de 38 artículos, incluidos 16 artículos de conferencias principales. Como representante del poder de "código abierto" de los grandes modelos de China, el equipo de grandes modelos de Tongyi reveló una serie de tecnologías de vanguardia para modelos grandes en esta conferencia y se comunicó cara a cara con investigadores y desarrolladores de PNL de todo el mundo.
"Los modelos de lenguaje grandes son superposiciones de todos los personajes: lograr un juego de roles arbitrario a través de la autoalineación" propuso por primera vez la estrategia de autoalineación DITTO para juegos de roles de modelos grandes, que mejoró significativamente las capacidades de juego de roles de LLM. El equipo de Tongyi ha abierto el código fuente. DITTO; "AIR-Bench: Evaluación comparativa de grandes modelos de lenguaje de audio mediante comprensión generativa" presenta el punto de referencia de evaluación del modelo de comprensión del lenguaje de audio AIR-Bench lanzado por el equipo de Tongyi, que se utiliza para evaluar la capacidad de seguimiento de la instrucción generativa del modelo, llenando un vacío en la industria "Cómo las capacidades en modelos de lenguaje grandes se ven afectadas por la composición de datos de ajuste fino supervisado" demuestra a través de una serie de experimentos cómo los datos SFT afectan las capacidades matemáticas, de código y de alineación humana de LLM, lo que puede proporcionar una referencia para investigadores y desarrolladores; en su trabajo de OFV.
Los desarrolladores extranjeros entrenaron un gran modelo de idioma tailandés y un gran modelo de idioma del sudeste asiático basado en Qwen.
Desde agosto de 2023, Tongyi Qianwen ha abierto docenas de modelos LLM, multimodales y de capacidad especial, y la serie Qwen de modelos de código abierto se ha descargado más de 20 millones de veces.
En el sudeste asiático, el modelo de código abierto Tongyi Qianwen también tiene muchos usuarios leales. En la comunidad de código abierto a menudo se pueden ver modelos grandes para tailandés, vietnamita, sudeste asiático y otros idiomas basados ​​​​en la capacitación de Qwen. Por ejemplo, el ingeniero de Singapur Liu Gan entrenó el popular modelo grande del sudeste asiático Sailor basado en Qwen1.5, cubriendo una gama completa de tamaños como 0.5B, 1.8B, 4B, 7B y 14B. El ingeniero vietnamita Nguyen Quan desarrolló un gran modelo vietnamita; modelo Dijo: "Según nuestra evaluación comparativa interna, el modelo básico Qwen2 supera todos los modelos de lenguajes grandes de código cerrado actualmente en el mercado".
Adjunto: Lista de documentos de Alibaba Cloud incluidos en ACL 2024
Lista de artículos de Alibaba Cloud incluidos en ACL 2024
"Por favor indique la fuente al reimprimir"
Informe/Comentarios