notizia

Zhou Chang, la spina dorsale tecnica di Alibaba Tongyi Qianwen, si dimetterà, ma l'ultimo giorno non è ancora avvenuto

2024-07-18

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Rapporto sul cuore della macchina

Dipartimento editoriale di Machine Heart

Oggi, ci sono notizie di mercato secondo cui Zhou Chang (soprannome: Zhong Huang), la spina dorsale tecnica di Alibaba Tongyi Qianwen, si è dimesso per avviare un'impresa. Secondo Machine Heart News, Zhou Chang si dimetterà effettivamente, ma la data definitiva delle dimissioni non è ancora arrivata.

Zhou Chang è una figura importante nel grande modello di Tongyi Qianwen. Dal 2020 al 2021, ha guidato il team per progettare e implementare il modello di pre-addestramento multimodale su larga scala M6, facendo passi avanti nel numero di parametri e nella modalità di addestramento a basse emissioni di carbonio. Quest'anno, il modello open source Owen1.5-72B di Tongyi Qianwen è diventato il primo modello open source nell'elenco delle prestazioni del modello HuggingFace (ChatArena) ed è anche una delle serie di modelli comunemente utilizzate nella comunità open source.

In precedenza, Zhou Chang ha svolto un ruolo importante in numerosi progetti durante la sua permanenza alla DAMO Academy, come lo sviluppo di un'APP per algoritmi di rappresentazione grafica di prodotti su larga scala, il framework di rappresentazione utente ATRank e la serie CLRec di algoritmi di richiamo vettoriale basati su self -Apprendimento contrastivo supervisionato.

Zhou Chang si è laureato in informatica e tecnologia presso l'Università di Fudan nel 2012 e nel 2017 ha conseguito un dottorato in software e teoria per computer presso l'Università di Pechino. È entrato in Alibaba attraverso il reclutamento scolastico e ha lavorato presso Alibaba per più di otto anni .

È specializzato in deep learning, graph mining e calcolo distribuito. Ha pubblicato più di 30 articoli in importanti conferenze internazionali nei campi dell'apprendimento automatico, del data mining e dei database e funge da revisore per conferenze accademiche come NeurIPS/ICML/KDD. /WWW. I risultati della ricerca del team di Zhou Chang hanno vinto il primo premio del Premio per il progresso scientifico e tecnologico della China Electronics Society e il Team leader per l'innovazione e l'imprenditorialità di Hangzhou.

Secondo Workplace Bonus, la valutazione di Zhou Chang da parte degli addetti ai lavori di Alibaba è: “Vuole davvero creare un modello di grandi dimensioni che sia più generico, piuttosto che verticale rispetto a un singolo campo e scenario”.

Al momento, lo stesso Zhou Chang non ha risposto al prossimo piano.



A proposito di Tongyi Qianwen

Tongyi Qianwen è un modello linguistico su larga scala sviluppato in modo indipendente da Alibaba Tongyi Laboratory è un laboratorio di elaborazione del linguaggio naturale del gruppo Alibaba, dedicato alla ricerca e allo sviluppo di tecnologie generali di elaborazione del linguaggio naturale per ciascuna unità aziendale del gruppo fornisce servizi di elaborazione intelligente del linguaggio. L'attuale capo del Laboratorio Alibaba Tongyi è Zhou Jingren.

Il 7 aprile 2023, Tongyi Qianwen ha iniziato i test su invito.

L’11 aprile 2023, tutti i prodotti Alibaba saranno collegati al grande modello Tongyi Qianwen per una trasformazione completa in futuro.

Nell'agosto 2023, Tongyi Qianwen ha reso open source il modello qwen-7b.

Nel settembre 2023, Tongyi Qianwen è stato ufficialmente aperto al pubblico; il 25 dello stesso mese, Alibaba Cloud ha annunciato che il modello open source Tongyi Qianwen da 14 miliardi di parametri Qwen-14B e il suo modello di conversazione Qwen-14B-Chat sono gratuiti per la pubblicità. utilizzo.

Il 31 ottobre 2023, Tongyi Qianwen 2.0 è stato ufficialmente aggiornato e rilasciato e di conseguenza è stata rilasciata anche l'app Tongyi Qianwen.

Il 1° dicembre 2023, Alibaba Cloud ha reso open source il modello Tongyi Qianwen da 72 miliardi di parametri Qwen-72B, il modello da 1,8 miliardi di parametri Qwen-1.8B e il modello audio di grandi dimensioni Qwen-Audio. Finora, Tongyi Qianwen ha raggiunto l'open source "full-size, full-modality", con un totale di 4 grandi modelli linguistici con 1,8 miliardi, 7 miliardi, 14 miliardi e 72 miliardi di parametri open source, oltre a due multi- modalità modali: comprensione visiva e comprensione uditiva. Modello grande.

Il 4 gennaio 2024, l'app Tongyi Qianwen ha lanciato la funzione "Tongyi Dance King".

Il 26 gennaio 2024, il modello di comprensione visiva Tongyi Qianwen Qwen-VL ha lanciato la versione Max.

Il 22 marzo 2024 la lunga funzione di elaborazione dei documenti da 10 milioni di parole sarà aperta a tutti gratuitamente.

Il 29 marzo 2024, il primo modello MoE Qwen1.5-MoE-A2.7B è stato reso open source.

Il 3 aprile 2024, Tongyi Lingma è stato lanciato ufficialmente sull'APP Tongyi Qianwen ed è aperto al pubblico gratuitamente.

Il 7 aprile 2024, il modello da 32 miliardi di parametri Qwen1.5-32B era open source.

Il 28 aprile 2024 è stato lanciato il modello di parametri con livelli di 100 miliardi Qwen1.5-110B.

Il 9 maggio 2024, il modello grande Tongyi Qianwen 2.5 è stato rilasciato e ribattezzato Tongyi.

A partire da maggio 2024, Tongyi Qianwen ha fornito 8 principali modelli di settore, che coinvolgono programmazione, lettura, elaborazione audio e video, creazione di personaggi, finanza, servizio clienti, salute, diritto e altri campi, che possono essere applicati alla scrittura di codici, alla lettura di codici, e controllare i BUG, ​​ottimizzare il codice, ottenere feed di testo lunghi e panoramiche, elaborare contenuti audio e video, creare personaggi personalizzati, interpretare rapporti finanziari e rapporti di ricerca, analizzare eventi del settore finanziario e altri scenari.