notizia

dopo 16 mesi dalla sua fondazione, wuwen core qiong mira a diventare l'"operatore di potenza informatica" di prima scelta nell'era dei modelli di grandi dimensioni.

2024-09-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

immagini e informazioni di questo giornale
infinigence ai, una startup di infrastrutture di grandi dimensioni, ha annunciato oggi di aver completato quasi 500 milioni di yuan in finanziamenti di serie a. finora, wuwen xinqiong, fondata solo da 16 mesi, ha completato finanziamenti per quasi 1 miliardo di yuan.
xia lixue, co-fondatore e ceo di wuwen xinqiong, ritiene che la nuova "ottava legge" portata dall'ondata di ai 2.0 debba risolvere solo il 20% dei problemi tecnici chiave per supportare l'80% della generalizzazione dello scenario verticale, e l'ecosistema della potenza di calcolo della cina stiamo affrontando squilibri nella domanda e nell'offerta e una distribuzione non uniforme delle risorse, che senza dubbio crea opportunità per wuwenxinqiong di lavorare insieme a monte e a valle per ottenere un'integrazione efficiente di potenza di calcolo diversa ed eterogenea.
wuwen xinqiong ha affermato che i fondi raccolti da questo finanziamento verranno utilizzati per rafforzare il reclutamento di talenti tecnici e la ricerca e sviluppo tecnologico, mantenere la leadership tecnologica della collaborazione software e hardware, nonché promuovere ulteriormente la diversificazione e l'eterogeneità della commercializzazione dei prodotti e mantenerli; cloud eterogeneo infini-ai una stretta integrazione tra i prodotti della piattaforma e il mercato rafforza la cooperazione ecologica, attiva risorse di calcolo di cluster eterogenei, costruisce una base di potenza di calcolo dell'intelligenza artificiale che supporta "tipi m di modelli" e "tipi n di chip" e funge da piattaforma; "super amplificatore della potenza di calcolo del modello ai" "...wuwen xinqiong si impegnerà a diventare l'"operatore di potenza di calcolo" di prima scelta nell'era dei modelli di grandi dimensioni.
essere un "super amplificatore" per la potenza di calcolo del modello ai
l’effettiva scala industriale che i modelli di grandi dimensioni possono supportare dipende dall’effettiva potenza di calcolo disponibile del modello ai. wuwen core qiong ritiene che l'effettiva potenza di calcolo disponibile di un modello di grandi dimensioni non dipenda solo dalla potenza di calcolo teorica del chip, ma possa anche amplificare l'efficienza di utilizzo della potenza di calcolo attraverso coefficienti di ottimizzazione e amplificare la scala di potenza di calcolo complessiva attraverso la dimensione del cluster pertanto, wuwen core qiong ha proposto la formula "potenza di calcolo del chip × coefficiente di ottimizzazione (collaborazione software e hardware) × dimensione del cluster (multiplo eterogeneo) = potenza di calcolo del modello ai". seguendo questa formula, wuwen core qiong continuerà a migliorare l'utilizzo della potenza di calcolo dei chip in attività di modelli di grandi dimensioni attraverso la tecnologia di ottimizzazione congiunta di software e hardware, e migliorerà l'utilizzo della potenza di calcolo del cluster ed espanderà l'utilizzo della potenza di calcolo del cluster attraverso più calcoli eterogenei tecnologia di adattamento della potenza. l'alimentazione elettrica complessiva del settore.
in termini di ottimizzazione congiunta di software e hardware, wuwen xinqiong ha notevolmente migliorato il tasso di utilizzo dell'hardware mainstream ed eterogeneo attraverso la sua tecnologia di accelerazione dell'inferenza auto-sviluppata flashdecoding++, superando la precedente sota e completando numerosi modelli open source mainstream di grandi dimensioni in amd, huawei ascend, è stato adattato a più di 10 tipi di schede informatiche come biren, cambrian, suiyuan, haiguang, tianshu zhixin, muxi, moore thread, nvidia, ecc. e ha ottenuto risultati di accelerazione di inferenza leader del settore su alcune schede informatiche . soddisfare in modo efficiente la crescente domanda di ragionamenti su modelli di grandi dimensioni in vari settori. sulla base dei risultati di ottimizzazione ottenuti da questa soluzione, wuwen core dome ha firmato una collaborazione strategica con amd per promuovere congiuntamente il miglioramento delle prestazioni delle applicazioni ia commerciali.
in termini di adattamento multi-eterogeneo della potenza di calcolo, wuwen xinqiong dispone anche di capacità di adattamento e clustering eterogenee che sono scarse nel settore. il sistema di formazione ibrido distribuito eterogeneo su larga scala hethub rilasciato a luglio è la prima volta nel settore. promosso da huawei. un totale di sei combinazioni "4+2" di chip, tra cui tianshu zhixin, muxi, moore threads, amd e nvidia, sono state utilizzate per ottenere un allenamento misto di potenza di calcolo eterogenea su scala di kilocalorie raggiunge un massimo del 97,6%, con una media alta. la soluzione benchmark è migliore di circa il 30%, il che significa che nelle stesse condizioni di una sala computer multi-chip o di cluster, wuwen core dome può comprimere il tempo totale di addestramento del 30%.
fornire funzionalità full-stack per l'utilizzo di potenza di calcolo eterogenea e lo sviluppo di applicazioni di modelli di grandi dimensioni
negli ultimi anni, il model layer e il chip layer hanno gradualmente formato un modello di "convergenza a doppia testa" a livello internazionale, mentre il model layer e il chip layer cinesi continuano a presentare un modello "m×n" costituito da "tipi di modelli m" e " n tipi di patatine" . tuttavia, diverse piattaforme hardware devono adattarsi a diversi stack software e catene di strumenti, ed esiste da tempo un fenomeno di "silos ecologico" tra chip eterogenei che è difficile da usare simultaneamente. poiché sempre più chip di potenza di calcolo eterogenei prodotti a livello nazionale vengono utilizzati nei cluster di potenza di calcolo locali in tutto il paese, il problema della potenza di calcolo eterogenea che è difficile da utilizzare in modo efficace è diventato sempre più grave e gradualmente è diventato un collo di bottiglia nello sviluppo dell'industria dei modelli di grandi dimensioni in cina. .
facendo affidamento sui vantaggi della collaborazione software e hardware e della tecnologia multi-eterogenea, wuwen core dome ha creato la piattaforma cloud eterogenea infini-ai basata sulla base di potenza di calcolo multi-chip. la piattaforma è retrocompatibile con più chip di potenza di calcolo eterogenei e può effettivamente attivare potenza di calcolo eterogenea dormiente in tutto il paese. la potenza di calcolo attualmente in funzione copre 15 città in tutto il paese. inoltre, la piattaforma cloud eterogenea infini-ai comprende anche una piattaforma ai unica (aistudio) e una piattaforma di servizi per modelli di grandi dimensioni (genstudio). dal lancio della piattaforma, molti clienti leader in settori di modelli di grandi dimensioni come kimi, liblibai, liepin, shengshu technology e zhipu ai hanno utilizzato stabilmente la potenza di calcolo eterogenea sulla piattaforma cloud eterogenea infini-ai e hanno goduto dello sviluppo di modelli di grandi dimensioni senza problemi servizio di catena di strumenti fornito da core dome.
la piattaforma cloud eterogenea infini-ai non solo può aiutare i clienti a valle a proteggere facilmente le differenze hardware e a utilizzare la potenza di calcolo eterogenea sottostante in modo continuo ed efficiente, ma risolverà anche efficacemente il dilemma ecologico della potenza di calcolo eterogenea domestica e accelererà la graduale trasformazione del livello superiore applicazioni al calcolo eterogeneo la migrazione della base di potenza di calcolo integra ed espande efficacemente la portata della potenza di calcolo disponibile nell'industria modello nazionale su larga scala, trasforma veramente la potenza di calcolo eterogenea in una grande potenza di calcolo utilizzabile, sufficiente e facile da usare. e aiuta a costruire una potenza di calcolo localizzata con caratteristiche cinesi.
autore: shen qiusha
testo: shen qiusha immagini: fornite dall'intervistato redattore: shen qiusha redattore: ren quan
si prega di indicare la fonte quando si ristampa questo articolo.
segnalazione/feedback