notizia

uno sguardo diretto allo stato attuale dei chip ia domestici: produzione sanguigna di gpu, raid tpu, chiplet che stanno diventando una tendenza e colli di bottiglia della rete

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

autore |.gacs

xinxi ha riferito il 6 settembre che oggi si è aperto a pechino l’annuale global ai chip summit (gacs 2024). la sede era piena di posti a sedere e il numero di spettatori della trasmissione in diretta sul cloud ha raggiunto 1,2 milioni.

▲c'era un'enorme folla di persone dentro e fuori dal locale.

la conferenza è stata sponsorizzata da core east west e intelligent orangutan di zhiyi technology. con il tema "costruire strade centrali insieme nell'era dell'informatica intelligente", la conferenza ha invitato oltre 50 ospiti dai campi dei chip ai, dei chiplet, del risc-v e dell'intelligenza artificiale. cluster informatici, ai infra e altri campi gli ospiti condivideranno informazioni utili durante l'incontro.

è il quinto anniversario della fondazione dell'unicorno gpgpu nazionale biren technology. alla conferenza, biren technology ha annunciato di aver raggiunto una svolta nella tecnologia di base per la formazione mista multi-core e di aver creato per la prima volta una soluzione di formazione collaborativa gpu eterogenea nel settore, può supportare 3 o più tipi eterogenei di gpu per lo stesso modello di grandi dimensioni.

▲biren technology lancia la soluzione di formazione collaborativa gpu eterogenea nazionale hgct

gong lunchang, co-fondatore e ceo di zhiyi technology, ha tenuto un discorso in qualità di organizzatore quest'anno è il settimo anno in cui si tiene il global ai chip summit. il vertice è diventato la conferenza del settore più influente in questo campo in cina è un buon posto per comprendere lo sviluppo dei chip ai in patria e all'estero finestre importanti dinamiche.

▲gong lunchang, co-fondatore e ceo di zhiyi technology

il global ai chip summit dura due giorni. la sede principale comprende la cerimonia di apertura e tre sessioni principali (architettura dei chip ai, chip ai del data center, chip ai edge). e forum sull'innovazione risc-v.

alla cerimonia di apertura, yin shouyi, professore dell'università di tsinghua e vice preside della scuola di circuiti integrati, ha tenuto un discorso dal titolo "discussione sul percorso di sviluppo dei chip di potenza ad alto rendimento: dall'architettura informatica all'architettura integrata", esaminando sistematicamente chip ad alta potenza di calcolo, sfide tecniche esistenti e analizzare in modo completo cinque percorsi tecnologici innovativi: chip per il flusso di dati, chip di archiviazione e calcolo integrati, chip riconfigurabili, chip integrati tridimensionali e chip a livello di wafer.

oggi si confronteranno 21 esperti, imprenditori e dirigenti delle migliori università, istituti di ricerca e aziende produttrici di chip di intelligenza artificiale. tra questi, la sessione di dialogo di fascia alta ha invitato i rappresentanti di tre startup di chip ai a discutere appassionatamente, vale a dire biren technology, un unicorno di chip domestico ad alta potenza, aixin yuanzhi, un unicorno di chip ai lato dispositivo e lato edge, e un'azienda che solo lingchuan technology, una giovane startup di chip ai fondata sei mesi fa. si sono concentrati sulla discussione dello stato attuale, delle pratiche più recenti e delle direzioni avanzate del settore dei chip ai.

1. risolvere le sfide della domanda e dell'offerta di potenza di calcolo di modelli su larga scala e innovare l'architettura per superare i colli di bottiglia delle prestazioni

yin shouyi, professore alla tsinghua university e vicepreside della scuola di circuiti integrati, ha spiegato le difficoltà tra domanda e offerta di potenza di calcolo nell'era dei grandi modelli: la tecnologia dei chip deve affrontare limiti di ridimensionamento, rendendo l'aumento della potenza di calcolo portato da i dividendi del processo sono insostenibili; il sistema si trova ad affrontare un collo di bottiglia, una larghezza di banda di comunicazione insufficiente porta alla perdita di prestazioni del sistema.

l’opportunità di risolvere questi due problemi principali risiede nell’innovazione congiunta dell’architettura informatica dei chip e dell’architettura integrata: l’innovazione nell’architettura informatica consente a ciascun transistor di essere pienamente utilizzato ed esercitare una potenza di calcolo più forte. l’innovazione nell’architettura integrata consente alla scala dei chip di sfondare i limiti.

attualmente esistono cinque nuovi percorsi tecnologici per lo sviluppo di chip ad alta potenza di calcolo: chip per il flusso di dati, chip riconfigurabili, chip di archiviazione e calcolo integrati, chip integrati tridimensionali e chip a livello di wafer. nessuno di questi percorsi si basa completamente sui processi di produzione più avanzati, che contribuiranno ad aprire nuovi spazi all’industria nazionale dei chip per migliorare la potenza di calcolo.

▲yin shouyi, professore all'università di tsinghua e vice preside della scuola di circuiti integrati

amd ha creato una linea di prodotti completa nel campo dell'infrastruttura ai end-to-end, che copre dai server dei data center, ai pc ai fino ai dispositivi embedded ed edge intelligenti, e fornisce software open source ai leader e un ecosistema aperto. la piattaforma del processore cpu amd progettata sulla base dell'architettura avanzata zen4 e gli acceleratori della serie mi basati sull'architettura cdna3 per il ragionamento e l'addestramento dell'intelligenza artificiale sono stati adottati da giganti come microsoft.

secondo wang hongqiang, direttore senior della divisione intelligenza artificiale di amd, amd sta anche promuovendo infrastrutture di rete ad alte prestazioni (ualink, ultra ethernet) nei data center, che sono fondamentali affinché le strutture di rete ai supportino la commutazione rapida e una latenza estremamente bassa e per espandere le prestazioni del data center ai è importante.

amd sta per rilasciare la prossima generazione di pc ai ad alte prestazioni. la sua npu ryzen ai basata sull'architettura xdna di seconda generazione può fornire una potenza di calcolo di 50 tops e aumentare il rapporto di efficienza energetica fino a 35 volte quello dell'architettura generica. spinti dalla spinta dei pc ai verso la privacy, la sicurezza e l'autonomia dei dati, importanti carichi di lavoro ai stanno iniziando a essere distribuiti sui pc. essendo uno dei principali fornitori di infrastrutture ia al mondo, amd è disposta a collaborare con clienti e sviluppatori per costruire un futuro trasformativo.

▲wang hongqiang, direttore senior della divisione intelligenza artificiale di amd

dal 2015, qualcomm innova continuamente la progettazione dell'hardware npu in base ai cambiamenti nei casi d'uso delle applicazioni ai. rappresentato dallo snapdragon 8 di terza generazione, qualcomm ai engine adotta un'architettura informatica eterogenea che integra più processori come cpu, gpu e npu. tra questi, qualcomm hexagon npu ottimizza le prestazioni e l'efficienza energetica attraverso memoria su larga scala, alimentazione dedicata per acceleratori, aggiornamenti di microarchitettura e altri progetti. l’intelligenza artificiale presenta numerosi casi d’uso e requisiti di potenza di calcolo variabili. pertanto, la domanda di elaborazione eterogenea e integrazione di processori esisterà per molto tempo, il che comporterà anche una serie di miglioramenti in termini di prestazioni di picco, efficienza energetica, costi, ecc.

la linea di prodotti qualcomm copre un'ampia gamma di scenari applicativi edge-side come telefoni cellulari, pc, xr, automobili e iot. può supportare gli sviluppatori nell'utilizzo delle soluzioni software e hardware ai di qualcomm per l'accelerazione degli algoritmi in diverse forme di prodotto, apportando ricchezza di vantaggi per i consumatori. esperienza di intelligenza artificiale sul dispositivo e casi d'uso. infine, wan weixing, capo di qualcomm ai product technology china, ha anche annunciato che la piattaforma mobile snapdragon di prossima generazione equipaggiata con l'ultima cpu qualcomm oryon sarà rilasciata allo snapdragon summit che si terrà dal 21 al 23 ottobre di quest'anno.

▲wan weixing, responsabile della tecnologia dei prodotti ai di qualcomm in cina

yang yue, co-fondatore e ceo di pingxin technology, ha analizzato il processo di avanzamento della tecnologia informatica e di archiviazione integrata. l’emergere e la crescita dei chip tradizionali nel settore sono strettamente correlati alle caratteristiche delle attuali esigenze informatiche intorno al 2015, il collo di bottiglia nell’architettura informatica è passato dal lato del processore a quello dello storage, in particolare l’emergere delle reti neurali, che ha subito un’accelerazione. l’efficienza computazionale dei chip ai con il ritmo del miglioramento, la tecnologia di archiviazione e elaborazione ha attirato l’attenzione.

yang yue ritiene che nell'era dei modelli di grandi dimensioni, l'opportunità per la tecnologia di archiviazione e elaborazione integrata sia quella di aggiungere l'elaborazione ovunque sia disponibile l'archiviazione dei dati. con il continuo sviluppo del software, quest'anno i chip lato terminale basati sullo storage e sull'elaborazione sono gradualmente maturati. in futuro, la risoluzione dei colli di bottiglia della larghezza di banda dei dati nel cloud potrebbe diventare la prossima killer application per i chip di archiviazione e di elaborazione.

▲yang yue, co-fondatore e ceo di pingxin technology

tan zhanhong, cto di arctic xiongxin, ha affermato che nel campo del calcolo ad alte prestazioni, esistono due diversi paradigmi nella progettazione dei server: forma server standard e architettura server personalizzata. sotto forma di server standard, arctic xiongxin si concentra sul raggiungimento di prestazioni di costo più elevate attraverso adeguate soluzioni di suddivisione e confezionamento dei chip all'interno dell'area limitata dallo standard, sotto forma di server non standard, offre opportunità di integrazione a livello di wafer, concentrandosi sull'integrazione di progettazione di chip e sistemi e di co-progettazione di server e chip, con l'obiettivo di raggiungere l'obiettivo del "server come chip".

in particolare, tan zhanhong ha sottolineato che diversi progetti di chip hanno requisiti di larghezza di banda diversi. ad esempio, nei processi superiori a 7 nm, combinati con l'ottimizzazione della comunicazione di implementazione, spesso non è richiesta un'elevata densità di larghezza di banda di interconnessione, quindi non è necessario un packaging avanzato può soddisfare i requisiti prestazionali e ottenere una soluzione economicamente vantaggiosa. l'ip pb-link di arctic xiongxin basato sul "core chip interconnect interface standard" ha ufficialmente realizzato un'interconnessione a basso costo di confezionamento e ha ora iniziato ad autorizzare soggetti esterni.

▲arctico xiongxin cto tan zhanhong

2. dialogo di alto livello: i chip di intelligenza artificiale domestica hanno migliorato le capacità ematopoietiche e i prodotti della start-up più giovane sono stati lanciati su kuaishou

zhang guoren, co-fondatore e redattore capo di zhiyi technology, e ding yunfan, vicepresidente e capo architetto del software ai di biren technology, liu li, co-fondatore e vicepresidente di lingchuan technology, e liu jianwei, co -il fondatore e vicepresidente di aixin yuanzhi, ha avviato la discussione una tavola rotonda sul tema "consenso, co-creazione e vantaggi per tutti per l'implementazione di chip di intelligenza artificiale domestica".

zhang guoren ha affermato all'inizio della tavola rotonda che il sesto ai chip summit, avviato da zhidongxi, coredongxi e zhiangzhi, è la conferenza professionale più longeva in questo campo in cina negli ultimi anni di chip ia e di modelli di grandi dimensioni ha visto anche l’ascesa di una serie di “nuove forze” produttrici di nuclei nazionali.

▲zhang guoren, co-fondatore e redattore capo di zhiyi technology

ding yunfan ha affermato che i chip di grande potenza di calcolo sono un settore ad alta intensità di tecnologia, talento e capitale. essendo l'unicorno di chip con il più grande finanziamento pubblico sul mercato, biren technology ha i migliori talenti. i suoi prodotti di prima generazione sono stati prodotti in serie e sono stati lanciati numerosi cluster di schede gpu domestiche, che possono generare sangue in modo indipendente. tuttavia, la situazione complessiva dell'industria nazionale dei chip non è ancora facile e c'è ancora un divario tra gli aspetti ecologici e quelli esteri.

molti chip ia domestici hanno iniziato a essere implementati nei data center e nei centri di calcolo intelligenti. secondo ding yunfan, i prodotti domestici di nvidia non sono molto convenienti. finché i chip domestici saranno in grado di offrire prestazioni elevate ed efficienza dei costi, ci sarà un mercato. attualmente ci sono sempre più notizie sul lancio dell'industria dei chip nazionali e sul miglioramento delle capacità emopoietiche. il divario con nvidia si ridurrà gradualmente.

▲ding yunfan, vicepresidente di biren technology e capo architetto di ai software

liu jianwei ritiene che il basso costo sia una parte molto importante e che le aziende alla fine dovranno saldare i conti e che i loro investimenti nelle infrastrutture dovranno essere recuperati. liu li ritiene che in futuro, nei percorsi segmentati come l'intelligenza incorporata e i video intelligenti, l'ingresso di più aziende porterà un valore maggiore rispetto ai prodotti generali, il che comprimerà le entrate e i profitti di nvidia.

lingchuan technology è una delle più giovani startup nazionali di chip ai. è stata fondata nel marzo di quest'anno e ha completato un round di finanziamento. i chip di elaborazione video intelligenti attualmente in vendita sono stati lanciati a kuaishou, rappresentando il 99% dell'utilizzo a kuaishou. campo dell'elaborazione video. si prevede che il chip di inferenza della potenza di calcolo verrà messo a punto all'inizio del prossimo anno.

secondo liu li, la finestra di mercato dei chip ai è ancora lontana dal chiudersi. di fronte ai vantaggi dei giganti in termini di risorse, fondi ed ecologia, le startup devono impegnarsi in settori verticali e segmentati. la tecnologia lingchuan combina l'elaborazione video intelligente e la potenza di calcolo dell'inferenza dell'intelligenza artificiale, con l'obiettivo di ridurre il costo di inferenza per token al 10% di nvidia h800.

▲liu li, cofondatore e vicepresidente di lingchuan technology

aixin yuanzhi, che si rivolge sia ai lati finali che ai bordi, ha ottenuto risultati notevoli in termini di quota di mercato. liu jianwei ritiene che questi due settori realizzeranno un ciclo commerciale chiuso più velocemente. ha aggiunto che produrre chip ia alla fine porterà soldi, ma il programma di profitto effettivo sarà influenzato da fattori come i costi di implementazione dell’ia e le aziende dovrebbero raggiungere l’autogenerazione e il ciclo chiuso il prima possibile. in futuro, aixin yuanzhi esplorerà gli scenari di implementazione di modelli di grandi dimensioni sul lato finale e sul lato bordo.

le spedizioni di prodotti di aixin yuanzhi nel settore automobilistico sono davvero impressionanti. liu jianwei ha affermato che ciò è dovuto al fatto che la tecnologia dei chip alla base delle città intelligenti e delle auto è simile. aixin yuanzhi ha accumulato tecnologie mature nelle città intelligenti e poi entrerà nella produzione di massa raggiunto presto. allo stesso tempo, la guerra dei prezzi nel settore automobilistico promuoverà la divisione industriale del lavoro, che rappresenta un periodo di opportunità.

▲liu jianwei, cofondatore e vicepresidente di aixin yuanzhi

per quanto riguarda il modo in cui i chip ai domestici possono trovare rapidamente una nicchia ecologica, liu jianwei ha preso come esempio la scena di sviluppo profondo di aixin yuanzhi. fondamentalmente non ci sono società straniere nelle città intelligenti. nel campo della guida intelligente, nvidia si sta sviluppando da 0 a 1, e da 1 a 100, la fase che presta maggiore attenzione ai costi è quella domestica. ding yunfan ha menzionato quattro elementi: garanzia di fornitura stabile e affidabile, rapporto costo-efficacia, servizi di supporto efficienti basati sulle esigenze dei clienti, efficienza e facilità d'uso. liu li ritiene che dovremmo approfondire i campi verticali e creare soluzioni più efficienti e ottimizzate rispetto ai chip generici.

guardando al futuro, liu jianwei prevede che nei prossimi 4-5 anni ci saranno grandi opportunità di sviluppo sia dal lato dei dispositivi che dal lato del cloud. una volta ridotti i costi di implementazione nel settore, i dati potranno realizzare un valore maggiore . liu li ritiene che, man mano che le applicazioni ia inaugurano un periodo esplosivo, ci sarà una grande quantità di richieste di ragionamento da parte del cloud. ding yunfan ha affermato che la potenza di calcolo di fascia alta è ancora scarsa in cina, ma la collaborazione della catena industriale può raggiungere uno sviluppo costante.

3. la costruzione di centri di calcolo intelligenti è in aumento: nuove scoperte in gpu, tpu domestico e chiplet stanno vincendo

durante la sessione sui chip ai del data center tenutasi nel pomeriggio, yu mingyang, capo di habana china, ha affermato che negli ultimi tre anni sono stati costruiti circa 50+ centri di calcolo intelligenti guidati dal governo e più di 60 sono in fase di pianificazione e costruzione la costruzione di centri di calcolo intelligenti è gradualmente passata dalle città di primo livello alle città di secondo e terzo livello, e da quelle guidate dal governo a quelle guidate dalle imprese, anche i requisiti per la riduzione dei costi e il ciclo di rendimento degli investimenti stanno gradualmente aumentando.

secondo la sua osservazione, lo sviluppo di modelli di grandi dimensioni sta diventando sempre più maturo e la domanda di inferenza continua a crescere. il tasso di crescita dei chip di inferenza autosviluppati da parte dei csp principali aumenterà. in futuro, potrebbero essere coltivate più aziende di chip eterogenee il lato inferenziale.

la domanda per la formazione di modelli di grandi dimensioni all'estero sarà ancora forte e la domanda di potenza di calcolo per la formazione di modelli nazionali è sostanzialmente saturata, principalmente a causa delle attività di perfezionamento. per supportare lo sviluppo futuro dell’intelligenza artificiale, l’integrazione di chiplet, memoria ad alta velocità di grande capacità e tecnologie di interconnessione privata/generale ad alta velocità svolgeranno un ruolo chiave.

▲ yu mingyang, capo dell'avana cina

per risolvere il problema dei silos di potenza di calcolo eterogenei per modelli di grandi dimensioni, ding yunfan, vicepresidente di biren technology e capo architetto del software ai, ha annunciato il lancio della soluzione di formazione collaborativa gpu eterogenea originale di biren, hgct. questa è la prima volta nel settore che supporta tre o più gpu eterogenee per addestrare in modo collaborativo lo stesso modello di grandi dimensioni, ovvero supporta la formazione mista con "nvidia + biren + gpu di altre marche". e l'efficienza della formazione end-to-end raggiunge il 90~95%.

bi ren sta lavorando con clienti e partner per promuovere congiuntamente l'eterogeneo ecosistema di formazione collaborativa gpu, tra cui china telecom, zte, sensetime, state grid intelligence research institute, shanghai intelligent computing technology co., ltd., shanghai artificial intelligence laboratory, china institute of tecnologia dell'informazione e della comunicazione, ecc.

i suoi prodotti sono stati distribuiti commercialmente in cluster gpu con più schede kilo. biren ha sviluppato un modello di soluzione globale di grandi dimensioni che integra software e hardware, ottimizzazione full-stack, collaborazione eterogenea e open source. per la prima volta, biren ha realizzato l'espansione e la contrazione elastica automatica di attività parallele 3d di grandi dimensioni, mantenendo il tasso di utilizzo del cluster quasi al 100%. ha ottenuto il ripristino automatico di 100 miliardi di modelli di parametri in cluster da 1000 carte in 10 minuti , nessun errore per 4 giorni e nessuna interruzione per 15 giorni.

▲ding yunfan, vicepresidente di biren technology e capo architetto di ai software

zheng hanxun, co-fondatore e cto di zhonghao xinying, ha affermato che i grandi modelli di intelligenza artificiale odierni superano di gran lunga la complessità computazionale e i requisiti di potenza di calcolo in qualsiasi momento della storia dell’informatica e richiedono chip specializzati che siano migliori nei calcoli dell’intelligenza artificiale. rispetto alla gpu, originariamente progettata per il rendering in tempo reale e l'elaborazione delle immagini, la tpu è progettata principalmente per l'apprendimento automatico, i modelli di apprendimento profondo e i calcoli della rete neurale l'efficienza di elaborazione è stata notevolmente migliorata rispetto alla gpu.

il chip "snap" auto-sviluppato di zhonghao xinying è il primo chip ai con architettura tpu ad alte prestazioni prodotto in serie in cina. dopo un calcolo completo delle prestazioni di elaborazione, dei costi e del consumo energetico, il costo unitario di elaborazione è solo il 50% di quello delle principali gpu straniere. . zheng hanxun ritiene che nelle fasi successive dello sviluppo del modello su larga scala, il miglior rapporto costo-efficacia dei cluster da kilo e 10.000 ka sarà cruciale. l'interconnessione diretta ad alta velocità tra un massimo di 1.024 chip nei chip setsana sarà un fattore critico nella creazione di cluster informatici su larga scala. le prestazioni possono superare di parecchie volte quelle delle gpu tradizionali.

▲zheng hanxun, co-fondatore e cto di zhonghao xinying

secondo stephen feng, responsabile dei prodotti informatici aperti e accelerati presso inspur information, con l’aumento della scala dei parametri dei modelli di grandi dimensioni, lo sviluppo dell’intelligenza artificiale generativa deve affrontare quattro sfide principali: scalabilità insufficiente del cluster, elevato consumo energetico del chip, difficile implementazione del cluster e bassa scalabilità del sistema. affidabilità.grande sfida. inspur information è sempre stata orientata alle applicazioni e incentrata sul sistema, stimolando la vitalità dell'innovazione generativa dell'intelligenza artificiale attraverso il sistema aperto di kaiyuan.

in termini di apertura dell’hardware, abbiamo stabilito le specifiche oam (open acceleration module) per accelerare l’implementazione online di potenza di calcolo avanzata e supportare l’accelerazione iterativa di modelli di grandi dimensioni e applicazioni ai. in termini di apertura del software, attraverso la grande piattaforma di sviluppo di modelli "yuannao qizhi" epai, creiamo una piattaforma di supporto allo sviluppo di applicazioni a processo completo per le imprese. attraverso soluzioni end-to-end, risolviamo i problemi di illusione esistenti nel campo di base modelli di grandi dimensioni e risolvere problemi di sviluppo delle applicazioni problemi di implementazione come processi complessi, soglie elevate, difficoltà nell'adattare più modelli e costi elevati accelereranno l'innovazione e l'implementazione di applicazioni di modelli di grandi dimensioni.

▲stephen feng, responsabile di inspur information open accelerated computing products

qingcheng jizhi è stata fondata nel 2023, concentrandosi sul percorso ai infra. il team è stato incubato nel dipartimento di informatica dell'università di tsinghua e ha accumulato più di dieci anni di esperienza nell'ottimizzazione della potenza di calcolo intelligente.

shi tianhui, co-fondatore di qingcheng jizhi, ha condiviso che i sistemi informatici domestici ad alte prestazioni si trovano ad affrontare sfide come difficoltà nel ripristino dei guasti e prestazioni non ottimali. richiedono la cooperazione di 10 sistemi software di base fondamentali, e qingcheng jizhi è già tra questi loro. più della metà dei settori hanno prodotti sviluppati autonomamente.

allo stato attuale, qingcheng jizhi ha padroneggiato l'accumulo della tecnologia full-stack dal compilatore di livello inferiore al sistema di calcolo parallelo di livello superiore, ha raggiunto la copertura full-stack dell'ecologia del grande modello industriale e ha completato molteplici ottimizzazioni di inferenza ad alto rendimento di chip domestici e mainstream su larga scala il modello viene rapidamente trapiantato e ottimizzato e l'effetto del calcolo è notevolmente migliorato. tra questi, il sistema di addestramento di modelli di grandi dimensioni "bagua furnace", sviluppato per cluster di potenza di calcolo domestici su larga scala, può essere espanso fino a raggiungere la scala di 100.000 server e viene utilizzato per addestrare modelli con 174 trilioni di parametri.

▲shi tianhui, co-fondatore di qingcheng jizhi

huang xiaobo, direttore del marketing tecnologico di xinhe semiconductor, ha affermato che la domanda di potenza di calcolo è aumentata di 60.000 volte negli ultimi 20 anni e potrebbe raggiungere 100.000 volte nei prossimi 10 anni. l'archiviazione e la larghezza di banda di interconnessione sono diventati i principali colli di bottiglia dello sviluppo. i sistemi integrati chiplet sono diventati una direzione importante per le scoperte nelle limitazioni dei processi avanzati e nei miglioramenti della potenza di calcolo ad alte prestazioni nell'era post-moore. sono stati ampiamente utilizzati nei chip di potenza di calcolo ai e nei chip di commutazione di rete di cluster di potenza di calcolo ai.

a questo proposito, xinhe semiconductor fornisce una piattaforma eda di simulazione multifisica unica per la progettazione e lo sviluppo di sistemi integrati chiplet. la piattaforma supporta la modellazione parametrica delle strutture di interconnessione nei progetti di processo tradizionali. le sue capacità di simulazione sono 10 volte più veloci rispetto ad altre piattaforme. occupa solo 1/20 della memoria. dispone inoltre di analisi del protocollo hbm/ucie integrata per migliorare l'efficienza della simulazione ha vinto numerosi premi da leader nazionali ed esteri. i produttori di progettazione di chip di potenza di calcolo ai lo utilizzano per accelerare l'implementazione di prodotti di sistemi integrati chiplet di grande potenza di calcolo.

▲huang xiaobo, direttore marketing tecnologico di xinhe semiconductor

durante l'addestramento di modelli di grandi dimensioni, l'infrastruttura di rete rappresenta il 30% del costo, evidenziando l'importanza delle prestazioni della rete. secondo zhu jundong, co-fondatore di qimo e vicepresidente di prodotti e soluzioni, la rete è diventata il collo di bottiglia delle prestazioni informatiche intelligenti. la costruzione di una rete ai richiede l'integrazione di tre reti, ovvero l'interconnessione tra reti di cluster, l'interconnessione all'interno degli armadietti. e interconnessione all'interno dei chip.

i grandi cluster di intelligence computing richiedono un’interconnessione ad alte prestazioni e modernize rdma e chiplet sono diventate tecnologie chiave. per ottimizzare rdma, la serie core di accelerazione di rete ndsa di qimo si basa su un'architettura di streaming multi-core programmabile e utilizza un motore dati ad alte prestazioni per ottenere un flusso di dati ad alte prestazioni e un'accelerazione flessibile dei dati. il chiplet gpu link "ndsa-g2g" introdotto da ge si basa sull'infrastruttura ethernet e, attraverso il motore dati ad alte prestazioni e la tecnologia di interfaccia d2d, può raggiungere un'elevata larghezza di banda a livello di terabyte della rete scale-up e le sue prestazioni sono paragonabili a quelle punto di riferimento della tecnologia di interconnessione globale.

▲zhu jundong, cofondatore di qimo e vicepresidente di prodotti e soluzioni

alphawave è un'azienda che fornisce soluzioni di progettazione ip, chiplet e asic per applicazioni hpc, ai e di rete ad alta velocità. guo dawei, il suo direttore aziendale senior nella regione asia-pacifico, ha condiviso che in risposta ai problemi incontrati durante la trasmissione dei dati, i prodotti ip alphawave hanno un tasso di errore di bit inferiore di 2 ordini di grandezza rispetto ai prodotti concorrenti integrazione e verifica e sono profondamente integrati con l’ecosistema arm. possono anche fornire supporto per l'intero ciclo di vita dei soc dei clienti.

in termini di chiplet, alphawave aiuta i clienti ad abbreviare il ciclo, ridurre i costi e migliorare la resa e la velocità di iterazione. ora ha realizzato il primo chiplet di connessione io multiprotocollo del settore, che è stato messo a punto quest'anno. in termini di chip personalizzati, alphawave si concentra principalmente su processi inferiori a 7 nm ed è in grado di completare l'intero processo dalle specifiche alla registrazione in base alle esigenze del cliente. attualmente ha ottenuto più di 375 registrazioni con successo, con un dppm inferiore a 25.

▲guo dawei, direttore aziendale senior di alphawave asia pacifico

conclusione: l’intelligenza a valle è in aumento e i chip ai si trovano ad affrontare opportunità storiche

sulla strada verso il tema ultimo dell’intelligenza artificiale generale, la forma degli algoritmi di intelligenza artificiale continua a cambiare e i chip di intelligenza artificiale seguono l’esempio. quando l’antica ghiaia incontra l’intelligenza delle macchine del futuro, la tecnologia e la saggezza ingegneristica si fondono e si scontrano. i chip ai dal design raffinato entrano nei cluster informatici e entrano in migliaia di famiglie, supportando l’evoluzione della vita basata sul silicio.

dai centri di calcolo intelligenti e guida intelligente ai pc ai, ai telefoni cellulari ai e al nuovo hardware ai, la tendenza dell’intelligenza a valle ha portato una nuova ondata di opportunità storiche per i chip ai che ancorano diversi scenari. il rapido sviluppo di algoritmi e applicazioni di intelligenza artificiale generativa continua a sbloccare nuove sfide in termini di potenza di calcolo. l’innovazione tecnologica e la domanda di mercato stanno promuovendo duplicemente l’espansione del mercato dei chip ai e diversificando il panorama competitivo dei chip ai.

il 7 settembre, il global ai chip summit 2024 continuerà a fornire informazioni approfondite: una sessione speciale sull'innovazione dell'architettura dei chip ai e una sessione speciale sui chip ai edge/end-side si terranno presso la sede principale, e il "2024 china's le 20 migliori aziende di soluzioni cluster di calcolo intelligente" e "2024 ci sono due elenchi delle "top 10 aziende cinesi emergenti di chip ai"; l'intelligent computing cluster technology forum e il china risc-v computing chip innovation forum si terranno nella sede secondaria; .