Le mie informazioni di contatto
Posta[email protected]
2024-08-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
China News Service, Pechino, 12 agosto (Yuan Jiawei Xia Bin) Recentemente si è tenuto a Pechino il vertice Open Computing China del 2024. Il modo in cui l'open computing accelera lo sviluppo dell'intelligenza artificiale è diventato il focus della conferenza. Durante l'incontro è stata lanciata ufficialmente la specifica "Open Computing Module (OCM)". Il primo gruppo di membri comprende China Electronics Standards Institute, Baidu, Xiaohongshu, Inspur Information, Lenovo, Super Fusion, Intel, AMD e altre istituzioni e imprese. Questa è la prima specifica di progettazione di moduli informatici per server domestici Le industrie a monte e a valle sperano di stabilire congiuntamente unità di moduli informatici standardizzati, costruire un ecosistema industriale di cooperazione aperta, innovazione integrata e stimolare lo sviluppo innovativo della tecnologia dell'intelligenza artificiale.
Questo vertice è ospitato congiuntamente dalla comunità informatica aperta OCP e dall'organizzazione per gli standard aperti OCTC (China Electronics Industry Standardization Technology Association Open Computing Standards Working Committee). Con il tema "Open Collaboration: Collaboration, Intelligence, Innovation", si concentra sui dati infrastrutture centrali, intelligenza artificiale Innovazione intelligente, ecologia dell'informatica aperta, sviluppo dell'informatica verde, sistemi aperti e CXL e altri argomenti, tra cui Baidu, Alibaba Cloud, Industrial and Commercial Bank of China, ByteDance, Samsung, Inspur Information, NVIDIA, Flextronics, Solidigm, Alla conferenza hanno partecipato Intel, 21Vianet, ecc. Aziende, oltre a più di mille ingegneri IT e professionisti dei data center.
Il rapido sviluppo dell'intelligenza artificiale generativa ha portato a scenari applicativi intelligenti più ricchi e la prosperità delle applicazioni intelligenti richiederà inevitabilmente una maggiore potenza di calcolo per supportare il ragionamento. Essendo una potenza di calcolo più comune e più facile da ottenere, la potenza di calcolo generale una volta disponibile la potenza dell’intelligenza artificiale, ovviamente accelererà notevolmente il processo di intelligenza.
Zhao Shuai, direttore generale della linea di prodotti Inspur Information Server, ha affermato senza mezzi termini: "Non solo i chip AI, tutti i calcoli sono AI e la potenza di calcolo generale deve avere anche capacità di calcolo AI. Tuttavia, anche l'attuale iterazione dei processori CPU è molto veloce. e i percorsi tecnici delle diverse piattaforme sono I requisiti sono diversi Con più di dieci tipi di chip, potrebbe essere necessario sviluppare centinaia di server.”
Tuttavia, gli attuali standard del protocollo CPU per diverse architetture come x86, ARM, RISC-V, ecc. non sono unificati, il che comporta un enorme dispendio di tempo nello sviluppo dell'hardware, nell'adattamento del firmware, nel test dei componenti, ecc. Allo stesso tempo, per adattarsi meglio alle caratteristiche di calcolo altamente parallelo dell'inferenza AI, anche la larghezza di banda dell'interconnessione del bus della CPU, la larghezza di banda della memoria e la capacità devono essere ottimizzate in modo specifico, causando un continuo aumento del consumo energetico del sistema, della velocità del bus e della densità di corrente... la sovrapposizione di molteplici fattori rende il ciclo di progettazione e sviluppo dei sistemi di potenza di calcolo lungo e costoso.
Nell’ambito della tendenza alla diversificazione della CPU, come completare rapidamente l’innovazione della CPU nel sistema informatico in modo che possa essere applicata al carico di inferenza dell’intelligenza artificiale è diventato un collegamento chiave per alleviare l’attuale scarsità di potenza di calcolo dell’intelligenza artificiale e promuovere lo sviluppo dell’intelligenza artificiale.
A tal fine, durante l'incontro è stata lanciata ufficialmente la specifica Open Computing Module (OCM), che mira a costruire la più piccola unità di calcolo con CPU e memoria come nucleo ed è compatibile con processori multigenerazione di chip multiarchitettura come. x86 e ARM per facilitare gli utenti in base alle loro applicazioni, gli scenari sono flessibili e veloci da combinare.
Il lancio della specifica OCM mira a stabilire un modulo di potenza di calcolo standardizzato basato sul processore, unificando l'interconnessione esterna ad alta velocità, il protocollo di gestione, l'interfaccia di alimentazione, ecc. delle unità di potenza di calcolo di diversi processori. compatibilità di chip di processori di diverse architetture e creazione di una CPU. La base di potenza di calcolo unificata risolve le sfide ecologiche della CPU e consente ai clienti di abbinare in modo flessibile e rapido la piattaforma di potenza di calcolo più adatta in base a diversi scenari applicativi come intelligenza artificiale, cloud computing e grandi dimensioni. dati e promuove lo sviluppo rapido e di alta qualità del settore della potenza di calcolo. La formulazione di standard aperti OCM può fornire agli utenti opzioni di potenza di calcolo più versatili, ecologiche, efficienti, sicure e affidabili.
Inoltre, l’intelligenza artificiale generativa sta ricostruendo l’infrastruttura dei data center, proponendo requisiti più elevati in termini di efficienza informatica, capacità e prestazioni di archiviazione, soluzioni di rete, gestione della pianificazione delle risorse, controllo e gestione dell’efficienza energetica e scala omnidirezionale (miglioramento e scalabilità delle prestazioni). le capacità sono diventate il fulcro della costruzione di infrastrutture di intelligenza artificiale avanzate. In questo vertice, un gran numero di tecnologie innovative e soluzioni di prodotto, tra cui la tecnologia CXL, l’architettura di rete orientata all’intelligenza artificiale e la prima unità a stato solido TLC PCIe5.0 a 16 canali, miglioreranno ulteriormente le capacità di scalabilità del data center.
Zhao Shuai ritiene che l'open computing sia di grande importanza e valore per l'era dell'informatica intelligente. L'apertura deve essere utilizzata per affrontare le sfide della diversa potenza di calcolo e l'apertura deve essere utilizzata anche per promuovere la portata dell'attuale potenza di calcolo. La scala informatica è un processo di sviluppo iterativo e rapido di scalabilità verticale (miglioramento delle prestazioni del singolo sistema) e scalabilità orizzontale (espansione su scala cluster) che coesistono. In questa fase, i moduli di accelerazione aperti e le reti aperte realizzano la portata della potenza di calcolo, le soluzioni firmware aperte realizzano la portata della gestione e gli standard aperti e l'ecologia aperta realizzano la portata dell'infrastruttura. In futuro, l'innovazione aperta verrà utilizzata per accelerare la sistema di potenza di calcolo in tutte le direzioni, che si occupa della legge di scala di grandi dimensioni.
La conferenza ha inoltre presentato dieci importanti innovazioni nel campo dell'open computing, tra cui linee guida per l'implementazione di data center su larga scala, requisiti tecnici per la progettazione di schede acceleratrici di intelligenza artificiale raffreddate a liquido, ecc., riflettendo ulteriormente la vitalità innovativa dell'open computing nel campo dei data center.
Nell’era dell’intelligenza, i grandi modelli stanno ricostruendo l’infrastruttura AI. I data center si trovano ad affrontare sfide di innovazione su scala omnidirezionale in termini di potenza di calcolo, rete, archiviazione, gestione ed efficienza energetica. È necessario costruire una piattaforma di collaborazione aperta globale e lavorare insieme per risolvere i principali problemi di cui sopra. L’ottimizzazione completa dell’infrastruttura dell’intelligenza artificiale offre possibilità illimitate per lo sviluppo dell’intelligenza artificiale. (Sopra)