2024-08-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Elokuun 9. päivän uutisten mukaan 2024 Open Computing China Summit, jonka teemana oli "Avoin yhteistyö: yhteistyö, viisaus ja innovaatio", pidettiin äskettäin.Inspur tiedotpalvelinTuotelinjan pääjohtajaZhao ShuaiJakoi suurten mallien kehitystrendejä jaAILaskentatehoekologian avautumisen eteneminen viittaa siihen, että kaikki laskenta on tulevaisuudessaAI. Tapaamisen jälkeen tiedotusvälineet haastattelivat Zhao Shuaita, Inspur Informationin AI&HPC-tuotelinjan vanhempi tuotepäällikkö Zhang Zheng ja Inspur Informationin palvelintuotelinjan tuotesuunnittelupäällikkö Luo Jian. tekoälyn innovatiivista kehitystä edistävä tietojenkäsittely.
Zhao Shuai sanoi,Nykyään 2/3 malleista on avoimen lähdekoodin lähdekoodia, ja yli 80 % tekoälyprojekteista kehitetään avoimen lähdekoodin kehyksiä käyttäen. Avoimen lähdekoodin mallia on ladattu yli 300 miljoonaa kertaa ja se on synnyttänyt yli 30 000 uutta mallia. Voidaan sanoa, että avoin lähdekoodi on tuonut tekoälyn kehityksen ja vaurauden.Tämän pohjalta laitteiston avoimesta suunnittelusta on tullut myös avain tekoälyn laskentatehon ekologisen kehityksen edistämiseen. Vain tällä tavalla voimme tavoittaa paremmin jokaisen asiakkaan ja jokaisen toimialan.
Zhao Shuai antoi esimerkin avoimessa ekosysteemissä, kiihdytetyn ja standardoidun OAM:n suunnittelu avattiin vuonna 2019. Inspur Information esitteli alan ensimmäisen UBB:n OCP Summitissa vuonna 2019 ja lanseerasi OAM-referenssijärjestelmän suunnittelun MX1 vuonna 2020. Vuonna 2021 OAM v1.0 -spesifikaatioon perustuva palvelin NF5498A5 julkaistiin vuonna 2016, mikä edisti useiden valmistajien huippuluokan AI-sirujen kehittämistä ja käyttöönottoa.OAM:n avoimet suunnittelustandardit ovat nopeuttaneet huomattavasti laskentasirujen mukauttamis- ja yhteensopivuusprosessia, säästäneet miljardeja dollareita teollisuuden resurssiinvestoinneissa, nopeuttaneet tietojenkäsittelyn käyttöönottoa ja iteraatiota sekä tukeneet ylemmän kerroksen suurten mallien ja AIGC-sovellusten kypsymistä.
Erityisesti suurten mallien tehokas koulutus vaatii yleensä AI-palvelinjärjestelmän tukea, joka koostuu AI-siruista, joiden laskentateho on yli 1 000 kaloria. Edellytys tuhansien sirujen yhdistämiselle ja niiden tehokkaalle yhteistoiminnalle on ratkaista yhden palvelimen sisäisten sirujen nopea suora yhteys. Avoimen kiihdytysspesifikaatio OAM on ratkaissut ongelmat, jotka liittyvät useiden AI-kiihdytinkorttien epäjohdonmukaisiin muotoihin ja rajapintoihin yhdessä palvelimessa, nopean yhteenliittämisen alhaisesta tehokkuudesta ja pitkästä T&K-syklistä, ja se on saanut tukea ja osallistumista monilta yrityksiltä.
Tältä osin Zhang Zheng huomautti, että Inspur Information on jatkuvasti edistänyt standardien ja tekniikoiden kehitystä avointen kiihdytysmäärittelyjen suhteen ja työskennellyt hiljaa avoimessa yhteisössä useita vuosia. ja tämä asia ei tapahdu, se tuo voittoa yritykselle, mutta huomaamme, että sen hyödyt koko toimialaketjulle ovat erittäin suuriaLähtökohtamme on tehdä hyvää työtä alalla Vain silloin, kun toimiala on hyvä ja terve, voimme saada lisää omaa arvoamme toimialaketjussa.
Raporttien mukaan Inspur Informationin edustamat järjestelmävalmistajat ovat kehittäneet joukon tekoälypalvelimia, jotka täyttävät avoimet kiihdytysvaatimukset. Inspur Information on määritellyt alan ensimmäisen 8-kortin yhteenliittämislaitteiston, joka on OAM-spesifikaatioiden mukainen 56 Gbps, mikä on paljon korkeampi kuin PCIe5:n siirtonopeus, ja avoimet kiihtyvyysmääritykset korkeammilla nopeuksilla ovat edelleen kehitteillä. Inspur Informationin uusimman sukupolven OAM-spesifikaatioihin perustuva tekoälypalvelin NF5698G7 tukee erilaisia OAM-spesifikaatioihin perustuvia avoimia kiihdytyssiruja ja rakentaa kilokalorien nestejäähdytteisen klusterin käyttäjille, jotka tukevat tekoälyn suurten mallien koulutusta yli 100 miljardilla parametrilla.
Tässä vaiheessa spesifikaatioiden kiihtymisen kipukohdat on ratkaistu ja uusia haasteita on ilmaantunut.
Zhao Shuai sanoi, että tulevaisuudessa kaikki tietojenkäsittely on tekoälyä, mutta sovellusparadigmojen monipuolistuessa prosessorit näyttävät monipuolisia kehityssuuntia. Miten siis tarjota parempia laskentatehoa ja tehokkuutta monipuolisille prosessoreille?
Juuri julkaistu Open Computing Module (OCM) -määritys tarjoaa vastauksen. OCM käyttää prosessoria ja muistia pienimpänä laskentayksikkönä ja standardoi nopeat ja hitaita liitäntärajapintoja Aivan kuten OAM rakentaa yhtenäisen kiihdytyspiiripohjan, OCM edistää CPU:n laskentayksiköiden liitäntöjen yhtenäistämistä ja ekosysteemin parantamista.Tämän ohjelman ovat yhdessä käynnistäneet China Electronics Standards Institute, Intel, AMD, Inspur Information, Lenovo, Super Fusion, Baidu, Xiaohongshu jne. Se on ensimmäinen kotimainen palvelinlaskentamoduulin suunnitteluspesifikaatio, ja sen tavoitteena on luoda standardoitu laskentajärjestelmä, joka perustuu Prosessorit Tehomoduuliyksikkö toteuttaa eri arkkitehtuurien prosessorisirujen yhteensopivuuden yhdistämällä eri prosessorien laskentatehoyksiköiden ulkoiset nopeat yhteenliitännät, hallintaprotokollat, virtalähdeliitännät jne. ja rakentaa yhtenäisen laskentatehokannan CPU:lle. ratkaise prosessorin ekologisia haasteita ja helpottaa asiakkaita Erilaisten sovellusskenaarioiden, kuten tekoälyn, pilvitekniikan ja big datan, perusteella voimme joustavasti ja nopeasti löytää sopivimman laskentatehoalustan edistämään laskentatehoteollisuuden laadukasta ja nopeaa kehitystä.
Luo Jian lisäsi, että kun Inspur Information rakensi alan standardeja, se ei tullut tyhjästä, vaan tuli törmäyksestä alan alku- ja loppupään kumppaneiden kanssa. Hän korosti,Teollisuusstandardit ja tuotteiden teollistuminen etenevät samanaikaisesti. Ainoastaan tuomalla spesifikaatioita markkinoille ja soveltamalla niitä asiakaspuolella voidaan luoda todellista arvoa.(Dingxi)
Tämä artikkeli on peräisin NetEase Technology Reportista. Saat lisätietoja ja perusteellista sisältöä seuraamalla meitä.