le mie informazioni di contatto
posta[email protected]
2024-09-26
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
it house ha riferito il 26 settembre che sk hynix ha annunciato oggi che la società è la prima al mondo ad avviare la produzione di massa del chip hbm3e a 12 strati, raggiungendo la più grande capacità di 36 gb tra i prodotti hbm esistenti che la società fornirà questo prodotto ai clienti entro l'anno.
toccato dalla prima notizia, il prezzo delle azioni di sk hynix è aumentato di oltre l'8% in corea del sud, con un valore di mercato di oltre 120.340 miliardi di won (nota it house: attualmente circa 635.155 miliardi di yuan).
secondo i rapporti, sk hynix ha anche impilato 12 chip dram da 3 gb per ottenere lo stesso spessore del prodotto esistente a 8 strati, aumentando la capacità del 50%. per fare ciò, l’azienda ha reso i singoli chip dram più sottili del 40% rispetto a prima e li ha impilati verticalmente utilizzando la tecnologia tsv (through-silicion via).
inoltre, sk hynix ha anche risolto i problemi strutturali che sorgono quando si impilano più trucioli più sottili. l'azienda ha applicato a questo prodotto la sua tecnologia di base, l'avanzato processo mr-muf, che migliora le prestazioni di dissipazione del calore del 10% rispetto alla generazione precedente e migliora il controllo dei problemi di deformazione per garantire stabilità e affidabilità.
dal primo lancio mondiale della prima fino alla quinta generazione hbm (hbm3e) nel 2013, l'azienda è stata l'unica a sviluppare e fornire al mercato una gamma completa di prodotti hbm. l'azienda è la prima nel settore a produrre con successo in serie prodotti impilati a 12 strati, il che non solo soddisfa le crescenti esigenze delle aziende di intelligenza artificiale, ma consolida ulteriormente la posizione di leadership di sk hynix nel mercato delle memorie orientate all'intelligenza artificiale.
sk hynix ha affermato che l'hbm3e a 12 strati ha raggiunto il livello più alto del mondo in tutti gli aspetti come velocità, capacità e stabilità richiesti per la memoria orientata all'intelligenza artificiale. l'hbm3e a 12 strati funziona a una velocità di 9,6 gbps e può leggere 70 miliardi di parametri complessivi 35 volte al secondo quando si esegue il modello linguistico di grandi dimensioni "llama 3 70b" su una gpu dotata di quattro hbm.