minhas informações de contato
correspondênciaadmin@informação.bz
2024-09-26
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
a it house informou em 26 de setembro que a sk hynix anunciou hoje que a empresa é a primeira no mundo a iniciar a produção em massa do chip hbm3e de 12 camadas, alcançando a maior capacidade de 36 gb entre os produtos hbm existentes, a empresa fornecerá este produto aos clientes; dentro do ano.
afetado pelas primeiras notícias, o preço das ações da sk hynix subiu mais de 8% na coreia do sul, com um valor de mercado de mais de 120,34 trilhões de won (nota da it house: atualmente cerca de 635,155 bilhões de yuans).
segundo relatos, a sk hynix também empilhou 12 chips dram de 3 gb para atingir a mesma espessura do produto existente de 8 camadas, aumentando a capacidade em 50%. para fazer isso, a empresa fabricou chips dram individuais 40% mais finos do que antes e os empilhou verticalmente usando a tecnologia through-silicon via (tsv).
além disso, a sk hynix também resolveu os problemas estruturais que surgem ao empilhar mais cavacos mais finos. a empresa aplicou sua tecnologia principal, o processo avançado mr-muf, a este produto, que melhora o desempenho de dissipação de calor em 10% em comparação com a geração anterior e aprimora o controle de problemas de empenamento para garantir estabilidade e confiabilidade.
desde o primeiro lançamento mundial da primeira à quinta geração do hbm (hbm3e) em 2013, a empresa tem sido a única empresa a desenvolver e fornecer uma gama completa de produtos hbm ao mercado. a empresa é a primeira no setor a produzir com sucesso produtos empilhados de 12 camadas em massa, o que não apenas atende às crescentes necessidades das empresas de inteligência artificial, mas também consolida ainda mais a posição de liderança da sk hynix no mercado de memória orientada para ia.
sk hynix disse que o hbm3e de 12 camadas atingiu o nível mais alto do mundo em todos os aspectos, como velocidade, capacidade e estabilidade, necessários para memória orientada para ia. o hbm3e de 12 camadas funciona a uma velocidade de 9,6 gbps e pode ler 70 bilhões de parâmetros gerais 35 vezes por segundo ao executar o modelo de linguagem grande ‘llama 3 70b’ em uma gpu equipada com quatro hbms.