2024-09-26
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
it house a rapporté le 26 septembre que sk hynix avait annoncé aujourd'hui que la société était la première au monde à démarrer la production en série de la puce hbm3e à 12 couches, atteignant la plus grande capacité de 36 go parmi les produits hbm existants. la société fournira ce produit à ses clients ; dans l'année.
affecté par les premières nouvelles, le cours de l'action sk hynix a augmenté de plus de 8% en corée du sud, avec une valeur marchande de plus de 120,34 milliards de won (note d'it house : actuellement environ 635,155 milliards de yuans).
selon les rapports, sk hynix a également empilé 12 puces dram de 3 go pour obtenir la même épaisseur que le produit existant à 8 couches, tout en augmentant la capacité de 50 %. à cette fin, la société a fabriqué des puces dram individuelles 40 % plus fines qu'auparavant et les a empilées verticalement à l'aide de la technologie via le silicium via (tsv).
en outre, sk hynix a également résolu les problèmes structurels qui surviennent lors de l'empilage de copeaux plus fins. la société a appliqué sa technologie de base, le processus avancé mr-muf, à ce produit, qui améliore les performances de dissipation thermique de 10 % par rapport à la génération précédente et améliore le contrôle des problèmes de déformation pour garantir la stabilité et la fiabilité.
depuis le premier lancement mondial de la première à la cinquième génération de hbm (hbm3e) en 2013, la société a été la seule à développer et à fournir une gamme complète de produits hbm sur le marché. l'entreprise est la première du secteur à produire avec succès des produits empilés à 12 couches en série, ce qui non seulement répond aux besoins croissants des sociétés d'intelligence artificielle, mais consolide également la position de leader de sk hynix sur le marché de la mémoire orientée ia.
sk hynix a déclaré que le hbm3e à 12 couches a atteint le plus haut niveau mondial dans tous les aspects tels que la vitesse, la capacité et la stabilité requises pour la mémoire orientée ia. le hbm3e à 12 couches fonctionne à une vitesse de 9,6 gbit/s et peut lire 70 milliards de paramètres globaux 35 fois par seconde lors de l'exécution du grand modèle de langage « llama 3 70b » sur un gpu équipé de quatre hbm.