私の連絡先情報
郵便管理者@information.bz
2024-09-06
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
it house は 9 月 6 日に、マイクロンが今月リリースしたテクノロジー ブログで、同社の「量産可能な」12 層スタック型 hbm3e 36gb メモリが現在、ai エコシステム全体の検証のために主要な業界パートナーに配布されていると述べたと報告しました。
マイクロンは、同社の 12 層スタック hbm3e は、既存の 8 層スタック hbm3e 製品よりも 50% 高い容量を備えており、llama-70b などの大規模な ai モデルを単一のプロセッサ上で実行できるため、複数のプロセッサによって引き起こされる遅延の問題を回避できると述べています。プロセッサーの動作。
micron の 12 層スタック hbm3e メモリは、9.2 gb/s 以上の i/o ピン レートを備え、1.2 + tb/s のメモリ帯域幅を実現します。また、micron は、この製品は 8 層スタックの hbm3e 競合製品よりも消費電力が大幅に少ないと主張しています。
hbm3eは単独の製品ではなく、メモリサプライヤー、製品顧客、osat企業の協力に依存するaiチップシステムに統合されています。 micron は、tsmc の 3dfabric advanced packaging alliance のパートナー メンバーです。
tsmcのエコシステムおよびアライアンス管理部門のディレクター、ダン・コックパッチャリン氏は最近次のように述べています。
tsmc とマイクロンは長期的な戦略的パートナーシップを維持してきました。 oip エコシステムの一部として、当社はマイクロンの hbm3e ベースのシステムと cowos パッケージング設計が顧客の ai イノベーションをサポートできるように緊密に連携しています。