ニュース

国内 ai チップの現状を直接見る: gpu 血液生産、tpu raid、トレンドになるチップレット、ネットワークのボトルネック

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

著者 | gacs

xinxiは9月6日、年次グローバルaiチップサミット(gacs 2024)が本日北京で開幕したと報じた。会場は満席となり、クラウドライブ配信の視聴者数は120万人に達した。

▲会場内外は大変な賑わいでした。

このカンファレンスは、zhiyi technology の core east west と intelligent orangutan が主催し、「インテリジェント コンピューティング時代のコア道路の共同構築」をテーマに、ai チップ、チップレット、risc-v、インテリジェントの分野から 50 名以上のゲストを招待しました。コンピューティングクラスター、aiインフラなどの分野で役立つ情報を共有します。

国内 gpgpu ユニコーンの biren technology は設立 5 周年を迎え、この会議で、マルチコア ハイブリッド トレーニング コア技術の画期的な進歩を達成し、ヘテロジニアス gpu 協調トレーニング ソリューション hgct を開発したことを発表しました。業界では、同じ大規模モデルで 3 種類以上の異種 gpu トレーニングをサポートできます。

▲biren technology、国産ヘテロジニアスgpu連携トレーニングソリューションhgctを発売

zhiyi technologyの共同創設者兼最高経営責任者(ceo)であるgong lunchang氏は、今年でグローバルaiチップサミットが開催され、中国のこの分野で最も影響力のある業界カンファレンスとしてスピーチを行った。国内外の ai チップの開発を理解するのに最適な場所です。

▲zhiyi technology共同創設者兼最高経営責任者(ceo)gong lunchang氏

グローバル ai チップ サミットは 2 日間にわたって開催され、メイン会場には開会式と 3 つの主要なセッション (ai チップ アーキテクチャ、データ センター ai チップ、エッジ ai チップ) が含まれます。サブ会場にはチップレット テクノロジー フォーラム、インテリジェント コンピューティング クラスター テクノロジー フォーラムが含まれます。 risc-vイノベーションフォーラム。

開会式では、清華大学教授で集積回路学部副学部長のイン・ショウイー氏が「ハイコンピューティングパワーチップの開発経路に関するディスカッション:コンピューティングアーキテクチャから統合アーキテクチャへ」と題した基調講演を行い、ハイコンピューティングパワーチップの開発経路を体系的に検討した。既存の技術的課題を分析し、データ フロー チップ、統合ストレージおよびコンピューティング チップ、再構成可能チップ、3 次元集積チップ、およびウェーハ レベル チップの 5 つの革新的な技術パスを包括的に分析します。

本日は、トップクラスの大学、研究機関、ai チップ企業の 21 人の専門家、起業家、幹部が講演します。その中で、ハイエンド対話セッションでは、ai チップのスタートアップ 3 社の代表者が招待され、国内のハイパワーチップのユニコーンである biren technology、デバイスサイドおよびエッジサイドの ai チップのユニコーンである aixin yuanzhi、および企業の代表者が熱心に議論しました。それは、半年前に設立された若い ai チップのスタートアップである lingchuan technology だけです。彼らは、ai チップ業界の現状、最新の実践、先進的な方向性について議論することに重点を置きました。

1. 大規模モデルのコンピューティング能力の需要と供給の課題を解決し、アーキテクチャを革新してパフォーマンスのボトルネックを突破する

清華大学教授で集積回路学部の副学部長でもあるイン・ショウイー氏は、大型モデルの時代におけるコンピューティングパワーの需要と供給の間の困難について説明した。チップ技術はスケールダウンの限界に直面しており、それによってもたらされるコンピューティングパワーの増加は、プロセスの配当が持続不可能になり、システムがスケールダウンのボトルネックに直面し、通信帯域幅が不足するとシステムのパフォーマンスが低下します。

これら 2 つの主要な問題を解決する機会は、コンピューティング チップ コンピューティング アーキテクチャと統合アーキテクチャの共同革新にあります。コンピューティング アーキテクチャの革新により、各トランジスタが最大限に活用され、より強力なコンピューティング パワーを発揮できるようになり、統合アーキテクチャの革新によりチップ スケールが突破されます。限界。

現在、高計算能力チップの開発には、データ フロー チップ、再構成可能チップ、統合ストレージおよびコンピューティング チップ、3 次元集積チップ、およびウェハ レベル チップの 5 つの新しい技術パスがあります。これらの方法はいずれも最先端の製造プロセスに完全に依存しているわけではなく、国内のチップ業界がコンピューティング能力を向上させる新たな余地を開くのに役立ちます。

▲清華大学教授、集積回路学部副学部長のイン・ショウイー氏

amdは、データセンターサーバー、ai pcからインテリジェントな組み込みおよびエッジデバイスに至るまで、エンドツーエンドのaiインフラストラクチャの分野で包括的な製品ラインを構築し、最先端のaiオープンソースソフトウェアとオープンエコシステムを提供しています。高度な zen4 アーキテクチャに基づいて設計された amd の cpu プロセッサ プラットフォームと、ai 推論とトレーニング用の cdna3 アーキテクチャに基づく mi シリーズ アクセラレータは、microsoft などの大手企業に採用されています。

amdの人工知能部門のシニアディレクターであるwang honqiang氏によると、amdはデータセンターにおける高性能ネットワークインフラストラクチャ(ualink、ウルトライーサネット)も推進している。これは高速スイッチングと極めて低い遅延をサポートするaiネットワーク構造にとって重要であり、 ai データセンターのパフォーマンスを拡大することが重要です。

amd は、第 2 世代 xdna アーキテクチャに基づく次世代の高性能 ai pc をリリースしようとしています。その ryzen ai npu は、50tops のコンピューティング能力を提供し、エネルギー効率比を汎用アーキテクチャの 35 倍に高めることができます。 ai pc によるプライバシー、セキュリティ、データの自律性の推進により、重要な ai ワークロードが pc に導入され始めています。世界有数の ai インフラストラクチャ プロバイダーの 1 つである amd は、顧客や開発者と協力して変革的な未来を構築することに意欲を持っています。

▲amd人工知能部門シニアディレクター、王紅強氏

2015 年以来、クアルコムは ai アプリケーションのユースケースの変化に基づいて npu ハードウェア設計を継続的に革新してきました。第3世代snapdragon 8に代表されるqualcomm ai engineは、cpu、gpu、npuなどの複数のプロセッサを統合するヘテロジニアスコンピューティングアーキテクチャを採用しています。その中で、qualcomm hexagon npu は、大規模メモリ、アクセラレータ用の専用電源、マイクロアーキテクチャのアップグレード、その他の設計を通じてパフォーマンスとエネルギー効率を最適化します。 ai には豊富なユースケースがあり、さまざまなコンピューティング能力要件があるため、ヘテロジニアス コンピューティングとプロセッサの統合に対する需要は長期にわたって存在し、これによりピーク パフォーマンス、エネルギー効率、コストなどの一連の改善がもたらされます。

クアルコムの製品ラインは、携帯電話、pc、xr、自動車、iot などの幅広いエッジサイド アプリケーション シナリオをカバーしており、開発者がさまざまな製品形式でアルゴリズムを高速化するためにクアルコムの ai ソフトウェアおよびハードウェア ソリューションを使用することをサポートでき、豊かな成果をもたらします。消費者にとってのメリットのオンデバイス ai エクスペリエンスとユースケース。最後に、qualcomm ai product technology china責任者のwan weixing氏は、最新のqualcomm oryon cpuを搭載した次世代snapdragonモバイルプラットフォームが、今年10月21日から23日まで開催されるsnapdragon summitでリリースされることも発表しました。

▲中国qualcomm ai製品技術責任者、wan weixing氏

pingxin technology の共同創設者兼 ceo である yang yue 氏は、統合ストレージおよびコンピューティング テクノロジーの進歩プロセスを詳しく説明しました。業界における主流チップの出現と成長は、現在のコンピューティング ニーズの特性と密接に関係しています。2015 年頃、コンピューティング アーキテクチャにおけるコンピューティングのボトルネックがプロセッサ側からストレージ側に移行し、特にニューラル ネットワークの出現が加速しました。 ai チップの計算効率の向上に伴い、ストレージおよびコンピューティング技術が注目を集めています。

yang yue 氏は、大規模モデルの時代には、ストレージとコンピューティングの統合テクノロジのチャンスは、データ ストレージがある場所であればどこにでもコンピューティングを追加できることであると考えています。ソフトウェアの継続的な開発により、今年はストレージとコンピューティングをベースとしたエンドサイドチップが徐々に成熟してきました。将来的には、クラウドにおけるデータ帯域幅のボトルネックを解決することが、ストレージおよびコンピューティング チップの次のキラー アプリケーションになる可能性があります。

▲pingxin technology共同創設者兼ceoのyang yue氏

arctic xiongxin の cto である tan zhanhong 氏は、ハイパフォーマンス コンピューティングの分野では、サーバー設計には標準サーバー形式とカスタマイズされたサーバー アーキテクチャという 2 つの異なるパラダイムがあると述べました。標準サーバーの形では、arctic xiongxin は、標準の制約のある領域内での適切なチップ分割とパッケージング ソリューションを通じて、より高いコスト パフォーマンスを達成することに重点を置いており、非標準サーバーの形では、統合に重点を置いてウェーハ レベルの統合の機会を提供します。チップとシステム設計の共同設計、およびサーバーとチップの共同設計を行い、「チップとしてのサーバー」という目標の達成を目指します。

特に、tan zhanhong 氏は、チップ設計ごとに帯域幅要件が異なることを強調しました。たとえば、7nm を超えるプロセスでは、実装通信の最適化と組み合わせると、高い相互接続帯域幅密度が必要とされないため、2d パッケージに基づく高度なパッケージングは​​必要ありません。パフォーマンス要件を満たし、コスト効率の高いソリューションを実現できます。 arctic xiongxin の「core chip interconnect interface standard」に基づく pb-link ip は、低パッケージコストの相互接続を正式に実現し、現在、外部関係者の認可を開始しています。

▲arctic xiongxin cto tan zhanhong

2. ハイエンド対話:国産 ai チップは造血機能を強化し、最年少のスタートアップ企業の製品が kuaishou で発売されました

zhiyi technologyの共同創設者兼編集長のzhang guoren、biren technologyの副社長兼aiソフトウェアチーフアーキテクトのding yunfan、lingchuan technologyの共同創設者兼副社長のliu li、共同のliu jianwei、 -aixin yuanzhiの創設者兼副社長は、「国産aiチップの実装のためのコンセンサス、共創、win-win」をテーマとしたラウンドテーブルダイアログを開始しました。

張国人氏はラウンドテーブル対話の冒頭で、知東渓、是東渓、章志らが主催した第6回aiチップサミットは、中国でこの分野で最も長く続いている専門カンファレンスであり、近年ブームが起きていると述べた。 aiチップや大型モデルの開発においても、国内の中核メーカーの「新勢力」が多数台頭している。

▲zhiyi technology共同創設者兼編集長のzhang guoren氏

丁雲帆氏は、大型コンピューティングパワーチップは技術集約型、人材集約型、資本集約型の産業であると述べた。 biren technology は、市場で最大の公的融資を受けているチップ ユニコーンとして、優秀な人材を擁しており、その第 1 世代製品は量産されており、独立して血液を生成できる複数の国産 gpu キロカード クラスターが発売されています。しかし、国内のチップ産業の全体的な状況は依然として容易ではなく、環境面で海外とのギャップも依然として存在します。

多くの国産 ai チップがデータセンターやインテリジェント コンピューティング センターに導入され始めています。 ding yunfan 氏の見解では、nvidia の国産製品は費用対効果があまり高くありません。国産チップが高いパフォーマンスと費用対効果を実現できる限り、市場は存在します。現在、国内チップ産業の立ち上げや造血力の強化に関するニュースが増えており、nvidiaとの差は徐々に縮まっていくだろう。

▲biren technology副社長兼aiソフトウェアチーフアーキテクトのding yunfan氏

liu jianwei 氏は、低コストは非常に重要な部分であり、企業は最終的には決算を行う必要があり、インフラへの投資は回収しなければならないと考えています。 liu li 氏は、将来、身体化インテリジェンスやスマート ビデオなどの細分化された分野では、より多くの企業の参入が一般的な製品よりも高い価値をもたらし、それが nvidia の収益と利益を圧縮すると考えています。

lingchuan technology は、今年 3 月に設立された最も若い国内 ai チップスタートアップ企業の 1 つであり、現在販売されているスマートビデオ処理チップは、kuaishou での使用量の 99% を占めています。ビデオ処理分野では、計算能力推論チップが来年初めに廃止される予定です。

liu li氏の見解では、aiチップ市場の扉が閉まるにはまだ遠く、資源、資金、環境面での巨人の優位性を前に、スタートアップは垂直的かつ細分化された分野で努力する必要がある。 lingchuan technology は、インテリジェントなビデオ処理と ai 推論コンピューティング能力を組み合わせ、トークンごとの推論コストを nvidia h800 の 10% に削減することを目標としています。

▲lingchuan technology共同創設者兼副社長、liu li氏

エンドサイドとエッジサイドの両方をターゲットとする愛新元志は、市場シェアにおいて目覚ましい成果を上げています。 liu jianwei 氏は、これら 2 つの分野が商用クローズドループをより早く実現すると信じています。同氏は、aiチップの製造は最終的には利益をもたらすが、実際の利益スケジュールはai導入コストなどの要因に影響されるため、企業はできるだけ早く自己生成とクローズドループを実現する必要があると付け加えた。将来的に、aixin yuanzhi はエンド側とエッジ側の大規模モデルの実装シナリオを検討します。

劉建偉氏は、自動車分野での愛新元志の製品出荷は非常に目覚ましいものであり、その理由は、愛新元志がスマートシティで成熟した技術を蓄積し、その後、スマート運転に参入するためであると述べた。すぐに達成されました。同時に、自動車分野における価格競争は産業の分業を促進し、チャンスの時期となります。

▲愛新源志共同創業者兼副社長、劉建偉氏

国内の ai チップが環境に優しいニッチをどのようにして迅速に見つけることができるかについて、liu jianwei 氏は、愛新源志のディープな開発現場を例に挙げました。インテリジェント ドライビングの分野では、nvidia は基本的にゼロから開発を進めています。 1、そして1から100まで、コストを重視するのは国内です。丁雲帆氏は、安定的で信頼性の高い供給保証、費用対効果、顧客ニーズに基づく効率的なサポートサービス、効率性と使いやすさの4つの要素を挙げた。 liu li 氏は、垂直分野をさらに深く掘り下げ、汎用チップよりも効率的で最適化されたソリューションを作成する必要があると考えています。

liu jianwei 氏は、今後 4 ~ 5 年で、業界での実装コストが削減され、データがより大きな価値を実現できるようになると予測しています。 。 liu li 氏は、ai アプリケーションが爆発的な時代を迎えるにつれ、クラウド側で大量の推論需要が発生すると考えています。丁雲帆氏は、中国ではハイエンドのコンピューティング能力はまだ不足しているが、産業チェーンの協力により着実な発展を達成できると述べた。

3. スマート コンピューティング センターの建設が増加中: gpu、国産 tpu、チップレットの新たなブレークスルーが勝利を収めている

午後に開催されたデータセンターaiチップセッションで、habana chinaの責任者であるyu mingyang氏は、過去3年間で約50以上の政府主導のスマートコンピューティングセンターが建設され、60以上が計画と建設中であると述べた。スマート コンピューティング センターの建設は、一線都市から二線、三線都市へ、政府主導から企業主導へ、コスト削減と投資回収サイクルの要件も徐々に高まっています。

同氏の見解によれば、大規模モデルの開発はますます成熟しており、推論の需要は成長し続けており、将来的には複数の異種チップ企業が自社開発する推論チップの成長率が高まる可能性があるという。推理する側。

海外での大規模モデルトレーニングの需要は依然として強く、国内モデルトレーニングのためのコンピューティングパワーの需要は、主に微調整ビジネスから基本的に飽和しています。将来のai開発を支えるには、チップレット、高速大容量メモリ、専用・一般高速相互接続技術の統合が重要な役割を果たします。

▲ハバナチャイナ代表のユー・ミンヤン氏

大規模モデルの異種コンピューティング能力サイロの問題を打破するために、biren technology の副社長であり ai ソフトウェアのチーフアーキテクトである ding yunfan 氏は、biren 独自のオリジナルの異種 gpu 協調トレーニング ソリューション hgct の立ち上げを発表しました。同じ大規模モデルを共同でトレーニングするために 3 つ以上の異種 gpu をサポートするのは業界初です。つまり、「nvidia + biren + 他のブランドの gpu」による混合トレーニングをサポートしており、通信効率は 98% を超えています。エンドツーエンドのトレーニング効率は 90 ~ 95% に達します。

bi ren は、china telecom、zte、sensetime、state grid intelligence research institute、shanghai intelligent computing technology co., ltd.、shanghai artificial intelligence laboratory、china institute of情報通信技術など

同社の製品は、複数のキロカード gpu クラスターに商用導入されています。 biren は、ソフトウェアとハ​​ードウェア、フルスタックの最適化、異種コラボレーション、オープンソースを統合する大規模なモデル全体ソリューションを開発しました。 biren は初めて、大規模モデル 3d 並列タスクの自動伸縮を実現し、クラスター使用率をほぼ 100% に維持し、1000 枚のカードクラスターで 1000 億のパラメーターモデルを 10 分間で自動回復することを達成しました。 、4 日間障害なし、15 日間中断なし。

▲biren technology副社長兼aiソフトウェアチーフアーキテクトのding yunfan氏

zhonghao xinying の共同創設者兼 cto である zheng hanxun 氏は、今日の大規模な ai モデルは、コンピューティングの歴史のどの時点でも、計算の複雑さと計算能力の要件をはるかに超えており、ai 計算に優れた特殊なチップを必要としていると述べました。もともとリアルタイム レンダリングと画像処理用に設計された gpu と比較して、tpu は主に機械学習、ディープ ラーニング モデル、ニューラル ネットワーク計算用に設計されており、単一のシストリック アレイ アーキテクチャはスループットと高い処理能力を備えています。 gpuに比べて処理効率が大幅に向上しました。

zhonghao xinying が自社開発した「snap」チップは、中国初の量産型高性能 tpu アーキテクチャ ai チップであり、コンピューティング性能、コスト、エネルギー消費量を総合的に計算した結果、コンピューティング単価は主要な海外 gpu のわずか 50% です。 。 zheng hanxun 氏は、大規模モデル開発の後半段階では、キロクラスターと 10,000 キロクラスターの最高の費用対効果比が重要になると考えています。setsana チップの最大 1,024 個のチップ間の直接高速相互接続が重要になります。大規模なコンピューティング クラスターを構築する際の重要な要素であり、そのパフォーマンスは従来の gpu の数倍をはるかに上回る可能性があります。

▲zhonhao xinyingの共同創設者兼cto、zheng hanxun氏

inspur information のオープン アクセラレーション コンピューティング製品責任者 stephen feng 氏によると、大規模モデルのパラメータ スケールが増加するにつれて、生成 ai の開発は 4 つの大きな課題に直面しています。それは、クラスターのスケーラビリティの不足、チップの消費電力の高さ、クラスターの導入の困難、システムの低さです。大きな課題。 inspur information は常にアプリケーション指向かつシステム中心であり、kaiyuan のオープン システムを通じて生成 ai イノベーションの活力を刺激しています。

ハードウェアのオープン性に関しては、高度なコンピューティング能力のオンライン展開を加速し、大規模モデルや ai アプリケーションの反復アクセラレーションをサポートするための oam (open acceleration module) 仕様を確立しました。ソフトウェアのオープン性に関しては、大規模モデル開発プラットフォーム「yuannao qizhi」epaiを通じて、企業向けのフルプロセスのアプリケーション開発支援プラットフォームを構築し、エンドツーエンドのソリューションを通じて、基本分野に存在する幻想の問題を解決します。複雑なプロセス、高いしきい値、マルチモード適応の難しさ、高コストなどの実装上の問題を解決し、エンタープライズ大規模モデル アプリケーションの革新と実装を加速します。

▲inspur information open accelerated computing products 責任者 stephen feng 氏

qingcheng jizhi は、ai インフラ分野に重点を置いて 2023 年に設立されました。このチームは清華大学コンピューター サイエンス学部で育成され、インテリジェントなコンピューティング能力の最適化において 10 年以上の経験を蓄積してきました。

qingcheng jizhi の共同創設者である shi tianhui 氏は、国内の高性能コンピューティング システムは障害回復の困難さやパフォーマンスが健全でないなどの課題に直面しており、10 のコアの基本ソフトウェア システムの協力が必要であり、qingcheng jizhi はすでにその中に含まれていると述べました。半数以上の分野が自社開発製品を持っています。

現在、qingcheng jizhi は、最下位レベルのコンパイラから上位レベルの並列コンピューティング システムに至るフルスタック テクノロジーの蓄積を習得し、大規模モデル業界の生態系をフルスタックでカバーし、複数の高スループット推論の最適化を完了しました。主流の国内大規模チップのモデルを迅速に移植および最適化し、計算効果が大幅に向上しました。その中でも、国内の超大規模計算力クラスター向けに開発された大規模モデル学習システム「bagua furnace」は、サーバー10万台規模まで拡張可能で、174兆個のパラメータを持つモデルの学習に使用されている。

▲青城時志共同創業者、石天輝氏

xinhe semiconductorのテクノロジーマーケティングディレクターであるhuang xiaobo氏は、コンピューティングパワーの需要は過去20年間で6万倍に増加し、今後10年間で10万倍に達する可能性があり、ストレージと相互接続の帯域幅が開発の大きなボトルネックになっていると述べた。チップレット統合システムは、ムーア以降の時代における高度なプロセス制限のブレークスルーと高性能コンピューティング能力の向上にとって重要な方向性となっており、ai 大型コンピューティング パワー チップや ai コンピューティング パワー クラスター ネットワーク スイッチング チップで広く使用されています。

この点において、新和半導体は、チップレット統合システムの設計および開発向けに、ワンストップのマルチフィジックス シミュレーション eda プラットフォームを提供しています。このプラットフォームは、主流のプロセス設計における相互接続構造のパラメトリック モデリングをサポートしており、そのシミュレーション機能は他のプラットフォームよりも 10 倍高速であり、また、シミュレーション効率を向上させるための hbm/ucie プロトコル解析も組み込まれています。国内外のリーダーから多くの賞を受賞しており、ai コンピューティング パワー チップ設計メーカーはこれを使用して、大規模なコンピューティング パワーのチップレット統合システム製品の実装を促進しています。

▲新和半導体テクノロジーマーケティングディレクター、黄暁波氏

大規模モデルのトレーニングでは、ネットワーク インフラストラクチャがコストの 30% を占めており、ネットワーク パフォーマンスの重要性が強調されています。 qimoore の共同創設者兼製品およびソリューション担当副社長の zhu jundong 氏によると、ネットワークはインテリジェント コンピューティング パフォーマンスのボトルネックになっており、ai ネットワークを構築するには、クラスター ネットワーク間の相互接続、キャビネット内の相互接続、および 3 つのネットワークの統合が必要です。そしてチップ内の相互接続。

ビッグ インテリジェンス コンピューティング クラスターには高性能の相互接続が必要であり、modernize rdma とチップレットが主要なテクノロジーとなっています。 rdma を最適化するために、qimo の ndsa ネットワーク アクセラレーション コア シリーズは、プログラム可能なメニーコア ストリーミング アーキテクチャに基づいており、高性能データ エンジンを使用して、高性能データ フローと柔軟なデータ アクセラレーションを実現します。 ge が開発した gpu リンク チップレット「ndsa-g2g」は、イーサネット インフラストラクチャに基づいており、高性能データ エンジンと d2d インターフェイス技術により、スケールアップ ネットワークのテラバイト レベルの高帯域幅を実現でき、そのパフォーマンスは、グローバル相互接続技術のベンチマーク。

▲qimo共同創設者兼製品・ソリューション担当副社長のzhu jundong氏

alphawave は、hpc、ai、高速ネットワーク アプリケーション向けの ip、チップレット、asic 設計ソリューションを提供する会社です。同社のアジア太平洋地域シニアビジネスディレクターのguo dawei氏は、データ伝送中に直面する問題に対応するため、alphawave ip製品は競合製品よりもビットエラー率が2桁低いという利点もある、と語った。統合と検証が可能であり、arm エコシステムと深く統合されています。また、顧客の soc に対して完全なライフサイクル サポートを提供することもできます。

チップレットに関しては、alphawave は顧客のサイクルの短縮、コストの削減、歩留まりと反復速度の向上を支援し、業界初のマルチプロトコル io 接続チップレットを開発しましたが、これは今年テープアウトされました。カスタマイズチップに関しては、alphawave は主に 7nm 以下のプロセスに注力しており、顧客のニーズに応じて仕様からテープアウトまでの全プロセスを完了することができ、現在 375 件以上のテープアウトを成功させ、dppm 未満を達成しています。 25.

▲アルファウェーブ アジア太平洋地域 シニア ビジネス ディレクター guo dawei 氏

結論: 下流のインテリジェンスが急増し、ai チップは歴史的なチャンスに直面している

一般的な人工知能という究極のテーマに向けて、ai アルゴリズムの形式は変化し続けており、ai チップもそれに追随しています。古代の砂利が未来の機械知能と出会うとき、テクノロジーとエンジニアリングの知恵が融合し、絶妙なデザインの ai チップがコンピューティング クラスターに入り、何千もの家庭に浸透し、シリコンベースの生命の進化を支えます。

インテリジェント コンピューティング センターやインテリジェント ドライビングから ai pc、ai 携帯電話、新しい ai ハードウェアに至るまで、ダウンストリーム インテリジェンスのトレンドは、さまざまなシナリオを支える ai チップに歴史的なチャンスの新たな波をもたらしました。生成 ai アルゴリズムとアプリケーションの急速な開発により、コンピューティング能力に関する新たな課題が解決され続けています。技術革新と市場の需要は、二重にaiチップ市場の拡大を促進し、aiチップの競争環境を多様化させています。

9 月 7 日には、2024 年グローバル ai チップ サミットは引き続き集中的な情報を提供します。メイン会場では、ai チップ アーキテクチャのイノベーションに関する特別セッションとエッジ/エンドサイド ai チップに関する特別セッションが開催されます。 「トップ 20 インテリジェント コンピューティング クラスター ソリューション企業」と「2024 中国の新興 ai チップ企業トップ 10」のリストは 2 つあり、インテリジェント コンピューティング クラスター技術フォーラムと中国 risc-v コンピューティング チップ イノベーション フォーラムがサブ会場で開催されます。 。