今年9月6日から7日まで開催される2024年グローバルAIチップサミットで、ヤン・ゴンイファン氏は...
私の連絡先情報
郵便管理者@information.bz
2024-08-07
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
「私たちの次世代製品が次のことを繰り返すことができることを願っています」現行NVIDIA B200との比較より高度な製品を…」
これは、AIトレーニングチップのスタートアップであるZhonghao Xinyingの創設者兼CEOであるYang Gongyifan氏が最近Xinyingに共有した最新の「小さな目標」です。Yang Gongyifan は、Oracle や Google などの企業で 10 年以上ハイエンド チップの研究開発に従事し、チップ R&D コア チームのメンバーとして参加しています。Google TPU 2/3/4設計と研究開発は2018年末に中国に戻り、完全なチップ設計チームとプロトタイプ検証チームを編成し、2020年にZhonghao Xinyingを設立しました。
彼によると、2023年にはZhonhao Xinying初めて黒字を達成、親会社に帰属する純利益は8,133万元に達し、年間収入はこれまでに累計4億8,500万元に達しました。5資金調達のラウンド;それ自社開発TPUトレーニングチップ「Snap」量産開始、「スナップ」トレーニング モデルの計算能力が NVIDIA A100 の計算能力に達します。約1.5倍 。Zhonghao Xinyingは、AIトレーニングチップ「Snap」を基盤として使用し、1,024チップの高速チップ間相互接続機能を通じて大規模なAIインテリジェントコンピューティングクラスター「Taize」を構築します。キロカードクラスターの計算能力スケールは200PFLOPSに達します。
▲Zhonhao Xinying AIトレーニングチップ「Snap」
現在 AI チップ市場を支配している GPU とは異なり、Yang Gongyifan 氏が選択したトラックは、ディープラーニング専用に設計された TPU アーキテクチャです。彼の見解では、「TPU アーキテクチャは、大規模な AI モデルにとって当然有利なアーキテクチャです。同じ製造プロセスと同じプロセスで、従来の GPU アーキテクチャの 3 ~ 5 倍のパフォーマンスを達成します。」
ヤン・ゴン・イーファン氏は、ジョンハオ・シンイン氏は現在、国内で唯一持っているのは、TPU統合されたアーキテクチャのトレーニングとプロモーション人工知能チップコアテクノロジー企業 。彼は今後 5 ~ 10 年以内に、TPUそしてクラスTPUアーキテクチャの市場シェアは次の水準に達します80%、残り10%-20%それは伝統ですグラフィックプロセッサ。
Zhonhao Xinying は、AI チップの研究開発と実装を促進することに加えて、「厳密な」出力機能を提供できる事前トレーニング済みの大規模モデルも自社開発しており、最終的には金融、医療、教育のパートナーに公開される予定です。 、など、垂直分野でのプロの大型モデルを実装します。
AI チップはお金を浪費する長距離レースとして知られています。Zhonhao Xinying は 5 年以内にどのようにして黒字を達成できるでしょうか?チップの新興企業として、なぜ同社は独自の大型モデルを開発し、独自のインテリジェント・コンピューティング・センターを構築するのか、また、ますます激化する国内AIチップの競争からどうやって抜きん出るつもりなのでしょうか?最近、Zhonhao Xinyingの創設者兼CEOであるYang Gongyifan氏はXinying Xinyingと綿密な会話を行い、起業家プロセスにおけるすべての考えと選択、および技術開発と事業実装の傾向の分析と判断を共有しました。
▲中航信営創業者兼最高経営責任者(CEO)の楊功宜凡氏
Yang Gongyifan 氏のハイエンド チップ分野での 10 年以上の経験は、彼が適切な起業家精神の方向性を見つけるための基礎を築きました。
Yang Gongyifan 氏は、スタンフォード大学でコンピュータ サイエンスの修士号を取得した後、Oracle Corporation で SPARCT8/M8 を含む 12 個のトップレベルの高性能 CPU の設計と生産に参加し、主導しました。また、テープの開発に成功した経験もあります。 10回以上アウト。
▲Yang Gongyifan氏がオラクル時代に発表した関連論文(出典:IEEE Xplore)
2017 年に Google に入社したことで、将来中国に戻って起業するための種が蒔かれました。
Google 在籍中に、Yang Gongyifan 氏はチップ R&D コア チームのメンバーとして TPU 2/3/4 の設計と研究開発に参加しました。彼は、コンピューティングに基づいた研究を行うことができたのはこれまでの 10 年間の経験だったと述べました。アプリケーションとコンピューティング モデルのニーズを最適化した後、TPU 2/3/4 の開発に成功しました。
2017 年 6 月、Google の 8 人の共著者が、TPU で訓練された革新的なシステムとなる「Attending is All You Need」という傑作をリリースしました。変成器このアーキテクチャは極限まで推し進められており、これが大規模モデルの研究で普及しつつある Transformer アーキテクチャの始まりです。同時に、ヤン・ゴンイファン氏は、大型モデルには人間の知性が徐々に備わっており、TPUは産業の発展に大きな影響を与えると感じており、2025年と2026年には大型モデルが人間に取って代わり、社会の生産性の中核になると強く信じています。
▲Google TPU アーキテクチャ (出典: YouTube)
Yang Gongyifan 氏は、今回の大規模モデルによるコンピューティング分野の変革は人類史上最大の変化であると考えています。これまでのすべての計算は 1 つまたは複数のアプリケーションを完成させるために 1 つのチップ上で実行されていましたが、今回は 1 つのアプリケーションを完成させるために数千のチップが使用されるのは初めてであるため、背後のコンピューティング アーキテクチャ全体の実装に大きな問題が生じます。それはチャンスです。
彼が考えているのは、これほど大きな挑戦、これほど大きな変化、これほど広範囲の適用シナリオがあることはめったにないので、やらなければならないということです。この理解に基づいて、彼は2018年末に深センに戻り、国産の独立制御可能なTPU AIトレーニングチップを構築するチームを結成し、2020年にZhonhao Xinyingを正式に設立しました。
これはまた、彼の起業家としての最初の偉業の始まりでもありました。20192016 年に、シミュレータが完成し、動作し、良好に動作することが確認され、チップ設計が実現可能であることが証明されました。
起業初期の頃、Yang Gong Yifan 氏のアイデアは、まず製品を作るチームを結成することでした。そのため、最初のチームは深センに到着し、チップ設計チームとプロトタイプ検証チームを設立し、チップのモジュール設計を完了しました。その後、Zhonhao Xinying は 2020 年に杭州に上陸しました。製品のプロモーション、資金調達、チップの量産化により、完全なサプライチェーン チームとマーケティング チームを設立しました。現在、チームの規模は 170 人以上に達し、そのうち研究開発担当者が含まれています。全体の10%を占めており、その割合は80%を超えています。
しかし、起業の初期段階はスムーズではありませんでした。当時、ほとんどの国内企業、投資機関、顧客は、業界における大型モデルの将来の発展と応用の見通しを認識していなかった。楊公儀帆氏の回想によると、設立初期には中豪信営には全く収入がなかった。 2021年になって初めて、2023年に正式に黒字化することになった。 2023年の同社の売上高は4億8,500万元、親会社に帰属する純利益は8,133万元に達する見込みだ。
現在、Zhonhao Xinying は 5 ラウンドの資金調達を完了しており、開示された資金調達額には以下が含まれます。2022年9数か月で完了あ今回の資金調達ラウンドは約1億元で、賽志波楽投資が主導し、杭州ハイテク投資などが参加する。2023連続して修了プレBそしてプレB+それぞれ数億元と数千万元相当の資金調達ラウンド。
Yang Gongyifan 氏の見解では、投資家の認識はいくつかの段階に分かれており、初期段階ではチームを観察し、中期段階では製品が市場の需要を満たしているかどうかに焦点を当てます。製品に核となる競争力があるかどうか、そして業界の新たな拡大方向性について。製品レイアウト、技術的なルートの選択、チームの誠実さなどの観点から見ても、Zhonhao Xinying はあらゆる段階で遅れをとっていません。現在、中豪信営は国内で唯一のマスター企業に成長しました。TPU統合されたアーキテクチャのトレーニングとプロモーション人工知能チップコア技術を持つ企業。
“コンピューティングパワーを人類発展の原動力にしましょう”, Zhonhao Xinying のビジネス レイアウトは、このビジョンに沿って展開されています。
Yang Gongyifan 氏は、この目標を達成するために最初に行うべきことは、まずチップを製造することであると説明しました。チップは基礎となるインフラストラクチャが完成した後、完全なサプライ チェーンに組み込んでインフラストラクチャを確実に構築できるからです。継続的な生産供給。
一方で、アルゴリズム レベルでインダストリ モデルを実装するエコロジカル パートナーもいます。この点における Zhonhao Xinying の役割は、大規模なモデルを自己研究して事前トレーニングし、それを金融、教育、医療などの業界パートナーに公開することです。
大型モデルの時代に、TPUそして変成器アーキテクチャは自然に適応可能です。
に比べCPUと のスカラー計算ユニットグラフィックプロセッサベクトル計算ユニットTPU計算タスクは、2 次元またはさらに高次元の計算ユニットを使用して完了できます。TPUこの設計により、キロカード クラスタの実装、接続が容易になります。1024チップになります32×322 次元マトリックスにより、各チップはネットワーク全体のどのチップとも 100% の対称性を達成できます。
彼が追加した、TPUこのアーキテクチャはディープ ラーニング ソリューション用に最適化されており、インテリジェント コンピューティング ネットワークや Wanka インターネットなどの大規模なディープ ラーニング計算にも使用できます。ヤン・ゴン・イーファンはこう言ったが、TPU汎用性の点ではパフォーマンスは比較的劣りますが、人工知能アプリケーションシナリオでは、同じ生産プロセスとテクノロジーの下で、TPUアーキテクチャのパフォーマンスは伝統的ですグラフィックプロセッサの3-5回。
設立5 2018年、Zhonhao Xinyingはチップの大量生産と工業化を一気に達成しました。これは、研究開発チームが一晩中起きたときの彼の 2 番目の達成の瞬間でした。“点灯する”、製品検証を完了するプロセスはまだ記憶に新しいです。
NVIDIAとの比較A100、Zhonhao Xinyingによって開発されましたGPTPU AIトレーニングチップ“一瞬”コンピューティングパフォーマンスは、1.5同じ量のトレーニング タスクを完了するときのエネルギー消費量が減少します。30%、単位コンピューティング電力コストは次のとおりです。42%。
「テゼ」人工知能サーバーに搭載されているのは、8 「モーメント」トレーニング チップは、1,000 億を超えるパラメータを持つ大規模モデルのトレーニングと推論をサポートできます。Yang Gong Yifan 氏は、現在のトレーニング期間中に納入された製品のうち、Zhonhao Xinying の顧客がすでに完成した製品を完成させたと明らかにしました。ラマ2Kcal クラスター上の他のモデルのトレーニングと推論。
“一瞬”個性的なガンダムで1024大規模なインテリジェント コンピューティング クラスターを構築するための高速チップ間相互接続の機能“タイノリ”、システムクラスターのパフォーマンスは従来のグラフィックプロセッサ何十回も、人工知能コンピューティング要件。
Zhonhao Xinying が作ることができますTPUこのチップのもう一つの重要な点は、エンジニアを採用する際に経験主義を使用しないとヤン・ゴンイファン氏が述べたことだ。彼は、設計プロセスの早い段階で経験豊富なエンジニアと協力したところ、これらのエンジニアが設計プロセスを理解できないことが判明したと述べました。TPUコンセプトやデザインの革新は、繰り返しの経験に縛られ、問題を迅速に解決してパフォーマンスを最適化するためにより直接的に考えることができない可能性が高くなります。
大型モデルの時代により大きなコンピューティング能力の需要に直面しているため、Wanka クラスターが利用可能でなければならないと彼は付け加えました。TPUネットワーク機能におけるこのアーキテクチャの自然な利点により、Wanka クラスターの構築においてより多くの利点があり、相対的なパフォーマンスが向上します。
昨年、Zhonhao Xinying は優秀な人材を導入して大規模なモデル アルゴリズム チームを形成しました。
TPU アーキテクチャの独自のパフォーマンスにより、エンタープライズ アプリケーションで使用されるソフトウェアの自由度が高まり、並列設計が容易になり、パフォーマンスの最適化とシステム構築が実現します。
企業のニーズをよりよく満たすソリューションを見つけるために、チップ プレーヤーは独自のモデルをトレーニングしてモデルの特性とアプリケーション シナリオをより深く理解し、顧客満足度とチップへの忠誠心を高めることができます。現在の汎用の大型モデル製品は、一般にテキスト理解、インターネット情報検索、複数ラウンド対話などの強力な「柔軟性」機能を備えていますが、高度に専門的な産業アプリケーションのシナリオに直面すると、ビジネス知識を細分化して理解することが困難になることがよくあります。同時に、一般的な大規模モデルの定量的計算の精度は低く、既存のコンピューティング能力は、民間航空や金融など、高い数値精度を必要とする業界のアプリケーション シナリオにまったく対応できません。
これに基づいて、Zhonhao Xinying は「厳格な」出力機能を備えた基本的な大規模モデルを構築しており、協力のためにその基本的な大規模モデルを金融、教育、医療、その他の業界パートナーにオープンソース化して、業界パートナーがベースのモデルの二次化を実行できるようにしています。ソフトウェア スタックと対応するデータにより、モデルは業界の知識を蓄え、特定の実稼働環境を置き換えるために細分化されたシナリオで段階的に実装できるようになります。
昨年からデモの実施方法を検討し、実現可能性を確認した後、今年から徐々に業界モデルの事前トレーニングを開始した。
このような完全なビジネス レイアウトと業界動向の判断により、Yang Gongyifan 氏は、大型モデルの時代には、今後 5 ~ 10 年で AI コンピューティング ハードウェア分野における TPU および TPU 類似チップの市場シェアが達すると信じています。 80% と残りの 20% は従来の GPU です。
同氏はまた、製品の反復と商品化における Zhonhao Xinying の目標を明確にしました。 Zhonghao Xinying が開発中の次世代チップ製品は、NVIDIA B200 のパフォーマンスのベンチマークを繰り返すことが期待されており、商品化の観点から、インテグレーター、通信事業者、大手インターネット メーカーなどの幅広い顧客との協力を深めたいと考えています。
Zhonhao Xinying は 2018 年の設立以来、市場開発の初期段階から大型モデルが市場の需要を喚起した機会期まで、AI チップの開発を目撃してきました。しかし、振り返ってみると、AI チップ市場の初期段階で、スタートアップが TPU アーキテクチャで徐々に市場シェアを獲得しようとすると、さまざまな課題に直面する必要がありました。
現在、大型モデルの登場によりコンピューティング能力の需要が向上し、AI チップが新時代を迎え、TPU アーキテクチャの利点が現れてきたことにより、Zhonhao Xinying は市場爆発の機会に対する期待を前倒しで実現しました。 Yang Gongyifan 氏は、AI のアプリケーション シナリオはこれまでのコンピューティング利用シナリオをはるかに超え、AI モデルに必要なコンピューティング リソースも人類の歴史におけるコンピューティング リソースの想像を超えるものになると考えており、これにより TPU アーキテクチャのアプリケーション シナリオが可能になると述べています。市場の需要は短期的には急速に増加するでしょう。
将来的には、Zhonhao Xinying が中国の AI チップ業界のリーダーになれることを期待しており、TPU はこの分野で「x86」に似たものになる可能性が最も高いと考えています。中国の AI チップの歴史の新たな章が始まりました…
今年9月6日から7日まで開催される2024年グローバルAIチップサミットで、ヤン・ゴンイファン氏は...