Nachricht

Wer plant den smarten Rechenzentrumschip?

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Text: Perspektive der Halbleiterindustrie

Branchen, die mit „Rechenleistung“ zu tun haben, boomen in letzter Zeit weiter, und auch der Bau intelligenter Rechenzentren floriert überall.

Im Jahr 2024 haben das Wuchang Intelligent Computing Center, das China Mobile Intelligent Computing Center (Qingdao), das South China Data Valley Intelligent Computing Center, das Zhengzhou Artificial Intelligence Computing Center, das Broad Data Shenzhen Qianhai Intelligent Computing Center usw. mit dem Bau begonnen oder sind in Produktion gegangen.

Unvollständigen Statistiken zufolge gibt es derzeit mehr als 30 Städte im ganzen Land, die intelligente Rechenzentren bauen oder dies planen, mit einer Investitionssumme von über 10 Milliarden Yuan.

Was genau ist ein intelligentes Rechenzentrum? Wozu dient das Intelligente Rechenzentrum hauptsächlich? Was zeichnet intelligente Rechenzentren aus?

Was ist ein intelligentes Rechenzentrum?

Gemäß der Definition des „Aktionsplans zur qualitativ hochwertigen Entwicklung der Recheninfrastruktur“ beziehen sich intelligente Rechenzentren auf die Nutzung großer heterogener Rechenressourcen, einschließlich allgemeiner Rechenleistung (CPU) und intelligenter Rechenleistung (GPU, FPGA, ASIC usw.), hauptsächlich Einrichtungen, die die erforderliche Rechenleistung, Daten und Algorithmen für Anwendungen der künstlichen Intelligenz bereitstellen (z. B. Entwicklung von Deep-Learning-Modellen für künstliche Intelligenz, Modelltraining, Modellinferenz und andere Szenarien).

Man kann auch sagen, dass ein intelligentes Rechenzentrum ein Rechenzentrum ist, das sich auf Rechenaufgaben mit künstlicher Intelligenz konzentriert.

Zu den Rechenzentren gehören in der Regel drei Kategorien: Neben intelligenten Rechenzentren sind die beiden anderen Kategorien allgemeine Rechenzentren, die sich auf allgemeine Rechenaufgaben konzentrieren, und Höchstleistungsrechenzentren, die sich auf Supercomputing-Aufgaben konzentrieren.


2023 ist ein wichtiges Wendejahr für die Entwicklung der künstlichen Intelligenz. Neue Unternehmen wie die Ausbildung großer Modelle und die Anwendung großer Modelle haben sich ebenfalls schnell entwickelt Computerräume bis hin zu allgemeinen Rechenzentren, entwickelt zum heutigen Hochleistungsrechenzentrum und intelligenten Rechenzentrum.

Was ist der Unterschied zwischen einem intelligenten Rechenzentrum und einem allgemeinen Rechenzentrum?

Intelligente Rechenzentren, meist eng mit Cloud Computing verbunden, legen Wert auf die Flexibilität der Ressourcensteuerung und des Infrastrukturmanagements. In einer Cloud-Umgebung ist der Rechenzentrumsanbieter für die Wartung der Hardware und bestimmter Softwaretools verantwortlich, während der Kunde Eigentümer der Daten ist. Im Gegensatz dazu erfordern traditionelle lokale Rechenzentren, dass Unternehmen alle Datenressourcen selbst verwalten und warten.

Die wesentlichen Unterschiede führen zu großen Unterschieden zwischen den beiden Modellen hinsichtlich Kapitaleinsatz, Ressourceneinsatz und Sicherheit.

In Bezug auf die Kapitalinvestition können Kunden intelligenter Rechenzentren ein für sie geeignetes Servicemodell wählen, z. B. eine öffentliche Cloud, eine private Cloud oder eine Hybrid-Cloud, ohne große Hardware- und Softwarekosten, während Kunden traditioneller Rechenzentren viel Geld investieren müssen für den Kauf und die Wartung der Server, Netzwerk- und Speichergeräte, die Sie benötigen.

In Bezug auf Ressourceneinsatz und Sicherheit können Kunden des intelligenten Rechenzentrums jederzeit und überall über das Internet auf ihre Daten und Anwendungen zugreifen und diese verwalten. Gleichzeitig können sie professionelle Sicherheitsgarantien genießen, die von Rechenzentrumsanbietern bereitgestellt werden, wie z Firewalls, Verschlüsselung, Backup und Wiederherstellung usw.; während Kunden traditioneller Rechenzentren auf ihre Büros/festgelegten Standorte beschränkt sind und ihre Daten selbst schützen und verwalten müssen.

Ein intelligentes Rechenzentrum ist einfach ein Datenrechenzentrum, das speziell der künstlichen Intelligenz dient und die für die Berechnungen der künstlichen Intelligenz erforderliche dedizierte Rechenleistung bereitstellen kann. Im Vergleich zu herkömmlichen Rechenzentren können intelligente Rechenzentren gezieltere Anforderungen erfüllen, über größere Rechenvolumina und schnellere Rechengeschwindigkeiten verfügen und KI-Computing für verschiedene vertikale Branchenszenarien wie große Modelltrainingsinferenz, autonomes Fahren und AIGC-Kraft bereitstellen.

Welche Art von Chips werden für AI Intelligent Computing benötigt?

Auch hinsichtlich der Hardware-Auswahl unterscheidet sich die Hardware-Architektur intelligenter Rechenzentren von herkömmlichen Rechenzentren.

Welche Art von Computerchips werden für AI Intelligent Computing benötigt?

Die Hardwarearchitektur traditioneller Rechenzentren ist relativ einfach und umfasst hauptsächlich Server, Speichergeräte und Netzwerkgeräte. Im Vergleich zu dieser Hardwarearchitektur wird das intelligente Rechenzentrum flexibler und es werden unterschiedliche Rechenknoten für unterschiedliche Anwendungsszenarien ausgewählt.

Der intelligente Computerserver ist die Hauptcomputerhardware des intelligenten Rechenzentrums. Er verwendet normalerweise die heterogene Computerarchitektur „CPU+GPU“, „CPU+NPU“ oder „CPU+TPU“, um Leistung, Kosten und Effizienz voll auszuschöpfen Leistung verschiedener Computerchips Vorteile im Energieverbrauch.

GPU, NPU und TPU verfügen über eine große Anzahl von Kernen und eignen sich gut für paralleles Rechnen. KI-Algorithmen umfassen eine große Anzahl einfacher Matrixoperationsaufgaben und erfordern leistungsstarke parallele Rechenfunktionen.

Herkömmliche Allzweckserver nutzen die CPU als Hauptchip, um grundlegende Allzweck-Computing-Anwendungen wie Cloud Computing und Edge Computing zu unterstützen.

Welche Art von Speicherchips werden für AI Intelligent Computing benötigt?

Nicht nur die Rechenleistung von Chips ist unterschiedlich, AI Intelligent Computing stellt auch höhere Anforderungen an Speicherchips.

Die erste ist die Dosierung. Die DRAM-Kapazität intelligenter Computerserver ist normalerweise achtmal so hoch wie die normaler Server und die NAND-Kapazität dreimal so hoch wie die normaler Server. Sogar seine Leiterplatte hat deutlich mehr Schichten als ein herkömmlicher Server.

Dies bedeutet auch, dass intelligente Computerserver mehr Speicherchips einsetzen müssen, um die erforderliche Leistung zu erreichen.

Mit steigender Nachfrage tauchen auch eine Reihe von Engpässen auf.

Einerseits erfordert die traditionelle von Neumann-Architektur, dass Daten in den Speicher geladen werden müssen, was zu einer geringen Datenverarbeitungseffizienz, einer hohen Latenz und einem hohen Stromverbrauch führt, andererseits führt das Problem der Speicherwand dazu, dass die Prozessorleistung viel schneller wächst Als Folge davon müssen große Datenmengen zwischen der SSD und dem Speicher übertragen werden. Darüber hinaus sind die Kapazitäts- und Bandbreitenbeschränkungen der auf der CPU montierten SSD ebenfalls zu Leistungsengpässen geworden.

Angesichts von Problemen wie „Speicherwand“ und „Stromverbrauchswand“ muss die Computerspeicherarchitektur in der traditionellen Computerarchitektur dringend aktualisiert werden. Nur durch die organische Integration von Speicher und Computer kann sie den riesigen Datenmengen im Zeitalter des intelligenten Computings gerecht werden mit seinem enormen Potenzial zur Verbesserung der Energieeffizienz.

Als Antwort auf diese Reihe von Problemen könnten integrierte Speicher- und Rechenchips eine gute Antwort sein.

Um die Leistung voll auszuschöpfen und einen stabilen Betrieb zu gewährleisten, wurde der AI-Server neben verschiedenen Chips auch mit verbesserter Architektur, Wärmeableitung, Topologie und anderen Aspekten entwickelt.

Wer legt diese Chips aus?

Das Layout von Rechenleistungschips

Auf der GPU-Seite sind GPUs gut für massiv paralleles Computing. Huawei, Tianshu Zhixin, Moore Thread, Sugon, Suiyuan Technology, Nvidia, Intel, AMD usw. haben alle verwandte Chips auf den Markt gebracht. Huawei hat beispielsweise die Ascend-Serie von KI-Chips auf den Markt gebracht, Ascend 910 und Ascend 310. Diese Chips wurden speziell für das Training und Denken von KI entwickelt und zeichnen sich durch hohe Leistung und geringen Stromverbrauch aus. Die Ascend-Serie wird häufig in Rechenzentren, Cloud-Diensten, Edge-Computing und anderen Bereichen eingesetzt und bietet leistungsstarke Rechenleistungsunterstützung für intelligente Rechenzentren.

NVIDIA hat eine Reihe von GPU-Produkten für KI-Training und -Inferenz auf den Markt gebracht, darunter A100, H100 usw. Intel hat auch eine Reihe von KI-Chipprodukten auf den Markt gebracht, beispielsweise die Gaudi-Chipserie von Habana Labs, mit dem Ziel, mit Nvidia zu konkurrieren. Auch im Bereich KI-Chips hat AMD Pläne geschmiedet und GPU- und APU-Produkte der MI-Serie auf den Markt gebracht.

In Bezug auf FPGA kombiniert CPU+FPGA Flexibilität und hohe Leistung, um sich an schnelle Änderungen in Algorithmen anzupassen. Xilinx und Intel sind die Hauptakteure auf dem Markt: Zu den Produktreihen VIRTEX, KINTEX, ARTIX und SPARTAN von Xilinx und zu den großen inländischen Herstellern von Intel zählen Fudan Microelectronics, Unisoc Microelectronics und Anlu Technology.

In Bezug auf ASIC bietet CPU+ASIC leistungsstarkes, maßgeschneidertes Computing für spezifische Anforderungen. Ausländische Giganten wie Google, Intel und NVIDIA haben nacheinander ASIC-Chips auf den Markt gebracht. Inländische Hersteller wie Cambrian, Huawei HiSilicon und Horizon haben ebenfalls ASIC-Chips auf den Markt gebracht, die durch tiefe neuronale Netze beschleunigt werden.

In Bezug auf NPU ist NPU ein Prozessor, der speziell für Szenarien mit künstlicher Intelligenz und maschinellem Lernen entwickelt wurde. Im Gegensatz zu CPU und GPU wurde die NPU speziell in der Hardwarestruktur optimiert und konzentriert sich auf die Ausführung von KI-bezogenen Rechenaufgaben wie der Inferenz neuronaler Netzwerke. Die Kombination aus der Vielseitigkeit der CPU und der Spezifität der NPU ermöglicht es dem Gesamtsystem, flexibel auf verschiedene KI-Anwendungsszenarien zu reagieren und sich schnell an Änderungen in Algorithmen und Modellen anzupassen.

Derzeit gibt es viele in Massenproduktion hergestellte NPUs oder Chips, die mit NPU-Modulen ausgestattet sind. Zu den bekanntesten gehören die Qualcomm Hexagon NPU und die Ascend-Serie. Es ist erwähnenswert, dass alle großen Hersteller einzigartige Designs bei der Gestaltung von Chip-Rechnerkernen haben . Strategie.

In Bezug auf TPU ist TPU ein Chip, der von Google speziell zur Beschleunigung der Rechenleistung tiefer neuronaler Netze entwickelt wurde. Er ist stärker auf die Verarbeitung umfangreicher Deep-Learning-Aufgaben ausgerichtet und verfügt über eine höhere Rechenleistung und geringere Latenz. TPU ist ebenfalls ein ASIC-Chip.

In Bezug auf DPU ist DPU speziell für Datenverarbeitungsaufgaben konzipiert und verfügt über eine hochoptimierte Hardwarestruktur, die für die Rechenanforderungen in bestimmten Bereichen geeignet ist. Im Gegensatz zur CPU, die für allgemeine Berechnungen verwendet wird, und der GPU, die für beschleunigte Berechnungen verwendet wird, ist die DPU der dritte Hauptchip im Rechenzentrum. Die DPU-Produkte der drei internationalen Giganten NVIDIA, Broadcom und Intel nehmen den größten Teil des Inlandsmarktes ein. Viele Hersteller wie Xilinx, Marvell, Pensando, Fungible, Amazon und Microsoft haben in den letzten 2-3 Jahren ebenfalls DPU-Produkte oder ähnliche Architekturprodukte hergestellt. 5 Jahre. . Zu den inländischen Herstellern zählen Zhongke Yushu, Xinqiyuan, Yunbao Intelligence, Dayu Zhixin, Alibaba Cloud usw.

Wo sind heimische Computerchips geblieben?

Auf der Beijing Mobile Computing Network Conference 2024 wurde der Pekinger Knotenpunkt des China Mobile Computing Center offiziell in Betrieb genommen und markierte damit eine neue Etappe beim Bau des intelligenten Rechenzentrums meines Landes. Als Pekings erstes groß angelegtes integriertes intelligentes Rechenzentrum für Ausbildung und Förderung erstreckt sich das Projekt über eine Fläche von etwa 57.000 Quadratmetern, setzt fast 4.000 KI-Beschleunigerkarten ein, weist eine Lokalisierungsrate von 33 % der KI-Chips auf und verfügt über intelligentes Rechnen Leistungsskala von über 1.000P.

Zhen Yanan, CTO von Beijing Beilong Super Cloud Computing Co., Ltd., der Betreibergesellschaft des Beijing Super Cloud Computing Center, sagte kürzlich, dass es derzeit inländische Großmodelle mit inländischen Chips „veredelt“, und dass dies nur etwa 15 Tage dauert durchlaufen. Er glaubt, dass die gemeinsame Nutzung von Rechenleistung ein wichtiger Trend in der Branche sein wird und High-End-GPU-Rechnerressourcen die Anstrengungen aller Beteiligten erfordern.

In den letzten Jahren wurde die Marktstruktur der chinesischen Rechenleistungschips für künstliche Intelligenz hauptsächlich von NVIDIA dominiert, das mehr als 80 % des Marktanteils ausmacht.

Zhen Yanan sagte: „Wir sind auch sehr besorgt über die Entwicklung inländischer Chips. Es versteht sich, dass inländische selbst entwickelte große Modelle und sogar einige große Open-Source-Modelle ständig auf inländische Chips verpflanzt werden. Nun aus der Perspektive der Chipnutzung, einige.“ Modelle können ausgeführt werden, und was nachgeholt werden muss, ist hauptsächlich hohe Leistung wie die GPU.

„Die gesamte Lokalisierung ist hierarchisch. Chips gehören zur Hardwareschicht. Darüber hinaus gibt es das Software-Ökosystem. Für inländische Chips erfordern sowohl das Framework als auch das Ökosystem einen bestimmten Kultivierungszyklus.“ genug Vertrauen in heimische Chips.

Speicherchip-Layout

Intelligente Rechenzentren müssen über eine hohe Kapazität, hohe Zuverlässigkeit, hohe Verfügbarkeit und andere Speichereigenschaften verfügen. Speichergeräte verwenden in der Regel Hochleistungsfestplatten oder Solid-State-Laufwerke und sind mit einer redundanten Speicherarchitektur ausgestattet, um Datensicherheit und -zugänglichkeit zu gewährleisten. Samsung, Micron, SK Hynix usw. verfügen über verwandte Chips, die in Rechenzentren, Cloud Computing und anderen Bereichen weit verbreitet sind, um leistungsstarke Speicherlösungen für intelligente Rechenzentren bereitzustellen.

Auch inländische Hersteller haben in den letzten Jahren eine rasante Entwicklung beim Aufholen der DRAM- und NAND-Technologie erzielt.

Neben herkömmlichen Speicherchips benötigen intelligente Rechenzentren auch die oben genannten neuen integrierten Speicherchips, um eine größere Rolle zu spielen.

Der Entwicklungsgeschichte von integriertem Speicher und Computing nach zu urteilen, haben große Hersteller wie NVIDIA, Microsoft und Samsung seit 2017 Prototypen von integriertem Speicher und Computing vorgeschlagen. Im selben Jahr begannen inländische Unternehmen für integrierte Speicher und Computing-Chips zu entstehen.

Die Nachfrage großer Hersteller nach einer integrierten Speicher- und Computerarchitektur ist praktisch und schnell umsetzbar. Als Technologie, die der technischen Implementierung am nächsten kommt, ist Near-Memory-Computing zur ersten Wahl großer Hersteller geworden. Große Hersteller mit umfangreichen Ökosystemen wie Tesla und Samsung sowie traditionelle Chiphersteller wie Intel und IBM setzen allesamt auf Near-Memory-Computing.

Inländische Start-ups konzentrieren sich auf In-Memory-Computing, das keine fortschrittliche Prozesstechnologie erfordert. Unter ihnen setzen Startups wie Zhicun Technology, Yizhu Technology und Jiutian Ruixin alle auf PIM, CIM und andere Technologiewege, die Speicher und Computing enger mit „Storage“ und „Computing“ integrieren. Yizhu Technology, Qianxin Technology usw. konzentrieren sich auf KI-Szenarien mit großer Rechenleistung wie große Modellberechnungen und autonomes Fahren; Shanyi, Xinyi Technology, Pingxin Technology, Zhicun Technology usw. konzentrieren sich auf das Internet der Dinge, tragbare Geräte und Smart Homes . Szenarien wie marginale Rechenleistung.

Yizhu Technology hat sich der Entwicklung von KI-Hochleistungschips unter Verwendung einer integrierten Speicher- und Computerarchitektur verschrieben. Zum ersten Mal kombiniert es Memristor-ReRAM mit einer integrierten Speicher- und Computerarchitektur und bietet so eine bessere Lösung Aufgrund der aktuellen Industriestruktur haben KI-Chips mit großer Rechenleistung, einem höheren Energieeffizienzverhältnis und einem größeren Spielraum für die Entwicklung der Rechenleistung einen neuen Weg in der Entwicklung eingeschlagen.

Qianxin Technology konzentriert sich auf die Forschung und Entwicklung von großen Rechenleistungsspeichern und integrierten Rechenchips sowie Rechenlösungen für die Bereiche künstliche Intelligenz und wissenschaftliches Rechnen. Im Jahr 2019 war das Unternehmen das erste Unternehmen, das eine rekonfigurierbare integrierte Speicher- und Rechentechnologie-Produktarchitektur vorschlug. Im Vergleich zu anderen Unternehmen können herkömmliche KI-Chips hinsichtlich des Rechendurchsatzes um das 10- bis 40-fache verbessert werden. Derzeit wurde der rekonfigurierbare integrierte Speicher- und Computerchip (Prototyp) von Qianxin Technology in den Bereichen Cloud Computing, autonome Fahrwahrnehmung, Bildklassifizierung, Nummernschilderkennung und anderen Bereichen getestet oder implementiert war das erste Unternehmen in China, das die internen Tests großer Internetunternehmen bestanden hat.

Der Plan von Zhicun Technology besteht darin, den Speicher neu zu gestalten, die physikalischen Eigenschaften von Flash-Speicherzellen zu nutzen, das Speicherarray umzuwandeln und die peripheren Schaltkreise so umzugestalten, dass es mehr Daten aufnehmen kann, und gleichzeitig Operatoren im Speicher zu speichern, sodass jeder Das Gerät kann Simulationsoperationen durchführen und die Operationsergebnisse direkt ausgeben, um den Zweck der Integration von Speicherung und Berechnung zu erreichen.

Intelligentes Rechnen macht mehr als 30 % des Umfangs aus und der Ausbau der Rechenleistung ist in vollem Gange

Anfang Juli wurde das Tianfu Intelligence Southwest Computing Center in Chengdu, Sichuan, offiziell in Betrieb genommen. Berichten zufolge wird das Zentrum Rechenleistung nutzen, um die Schaffung einer 100-Milliarden-Kernindustrie für künstliche Intelligenz in Chengdu zu unterstützen und Innovationen im Bereich künstlicher Intelligenz in Bereichen wie industrielle Fertigung, Naturwissenschaften, Biomedizin und wissenschaftliche Forschungssimulationsexperimente zu fördern.

Dies ist kein Einzelfall. Im vergangenen Monat hat das Yinchuan Green Intelligent Computing Center-Projekt intensiv begonnen; Beijing Mobile hat das erste groß angelegte integrierte intelligente Rechenzentrum für Schulung und Förderung gebaut, um Dutzende Milliarden und Hunderte von Milliarden großer Modellschulungen und -begründungen zu unterstützen hohe Komplexität und hohe Rechenanforderungen; Zhengzhou Das Rechenzentrum für künstliche Intelligenz hat mit dem Bau begonnen, mit einer Gesamtinvestition von mehr als 1,6 Milliarden Yuan ... Die neue digitale Infrastruktur, die das intelligente Rechenzentrum darstellt, beschleunigt seinen Bau und seine Umsetzung.

Am 15. Juli veröffentlichte Daten des National Bureau of Statistics zeigten, dass bis Ende Mai landesweit 460.000 5G-Basisstationen gebaut wurden; mehr als 10 intelligente Rechenzentren mit Hochleistungs-Computerclustern und intelligenter Rechenleistung waren geplant machte mehr als 30 % der gesamten Rechenleistung aus.

Laut unvollständigen Statistiken des China IDC Circle gibt es mit Stand vom 23. Mai 2024 283 intelligente Rechenzentren auf dem chinesischen Festland, die alle Provinzen, autonomen Regionen und Gemeinden auf dem chinesischen Festland abdecken. Darunter befinden sich 140 intelligente Rechenzentrumsprojekte mit Investitionsstatistiken und einer Gesamtinvestition von 436,434 Milliarden Yuan. Es gibt 177 Projekte für intelligente Rechenzentren mit geplanten Statistiken zur Rechenleistungsskala, und die Gesamtrechenleistungsskala erreicht 369.300 PFlops.

Diese „intelligenten Rechenzentren“ haben unterschiedliche Standards und Skalen. Die Rechenleistungsskala beträgt im Allgemeinen 50P, 100P, 500P, 1000P und einige erreichen sogar mehr als 12000P. Obwohl die KI-Welle breite Entwicklungsperspektiven für intelligente Rechenzentren eröffnet hat. Das Missverhältnis zwischen Angebot und Nachfrage, hohe Preise und doppelte Bauarbeiten sind nach wie vor Probleme beim Bau von Rechenleistung in meinem Land.

Gleichzeitig wurden vielerorts auch Sonderpläne eingeführt, um die Bauziele in den nächsten Jahren zu klären und die Fördermaßnahmen hinsichtlich Technologie, Anwendung und Finanzierung zu verbessern. Beispielsweise veröffentlichte Jiangsu einen Sonderplan für die Entwicklung der Rechenleistungsinfrastruktur der Provinz, der vorsieht, dass die gesamte in der Provinz genutzte Rechenleistung bis 2030 50 EFLOPS überschreiten wird (EFLOPS bezieht sich auf 10 Milliarden Gleitkommaoperationen pro Sekunde) und intelligent ist Die Rechenleistung wird mehr als 45 % ausmachen. Gansu schlägt vor, politische Unterstützung für die neue Computernetzwerkinfrastruktur in Bezug auf Landnutzung, den Bau kommunaler Unterstützungseinrichtungen, die Einführung von Talenten und die Finanzierung bereitzustellen.

„Die explosionsartige Entwicklung von Anwendungen wie großen Modellen der künstlichen Intelligenz hat zu einem Anstieg der Nachfrage nach intelligenter Rechenleistung geführt.“ Shan Zhiguang, Direktor der Abteilung für Informatisierung und industrielle Entwicklung des Nationalen Informationszentrums, sagte, dass sich die intelligente Datenverarbeitung rasant weiterentwickelt habe und hat sich in der Rechenleistungsstruktur meines Landes zum am schnellsten wachsenden entwickelt. Unter ihnen sind große Modelle der größte Nachfrager nach intelligenter Rechenleistung und machen fast 60 % der Nachfrage aus. Es wird erwartet, dass die jährliche durchschnittliche Wachstumsrate von Chinas intelligenter Rechenleistung bis 2027 33,9 % erreichen wird.