2024-08-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
China News Service, Peking, 12. August (Yuan Jiawei Xia Bin) Der Open Computing China Summit 2024 fand kürzlich in Peking statt. Wie Open Computing die Entwicklung künstlicher Intelligenz beschleunigt, stand im Mittelpunkt der Konferenz. Bei dem Treffen wurde die Spezifikation „Open Computing Module (OCM)“ offiziell vorgestellt. Zu den ersten Mitgliedern gehören das China Electronics Standards Institute, Baidu, Xiaohongshu, Inspur Information, Lenovo, Super Fusion, Intel, AMD und andere Institutionen und Unternehmen. Dies ist die erste inländische Designspezifikation für Server-Computing-Module. Die vor- und nachgelagerten Industrien hoffen, gemeinsam standardisierte Computermoduleinheiten zu etablieren, ein industrielles Ökosystem der offenen Zusammenarbeit und integrierten Innovation aufzubauen und die innovative Entwicklung der Technologie der künstlichen Intelligenz anzuregen.
Dieser Gipfel wird gemeinsam von der Open-Computing-Community OCP und der Organisation für offene Standards OCTC (China Electronics Industry Standardization Technology Association Open Computing Standards Working Committee) ausgerichtet. Der Schwerpunkt liegt auf Daten Zentrumsinfrastruktur, künstliche Intelligenz, intelligente Innovation, offene Computerökologie, grüne Computerentwicklung, offene Systeme und CXL und andere Themen, darunter Baidu, Alibaba Cloud, Industrial and Commercial Bank of China, ByteDance, Samsung, Inspur Information, NVIDIA, Flextronics, Solidigm, Intel, 21Vianet usw. Unternehmen sowie mehr als tausend IT-Ingenieure und Rechenzentrumspraktiker nahmen an der Konferenz teil.
Die rasante Entwicklung der generativen künstlichen Intelligenz hat zu umfassenderen intelligenten Anwendungsszenarien geführt, und der Wohlstand intelligenter Anwendungen erfordert zwangsläufig mehr Rechenleistung, um das Denken zu unterstützen. Als allgemeinere und einfacher zu beschaffende Rechenleistung ist die allgemeine Rechenleistung erforderlich Die Leistungsfähigkeit des KI-Computings wird den Intelligenzprozess offensichtlich erheblich beschleunigen.
Zhao Shuai, General Manager der Inspur Information Server Product Line, sagte unverblümt: „Nicht nur KI-Chips, alle Berechnungen sind KI, und die allgemeine Rechenleistung muss auch über KI-Rechenfähigkeiten verfügen. Die aktuelle Iteration von CPU-Prozessoren ist jedoch auch sehr schnell.“ und die technischen Wege verschiedener Plattformen sind unterschiedlich. Bei mehr als zehn Chiptypen müssen möglicherweise Hunderte von Servern entwickelt werden.“
Allerdings sind die aktuellen CPU-Protokollstandards für verschiedene Architekturen wie x86, ARM, RISC-V usw. nicht einheitlich, was zu enormen zeitaufwändigen Aufwänden bei der Hardwareentwicklung, Firmware-Anpassung, Komponententests usw. führt. Gleichzeitig Um sich besser an die hochparallelen Recheneigenschaften der KI-Inferenz anzupassen, müssen auch die CPU-Busverbindung, die Bandbreite, die Speicherbandbreite und die Kapazität speziell optimiert werden, was dazu führt, dass der Stromverbrauch des Systems, die Busgeschwindigkeit und die Stromdichte weiter ansteigen Die Überlagerung mehrerer Faktoren macht den Entwurfs- und Entwicklungszyklus von Rechenleistungssystemen langwierig und kostspielig.
Im Zuge des Trends der CPU-Diversifizierung ist die Frage, wie die Innovation von CPU zu Computersystem schnell abgeschlossen werden kann, damit sie auf die KI-Inferenzlast angewendet werden kann, zu einem Schlüsselelement geworden, um die derzeitige Knappheit an KI-Rechenleistung zu lindern und die Entwicklung künstlicher Intelligenz zu fördern.
Zu diesem Zweck wurde auf dem Treffen offiziell die Open Computing Module (OCM)-Spezifikation vorgestellt. Sie zielt darauf ab, die kleinste Recheneinheit mit CPU und Speicher als Kern zu bauen und ist mit Prozessoren mehrerer Generationen von Chips mit mehreren Architekturen kompatibel, z x86 und ARM erleichtern Benutzern die flexible und schnelle Kombination ihrer Anwendungsszenarien.
Die Einführung der OCM-Spezifikation zielt darauf ab, eine standardisierte Rechenleistungsmoduleinheit basierend auf dem Prozessor zu etablieren, indem die externe Hochgeschwindigkeitsverbindung, das Verwaltungsprotokoll, die Stromversorgungsschnittstelle usw. der Rechenleistungseinheiten verschiedener Prozessoren vereinheitlicht werden Kompatibilität von Prozessorchips verschiedener Architekturen und zum Aufbau einer CPU. Die einheitliche Rechenleistungsbasis löst CPU-ökologische Herausforderungen und erleichtert Kunden die flexible und schnelle Anpassung der am besten geeigneten Rechenleistungsplattform basierend auf verschiedenen Anwendungsszenarien wie künstliche Intelligenz, Cloud Computing und Big Daten und fördert die qualitativ hochwertige und schnelle Entwicklung der Rechenleistungsbranche. Die Formulierung offener OCM-Standards kann Benutzern vielseitigere, umweltfreundlichere, effizientere, sicherere und zuverlässigere Rechenleistungsoptionen bieten.
Darüber hinaus rekonstruiert generative künstliche Intelligenz die Infrastruktur von Rechenzentren und stellt höhere Anforderungen an Recheneffizienz, Speicherkapazität und -leistung, Netzwerklösungen, Ressourcenplanungsmanagement, Energieeffizienzkontrolle und -management sowie omnidirektionale Skalierung (Leistungssteigerung und Skalierung). Fähigkeiten sind zum Kern des Aufbaus einer fortschrittlichen KI-Infrastruktur geworden. Auf diesem Gipfel werden zahlreiche innovative Technologien und Produktlösungen, darunter CXL-Technologie, KI-orientierte Netzwerkarchitektur und das erste 16-Kanal-PCIe5.0-TLC-Solid-State-Laufwerk, die Skalierbarkeit des Rechenzentrums weiter verbessern.
Zhao Shuai glaubt, dass Open Computing für das Zeitalter des intelligenten Computings von großer Bedeutung und Wert ist. Offenheit muss genutzt werden, um den Herausforderungen unterschiedlicher Rechenleistung zu begegnen, und Offenheit muss auch genutzt werden, um das Ausmaß der aktuellen Rechenleistung zu fördern. Computing-Skalierung ist ein iterativer und schneller Entwicklungsprozess, bei dem Skalierung (Verbesserung der Leistung eines einzelnen Systems) und Skalierung (Erweiterung der Cluster-Skala) nebeneinander bestehen. In dieser Phase realisieren offene Beschleunigungsmodule und offene Netzwerke das Ausmaß der Rechenleistung, offene Firmware-Lösungen realisieren das Ausmaß der Verwaltung und offene Standards und offene Ökologie realisieren das Ausmaß der Infrastruktur. In Zukunft werden offene Innovationen zur Beschleunigung eingesetzt Rechenleistungssystem in alle Richtungen, Umgang mit großem Modellskalierungsgesetz.
Auf der Konferenz wurden außerdem zehn wichtige Innovationen im Bereich Open Computing vorgestellt, darunter Richtlinien für den Einsatz in sehr großen Rechenzentren, technische Anforderungen für das Design von Beschleunigerkarten für flüssigkeitsgekühlte künstliche Intelligenz usw., was die Innovationskraft von Open Computing im Bereich Rechenzentren weiter widerspiegelt.
Im Zeitalter der Intelligenz rekonstruieren große Modelle die KI-Infrastruktur. Rechenzentren stehen vor omnidirektionalen Innovationsherausforderungen in den Bereichen Rechenleistung, Netzwerk, Speicher, Verwaltung und Energieeffizienz. Es ist notwendig, eine globale offene Kollaborationsplattform aufzubauen und gemeinsam zu lösen Die oben genannten Hauptprobleme bieten unbegrenzte Möglichkeiten für die KI-Entwicklung. (über)