2024-08-14
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Es war einmal, dass das UDC-Unterwasser-Rechenzentrum, genau wie der in Wasser getränkte Root-Server in „The Wandering Earth 2“, ein „Schwarzfeld“ war, das nur in Science-Fiction-Filmen, bei der Nachrichtensuche oder für wissenschaftliche Spitzenforschung im Ausland existierte Institutionen, „ihre wissenschaftlichen und technischen Fähigkeiten unter Beweis zu stellen“.
Heute ist UDC zu uns gekommen und beschleunigt sich.
Im Juli dieses Jahres ging ich zur Weltkonferenz für künstliche Intelligenz 2024 und sah am „C“-Stand eines chinesischen Computerherstellers einen in Wasser getauchten laufenden Computer.
Es stellt sich heraus, dass die von diesem Unternehmen entwickelte Spezialflüssigkeit mit Leiterplatten kompatibel ist und die Schaltkreise nicht angreift. Flüssigkeitsgekühlte Server aus entsprechenden Materialien können „Wasser“, dem natürlichen Feind elektronischer Komponenten, widerstehen und ermöglichen so Unterwasser-Rechenzentren.
Nach Angaben der Mitarbeiter vor Ort hat das Unternehmen eine Zusammenarbeit mit Suzhou geschlossen und errichtet im See ein Unterwasser-Rechenzentrum. Erstens kann es als Benchmark-Projekt für lokale „neue Qualitätsproduktivität“ verwendet werden, um regionale Stärke im intelligenten Rechnen zu demonstrieren. Zweitens hat es besonders gute Energieeinsparungs- und Emissionsreduzierungseffekte und kann einigen lokalen KI-Unternehmen grüne Rechenleistung bieten und Anwendungen.
Wie können wir also die Rechenleistung unter Wasser nutzen? Die Antwort lautet: Wolke.
Der Bezug von KI-Rechenleistung aus der Cloud ist mit seinen natürlichen Kostenvorteilen und flexiblen Leasingvorteilen zur ersten Wahl für KI-Startups geworden.Um eine energiesparendere, umweltfreundlichere und kostengünstigere „Cloud“ aufzubauen, ist das UDC-Unterwasserrechenzentrum auch in die Vision von Cloud-Computing-Herstellern eingetreten.
Im Jahr 2014 schlug Microsoft erstmals das Konzept von Unterwasser-Rechenzentren vor, in der Hoffnung, Hochgeschwindigkeits-Cloud-Dienste für die Küstenbevölkerung bereitzustellen. Im Jahr 2018 versenkte Microsoft offiziell 855 Server im Vergleich zur Azure-Cloud. Mein Land verfügt derzeit auch über Unterwasser-Rechenzentren. Sein Kerngeschäft sind Rechenleistungsdienste sowie groß angelegte direkte Kooperationen mit Cloud-Herstellern wie Tencent und Alibaba, um ihnen kostengünstigere Cloud-Computing-Leistung bereitzustellen.
In diesem Artikel geht es darum, wie die Unterwasserwolke den Preis für Rechenleistung „senken“ kann.
„Das Ende der KI ist Elektrizität.“ Die Parameter großer Modelle erreichen Billionen, was die Netzwerkgröße intelligenter Rechenzentren auf 50.000 Karten oder sogar 100.000 Karten treibt. Ein Cluster aus 100.000 Karten kann den Strom einer Stadt verbrauchen. Um das große KI-Modell zu unterstützen, können die Menschen in der Stadt weder die Klimaanlage einschalten noch fernsehen. Das ist zu Cyberpunk.
Wir wollen nicht nur, dass das passiert, sondern auch die Cloud-Anbieter wollen das nicht. Einige Umfragen zeigen, dass Wasser- und Stromkosten mehr als 50 % der Betriebskosten von Rechenzentren ausmachen. Da die Dichte von GPUs in intelligenten Rechenzentren weiter zunimmt, wird die Strombelastung exponentiell ansteigen, was direkt zu einem Kostenanstieg für Cloud-Anbieter führt.
Um die Stromrechnungen zu senken, haben Cloud-Anbieter ihr Bestes gegeben.
Einige Leute haben ihre Rechenzentren in Ulanqab und Qinghai aufgestellt, andere haben sie am See aufgestellt (Alibaba Thousand Island Lake Data Center), einige haben sie in Höhlen untergebracht (Tencent, Huawei) und einige haben sie direkt an den Polarkreis verlegt (Facebook Node Pole). Rechenzentrum, Google Data Center im Hafen von Hamina, Finnland), und einige Leute haben es auf See (Google Floating Data Center) und unter Wasser (Microsoft Project Natick Data Center) platziert.
Das Grundprinzip bleibt dasselbe: Die Abhängigkeit von Luftkühlung wie Klimaanlagen und anderen elektrischen Geräten zur Kühlung wird verringert und die natürliche Kühlung erfolgt stärker auf Luft oder Wasser in der natürlichen Umgebung.
Zu diesen natürlichen Kühllösungen gehörenUnterwasserwolken sind bei der „Leistungsreduzierung“ zweifellos am wettbewerbsfähigsten.
Offensichtlich ist die Unterwasserumgebung im Vergleich zu Landrechenzentren komplexer, Verkabelung und Wartung sind schwieriger und Server haben von Natur aus Angst vor Wasser, was eine größere Herausforderung für die Wasserdichtigkeit und Korrosionsschutzleistung von Unterwasserrechenzentren darstellt noch ein Rechenzentrum werden?
Die „ersten Kosten“ des Unterwasser-Rechenzentrums bringen den natürlichen Kühleffekt zum „Mindestpreis“.
Als Lösung mit der extremsten Kühlwirkung nutzen Unterwasser-Rechenzentren direkt die Tieftemperatureigenschaften von Wasser, um mehr Wärme zu absorbieren als andere Substanzen (wie Luftkühlung und Windkühlung), wodurch der zusätzliche Kühlbedarf erheblich reduziert wird.
Da die Unterwasserumgebung selbst für eine effektive Kühlung sorgt, kann gleichzeitig die Abhängigkeit von Klimaanlagen und der Energieverbrauch reduziert werden.
Man kann sagen, dass das Unterwasser-Rechenzentrum den größten Kostenvorteil bei der Energieeinsparung und Verbrauchsreduzierung bietet, indem es den Wasserfluss zur Wärmeabfuhr nutzt.
Der Bau von Rechenzentren an Land nimmt natürlich auch Landfläche in Anspruch. Zusätzlich zu den Landkosten sind die Infrastrukturbedingungen in einigen kalten Städten im Landesinneren und Gebieten mit niedrigeren Erdgastemperaturen im Allgemeinen nicht so entwickelt wie in Küstengebieten, wie zum Beispiel am Polarkreis, was dazu führt Die Gesamtbetriebskosten steigen.
Insbesondere mit der Einführung von Super-10.000-ka-Clustern wurden extrem hohe Anforderungen an die unterstützenden Einrichtungen landgestützter Rechenzentren/intelligenter Rechenzentren gestellt, wie z. B. Stromversorgung, Tragfähigkeit, Sauberkeit des Computerraums und Kabelgestelldesign.
Das „White Paper on New Intelligent Computing Technology for Super 10.000 Card Clusters (2024)“ zeigt, dass aufgrund der höheren Rechenleistungsdichte und höheren Stromverbrauchsdichte des Super 10.000 Card Clusters auch der Kabeleinsatz zugenommen hat A 1,8 Wankas intelligenter Rechencluster muss 100.000 Kabel verlegen, was neue Herausforderungen an die Breite und Tragfähigkeit des Verkabelungsgestells mit sich bringt.
Man kann sagen, dass die Gesamtkosten für Landrechenzentren/intelligente Rechenzentren steigen.
Im Gegensatz dazu sinken die Baukosten von Unterwasser-Rechenzentren und die „Scherenlücke“ zwischen beiden wird immer kleiner.
Einerseits haben Bauherren aufgrund der größeren Fläche von Seen und Ozeanen eine größere Auswahl an Standorten im Vergleich zu Gebieten im Landesinneren, sodass die Landkosten für Unterwasser-Rechenzentren besser kontrollierbar sind.
Darüber hinaus nutzen Unterwasser-Rechenzentren häufig hochintegrierte, eng gekoppelte, abgedichtete Datenkabinen. Einige Geräte, die in Land-Rechenzentren erforderlich sind, wie z. B. Kühltürme und Kompressoren, werden unter Wasser nicht benötigt. Richtig konzipierte Unterwasser-Data-Warehouses weisen geringere Ausfallraten sowie geringere Betriebs- und Wartungskosten auf.
Im September 2020 hob Microsoft ein Rechenzentrum hoch, das zwei Jahre lang auf dem Meeresgrund versunken war. Eine Auswertung ergab, dass die Serverausfallrate im Unterwasser-Rechenzentrum niedriger war als bei herkömmlichen Rechenzentren und die Zuverlässigkeit achtmal höher war höher als Server an Land.
Dies kann daran liegen, dass die Unterwasser-Datenkabine von der sich verändernden Umgebung isoliert werden kann und nur selten durch Unfälle gestört wird. Kurz gesagt, die riesigen Gewässer machen Unterwasser-Rechenleistung, die nicht mit Menschen um Landressourcen konkurrieren muss, erschwinglicher.
Weichen Sie den Server in Wasser ein, um Wasser zu sparen. Was ist los?
Dadurch wird ein Indikator angezeigt: WUE (Water Usage Effectiveness), Effizienz der Wasserressourcennutzung.
Viele Menschen haben von PUE gehört, aber nur wenige haben von WUE gehört. Wenn wir eine ökologisch nachhaltige Entwicklung fördern und CO2-Neutralität erreichen wollen, muss WUE reduziert werden.
Der Kern der WUE-Reduzierung besteht in der Reduzierung der Moleküle – der Wassermenge, die in das Rechenzentrum gelangt und hauptsächlich aus Produktionswasser wie Gefrierwasser, Kühlwasser und Befeuchtungswasser besteht.Je weniger Wasser im Kühlprozess verbraucht wird, desto höher ist der WUE。
Kann das Eintauchen des Rechenzentrums in Wasser das Produktionswasser reduzieren? Ja und sogar 0.
Einerseits nutzt das Unterwasser-Rechenzentrum direkt die niedrige Temperatur des umgebenden Wassers, um die Server zu kühlen, ohne dass es zu Verdunstung und Wärmeableitung kommt. Dadurch entfällt die Notwendigkeit von Kühltürmen und Kaltwassersystemen in herkömmlichen Rechenzentren und der Wasserverbrauch für die Kühlung ist gleich 0.
Darüber hinaus gelangt das während des Kühlprozesses des Unterwasser-Rechenzentrums verdunstete Wasser direkt in den Wasserkörper zurück, nahezu ohne Verlust an öffentliche Wasserquellen. Wenn in einigen trockenen und wasserarmen Gebieten Seen, Flüsse und Grundwasser zur Abkühlung genutzt werden, können die verdunsteten Wasserressourcen möglicherweise nicht schnell in das lokale Wassersystem zurückkehren, was sich negativ auf die lokale Wasserumgebung auswirkt .
Im Jahr 2023 schränkte Arizona in den Vereinigten Staaten den Bau lokaler Rechenzentren aufgrund von Bedenken hinsichtlich des Wasserverbrauchs ein. Im Inland hat der Bezirk Jining in der Stadt Ulanqab in der Inneren Mongolei außerdem die „Mitteilung zum Verbot der Nutzung von Grundwasser für Big-Data-Unternehmen im Bezirk Jining zur Kühlung“ herausgegeben.
Selbst wenn das Unterwasser-Rechenzentrum eine gewisse thermische Transpiration erzeugt, wird diese von den riesigen Seen und Ozeanen schnell verstoffwechselt und hat keinen Einfluss auf den lokalen Wasserkreislauf.
Obwohl Unterwasser-Rechenzentren große Kostenvorteile bieten, kann es zu einem Unfall kommen, bei dem „die Kosten sinken und das Lachen zunimmt“, wenn KI-Cloud-Dienste die Kosten blind senken.
Beispielsweise sind die Speicher- und Rechenkosten von Rechenzentren im Westen niedriger als im Osten. Einige Unternehmen im Osten würden jedoch angesichts von Übertragungsverzögerungen, Paketverlustraten, Geschäftszuverlässigkeit usw. lieber 50 % mehr in Kauf nehmen Kosten als ihre Daten in den Osten zu legen, insbesondere Unternehmen wie autonomes Fahren, die hohe Echtzeitdaten benötigen. Dies ist auch ein wichtiger Grund dafür, dass die Verfügbarkeit vieler westlicher Rechenzentren nicht hoch ist.
Das Kommerzialisierungsdilemma von Unterwasser-Rechenzentren besteht darin, dass der Preis zwar niedrig ist, diese jedoch nicht vollständig an die Bedürfnisse der KI angepasst sind und KI von Cloud-Anbietern derzeit als die wichtigste neue Einnahmequelle angesehen wird.
Die Skalierbarkeit der Unterwasserressourcen ist begrenzt.Cloud-Dienste müssen die Ressourcen schnell erweitern und die Rechenleistung und den Speicherplatz entsprechend den Benutzeranforderungen erhöhen. Außerdem gibt es einen bestimmten Zeitraum, in dem Unterwasser-Datenkabinen die Fabrik verlassen und ins Wasser gelassen werden (die offizielle Website von Microsoft zeigt, dass Natick 90 Tage benötigt). von der Fabrik bis zum Betrieb), und derzeit kann das intelligente Rechenzentrum an Land durch modulare Bauweise in etwa einem Monat fertiggestellt werden, wodurch der Bedarf an KI-Rechenleistung schneller gedeckt werden kann.
Derzeit hat Microsoft außerdem angekündigt, das Natick-Projekt einzustellen. Es wird gesagt, dass es die Forschung zu Installations- und Wartungsrobotern in der späteren Phase verstärken wird. Es scheint, dass die Unterwasserumgebung weit entfernt von menschlichen Aktivitäten immer noch nicht geeignet ist Groß angelegte Bereitstellung von Rechenzentren.
Darüber hinaus stellt das Hosting und Management der Unterwasser-Rechenleistung auch Cloud-Anbieter vor Herausforderungen.Derzeit ist der Anteil der Unterwasser-Rechenleistung noch relativ gering. Cloud-Anbieter müssen diese heterogenen Ressourcen integrieren und verwalten, um sicherzustellen, dass Rechenleistung aus verschiedenen Quellen nahtlos integriert werden kann, um eine optimale Leistung zu erzielen und Benutzern eine bequeme und einfache Nutzung dieser Ressourcen zu ermöglichen . Investieren Sie viele Ressourcen in die Forschung und Entwicklung von Technologien, Systemen und Plattformen.
Einige kleine und mittlere Cloud-Anbieter, die nicht über eine hohe Akkumulation verfügen, befinden sich möglicherweise in der Situation, dass „Sojasauce (Verwaltungsplattform) teurer ist als Hühnchen (Rechenleistung)“ und sich nicht auf Kostenvorteile verlassen können, um ihre allgemeine Wettbewerbsfähigkeit zu verbessern.
Xu Zhimo schrieb einmal in dem Gedicht „Accidental“: „Ich bin eine Wolke am Himmel, die gelegentlich in die Mitte deiner Welle projiziert wird.“ Derzeit können KI-Cloud-Dienste und Unterwasser-Rechenzentren möglicherweise nicht für immer zusammen bleiben einander ist nur einer.
Im Mai 2024 hat die zweite Phase des Natick-Projekts begonnen, was Microsofts anhaltendes Streben nach Cloud-Rechenzentrumslösungen widerspiegelt. Es macht das „Unterwasser-Rechenzentrum“ auch zu einem Weg, dem China nicht zu weit hinterherhinken kann und das für die technologische Unabhängigkeit besser geeignet ist . , eine Visitenkarte eines technologisch starken Landes, das zusammen mit der State-owned Assets Cloud, der Central State-owned Enterprise Cloud und der Scientific Research Cloud erprobt und erforscht wird.
Cloud-Service-Anbieter mit stärkeren kommerziellen Merkmalen müssen sich weiterhin auf das Land konzentrieren. Glücklicherweise verfügt China über eine reiche Topographie und eine vollständige Infrastruktur, so dass es viel Raum gibt, um „die ultimative Kosteneffizienz“ zu erkunden.
Aus dieser Perspektive war Rechenleistung nie eine Angelegenheit eines einzelnen Computerunternehmens oder einer Branche, sondern ein Systemprojekt mit globaler Beteiligung. Die Ära, in der Rechenleistung nationale Macht ist, hat gerade erst begonnen.