nouvelles

nuages ​​sous l'eau

2024-08-14

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina



Autrefois, le centre de données sous-marin de l'UDC, tout comme le serveur racine trempé dans l'eau dans "The Wandering Earth 2", était un "champ noir" qui n'existait que dans les films de science-fiction, la recherche d'informations ou utilisé par les plus grands chercheurs scientifiques étrangers. institutions à « montrer leurs compétences en matière de science et de technologie ».

Aujourd’hui, l’UDC est arrivée à nous et s’accélère.

En juillet de cette année, je suis allé à la Conférence mondiale sur l'intelligence artificielle 2024 et j'ai vu un ordinateur en marche immergé dans l'eau sur le stand « C » d'un fabricant informatique chinois.

Il s’avère que le liquide spécial développé par cette société est compatible avec les circuits imprimés et ne corrodera pas les circuits. Les serveurs refroidis par liquide construits avec des matériaux similaires peuvent résister à « l'eau », l'ennemi naturel des composants électroniques, rendant ainsi possibles les centres de données sous-marins.

Selon le personnel sur place, l'entreprise a conclu une coopération avec Suzhou et déploie actuellement un centre de données sous-marin dans le lac. Premièrement, il peut être utilisé comme projet de référence pour une « nouvelle productivité de qualité » locale afin de démontrer la force régionale en matière d'informatique intelligente ; deuxièmement, il a des effets particulièrement bons en matière d'économie d'énergie et de réduction des émissions, et peut fournir une puissance de calcul verte à certaines entreprises locales d'IA. et applications.



Alors, comment pouvons-nous utiliser la puissance de calcul sous-marine ? La réponse est : le cloud.

Obtenir la puissance de calcul de l'IA à partir du cloud est devenu le premier choix pour les start-ups de l'IA, en raison de ses avantages naturels en termes de coûts et de ses avantages de location flexibles.Pour construire un « cloud » plus économe en énergie, plus écologique et moins coûteux, le centre de données sous-marin UDC est également entré dans la vision des fabricants de cloud computing.

En 2014, Microsoft a proposé pour la première fois le concept de centres de données sous-marins, dans l’espoir de fournir des services cloud à haut débit aux populations côtières. En 2018, Microsoft a officiellement coulé 855 serveurs à la mer pour comparer avec le cloud Azure. Mon pays dispose actuellement également de centres de données sous-marins. Son activité principale est les services de puissance de calcul, ainsi que la coopération directe à grande échelle avec des fabricants de cloud tels que Tencent et Alibaba pour leur fournir une puissance de cloud computing plus rentable.

Cet article expliquera comment le cloud sous-marin peut « faire baisser » le prix de la puissance de calcul ?



"La fin de l'IA, c'est l'électricité." Les paramètres des grands modèles atteignent des milliards, ce qui fait évoluer l'échelle du réseau des centres informatiques intelligents jusqu'à 50 000 cartes, voire 100 000 cartes. Un groupe de 100 000 cartes peut consommer l’énergie d’une ville. Afin de prendre en charge le grand modèle d'IA, les citadins ne peuvent pas allumer la climatisation ni regarder la télévision. C'est trop cyberpunk.

Non seulement nous ne voulons pas que cela se produise, mais les fournisseurs de cloud computing ne le souhaitent pas non plus. Certaines enquêtes montrent que les dépenses en eau et en électricité représentent plus de 50 % des coûts d'exploitation des centres de données. À mesure que la densité des GPU dans les centres de calcul intelligents augmente, la charge électrique augmentera de façon exponentielle, entraînant directement une augmentation des coûts pour les fournisseurs de cloud.

Afin de réduire les factures d’électricité, les fournisseurs de cloud ont fait de leur mieux.

Certaines personnes ont installé leurs centres de données à Ulanqab et au Qinghai, d'autres au bord du lac (Alibaba Thousand Island Lake Data Center), d'autres encore dans des grottes (Tencent, Huawei) et d'autres encore les ont déplacés directement vers le cercle polaire arctique (Facebook Node Pole). data center, Google Data Center à Hamina Port, Finlande), et certaines personnes l'ont placé en mer (Google Floating Data Center) et sous la mer (Microsoft Project Natick Data Center).

Le principe de base reste le même, à savoir réduire la dépendance au refroidissement par air, comme les climatiseurs et autres équipements électriques, pour le refroidissement, et s'appuyer davantage sur l'air ou l'eau de l'environnement naturel pour le refroidissement naturel.



Parmi ces solutions de refroidissement naturel,Les nuages ​​sous-marins sont sans doute les plus compétitifs en « réduction de puissance ».

De toute évidence, par rapport aux centres de données terrestres, l'environnement sous-marin est plus complexe, le câblage et la maintenance sont plus difficiles et les serveurs ont intrinsèquement peur de l'eau, ce qui pose de plus grands défis pour les performances d'étanchéité et anticorrosion des centres de données sous-marins. devenir encore un data center ? Un choix ?

Le « premier coût » du centre de données sous-marin apporte l'effet de refroidissement naturel au « prix plancher ».

En tant que solution ayant l'effet de refroidissement le plus extrême, les centres de données sous-marins utilisent directement les caractéristiques de basse température de l'eau pour absorber plus de chaleur que d'autres substances (telles que le refroidissement par air et par vent), réduisant ainsi considérablement les besoins de refroidissement supplémentaires.

Dans le même temps, puisque l’environnement sous-marin assure lui-même un refroidissement efficace, le recours aux systèmes de climatisation et la consommation d’énergie peuvent être réduits.

On peut dire que le centre de données sous-marin présente l'avantage de coût le plus significatif en matière d'économie d'énergie et de réduction de la consommation en utilisant le flux d'eau pour éliminer la chaleur.



La construction de centres de données sur terre occupe naturellement de l'espace. Outre les coûts fonciers, les conditions d'infrastructure dans certaines villes froides de l'intérieur et dans les zones où les températures du gaz naturel sont plus basses ne sont généralement pas aussi développées que dans les zones côtières, telles que le cercle polaire arctique, ce qui entraîne des problèmes. un TCO global des coûts augmente.

Surtout avec l'arrivée des clusters super-10 000 ka, des exigences extrêmement élevées ont été imposées aux installations de support des centres de données terrestres/centres informatiques intelligents, telles que l'alimentation électrique, la portance, la propreté de la salle informatique et la conception des racks de câbles.

Le « Livre blanc sur la nouvelle technologie informatique intelligente pour les clusters de cartes Super 10 000 (2024) » montre qu'en raison de la densité de puissance de calcul plus élevée et de la densité de consommation d'énergie plus élevée du cluster de cartes Super 10 000, la quantité de déploiement de câbles a également augmenté A 1,8. Le cluster informatique intelligent de Wanka doit disposer 100 000 câbles, ce qui posera de nouveaux défis en termes de largeur et de capacité de charge du rack de câblage.

On peut dire que le coût global des centres de données terrestres/centres de calcul intelligents est en augmentation.

En revanche, le coût de construction des centres de données sous-marins diminue et l’écart entre les deux se réduit de plus en plus.



D'une part, en raison de l'espace plus grand des lacs et des océans, les constructeurs disposent d'un plus large éventail de sites parmi lesquels choisir. Par rapport aux zones intérieures, le coût du terrain des centres de données sous-marins est plus contrôlable.

De plus, les centres de données sous-marins utilisent souvent des cabines de données hautement intégrées, étroitement couplées et scellées. Certains équipements nécessaires dans les centres de données terrestres, tels que les tours de refroidissement et les compresseurs, ne sont pas nécessaires sous l'eau. Les entrepôts de données sous-marins correctement conçus ont des taux de défaillance plus faibles et des coûts d'exploitation et de maintenance inférieurs.

En septembre 2020, Microsoft a soulevé un centre de données qui avait coulé du fond de la mer pendant deux ans. Une évaluation a révélé que le taux de panne des serveurs dans le centre de données sous-marin était inférieur à celui des centres de données traditionnels et que la fiabilité était huit fois supérieure. supérieur à celui des serveurs terrestres.

Cela peut être dû au fait que la cabine de données sous-marine peut être isolée de l'environnement changeant et est rarement perturbée par des accidents. En bref, les vastes eaux rendent plus abordable la puissance de calcul sous-marine, qui n’a pas à rivaliser avec les humains pour les ressources terrestres.



Faites tremper le serveur dans l'eau pour économiser l'eau. Que se passe-t-il?

Cela fait apparaître un indicateur : WUE (Water Usage Effectiveness), efficacité d’utilisation des ressources en eau.

Beaucoup de gens ont entendu parler du PUE, mais peu ont entendu parler du WUE. Si nous voulons promouvoir un développement écologiquement durable et atteindre la neutralité carbone, le WUE doit être réduit.

L'objectif principal de la réduction du WUE est de réduire les molécules, c'est-à-dire la quantité d'eau introduite dans le centre de données, qui est principalement composée d'eau de production telle que l'eau de congélation, l'eau de refroidissement et l'eau d'humidification.Moins il y a d’eau consommée dans le processus de refroidissement, plus le WUE est élevé

L'immersion du centre de données dans l'eau peut-elle réduire la quantité d'eau de production ? Oui, et même 0.

D'une part, le centre de données sous-marin utilise directement la basse température de l'eau environnante pour refroidir les serveurs sans évaporation ni dissipation de chaleur. Il élimine le besoin de tours de refroidissement et de systèmes d'eau froide dans les centres de données traditionnels, ainsi que la consommation d'eau pour le refroidissement. est égal à 0.

De plus, l’eau évaporée pendant le processus de refroidissement du centre de données sous-marin retourne directement dans le plan d’eau, sans pratiquement aucune perte pour les sources d’eau publiques. Dans certaines zones sèches et pauvres en eau, si les lacs, les rivières et les eaux souterraines sont utilisés pour se refroidir, les ressources en eau évaporées risquent de ne pas pouvoir retourner rapidement dans le système d'eau local, ce qui aura un impact négatif sur l'environnement aquatique local. .



En 2023, l’Arizona, aux États-Unis, a restreint la construction de centres de données locaux en raison de préoccupations liées à la consommation d’eau. Au niveau national, le district de Jining, ville d'Ulanqab, en Mongolie intérieure, a également publié un « Avis interdisant aux entreprises de Big Data du district de Jining d'utiliser les eaux souterraines pour le refroidissement ». Il est interdit aux entreprises de Big Data de la juridiction d'utiliser les eaux souterraines pour le refroidissement.

Même si le centre de données sous-marin génère une certaine transpiration thermique, elle sera rapidement métabolisée par les vastes lacs et océans et n'affectera pas le cycle de l'eau local.



Bien que les centres de données sous-marins présentent de grands avantages en termes de coûts, si les services cloud d'IA réduisent aveuglément les coûts, il pourrait y avoir un accident de « réduction des coûts et augmentation des rires ».

Par exemple, les coûts de stockage et de calcul des centres de données de l'Ouest sont inférieurs à ceux de l'Est. Cependant, certaines entreprises de l'Est, compte tenu des délais de transmission, des taux de perte de paquets, de la fiabilité de l'entreprise, etc., préféreraient supporter 50 % de plus. coûts que de placer leurs données à l'Est, en particulier dans les entreprises telles que la conduite autonome qui nécessitent beaucoup de données en temps réel. C’est également une raison importante pour laquelle le taux de disponibilité de nombreux centres de données occidentaux n’est pas élevé.

Le dilemme de la commercialisation des centres de données sous-marins est que, même si leur prix est bas, ils ne sont pas entièrement adaptés aux besoins de l’IA, et l’IA est actuellement considérée par les fournisseurs de cloud comme le nouveau point de revenus le plus critique.



L’évolutivité des ressources sous-marines est limitée.Les services cloud doivent étendre rapidement les ressources et augmenter la puissance de calcul et l'espace de stockage en fonction des besoins des utilisateurs, et il existe un certain délai pour que les cabines de données sous-marines quittent l'usine et soient lancées dans l'eau (le site officiel de Microsoft indique que Natick prend 90 jours). de l'usine à l'exploitation), et actuellement le centre de calcul intelligent sur terre peut être achevé en un mois environ grâce à une construction modulaire, ce qui peut répondre plus rapidement à la demande de puissance de calcul de l'IA.

À l'heure actuelle, Microsoft a également annoncé la suspension du projet Natick, qui permettrait de renforcer ultérieurement la recherche sur les robots d'installation et de maintenance. Il semble que l'environnement sous-marin, loin des activités humaines, ne soit toujours pas adapté aux grandes entreprises. déploiement à grande échelle de centres de données.

En outre, l’hébergement et la gestion de la puissance de calcul sous-marine posent également des défis aux fournisseurs de cloud.À l'heure actuelle, la proportion de puissance de calcul sous-marine est encore relativement faible. Les fournisseurs de cloud doivent intégrer et gérer ces ressources hétérogènes pour garantir que la puissance de calcul provenant de différentes sources puisse être intégrée de manière transparente afin d'obtenir des performances optimales et permettre aux utilisateurs d'utiliser ces ressources de manière pratique et simple. . Investissez beaucoup de ressources dans la recherche et le développement de technologies, de systèmes et de plates-formes.

Certains fournisseurs de cloud de petite et moyenne taille qui n'ont pas d'accumulation importante peuvent se retrouver dans une situation où « la sauce soja (plate-forme de gestion) coûte plus cher que le poulet (puissance de calcul) » et ne peuvent pas compter sur des avantages en termes de coûts pour améliorer leur compétitivité globale.



Xu Zhimo a écrit un jour dans le poème « Accidentel » : « Je suis un nuage dans le ciel, parfois projeté au centre de votre vague. » À l'heure actuelle, les services cloud d'IA et les centres de données sous-marins ne pourront peut-être pas rester ensemble pour toujours. l'un n'en est qu'un l'un l'autre.

En mai 2024, la deuxième phase du projet Natick a commencé, reflétant la recherche continue de Microsoft en matière de solutions de centres de données cloud. Elle fait également du « centre de données sous-marin » une voie sur laquelle la Chine ne peut pas trop être à la traîne et est plus adaptée à l'indépendance technologique. . , une carte de visite d'un pays technologiquement puissant, pilotée et explorée avec le Cloud d'actifs appartenant à l'État, le Cloud d'entreprise appartenant à l'État central et le Cloud de recherche scientifique.

Les fournisseurs de services cloud dotés de solides atouts commerciaux doivent encore se concentrer sur le terrain. Heureusement, la Chine possède une topographie riche et une infrastructure complète, il existe donc un vaste espace pour explorer « la rentabilité ultime ».

De ce point de vue, la puissance de calcul n’a jamais été l’affaire d’une seule entreprise informatique ou d’une industrie, mais d’un projet système auquel participe le monde entier. L’ère où la puissance de calcul devient une puissance nationale vient tout juste de commencer.