nuntium

NVIDIA Blackwell operativus est in notitia media: NVLINK upgraded ad 1.4TB/s, primum FP4 GenAI imago dimissa

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

IT Domus nuntiavit die 24 mensis Augusti Nvidia quaedam media invitasse ad breviandum et demonstrandum suggestum Blackwell ad notarios technologias primum. NVIDIA comitabitur res Hot Chips 2024 ab Augusto 25-27 habitas ut usum suggesti Blackwell in notitiis centris demonstraret.

Negat nuntium Blackwell cunctantem enumerationem

In hoc briefingo Nvidia nuntium retardationis Blackwell refutavit et plura de Goliath centri notitia communicavit.

Nvidia demonstravit Blackwell currentem in una e centris notitiarum suarum in brevitate et inculcavit Blackwell procedere pro proposito et ad clientes hoc anno postea navigaturum esse.

Sunt rumores de Blackwell in aliquo genere defectus vel problematis quae impediunt quominus ad mercatum hoc anno dimittatur.

Introductio ad Blackwell

NVIDIA dicit Blackwell plus justo chip est, id est diam. Sicut Hopper, Blackwell magnum numerum consiliorum ad centrum datarum, nubes computandi et intellegentiae artificialis teloneorum comprehendit, et unumquodque productum Blackwell ex diversis chippis componitur.

Astulae in IT Home comprehensae sunt hae:

Blackwell GPU

gratia CPU

NVLINK Switch Chip

Bluefield-3

ConnectX-7

ConnectX-8

Spectrum-4

Quantum-3

Pontem Blackwell

Nvidia etiam varias pontes in familia productorum Blackwell novas imagines communicavit. Hae sunt primae imagines emaculae Blackwell ad communicanda, illustrantes peritia ampla peritia necessaria ad designandum tabulas proxime-generationes datas centrum.

Target trillion parametri AI exemplar

Blackwell destinatur ad necessitates intelligentiae artificialis modernae et praestantes effectus tradendi ad exempla magnarum linguarum sicut Meta 405B Llama-3.1. Cum LLMs ampliores fiant et plures parametri habeant, centra notitiarum maiorem supputationem et inferiorem latentiam requiret.

Multi-GPU consequentia modi

Multi-GPU illatio accessus computationes multiplices GPUs facere est ad humilitatem latency et alte throughput pervenire, sed iter multi-GPU inpedimenta habet. Singulis GPU in ambitu multi-GPU ad alios GPUs in singulis tabulatis calculi proventus mittere debet, qui communicationem GPU-ad-GPU requirit altam latitudinem.

Multi-GPU illatio accessus computationes multiplices GPUs facere est ad humilitatem latency et alte throughput pervenire, sed iter multi-GPU inpedimenta habet. Singulis GPU in ambitu multi-GPU ad alios GPUs in singulis tabulatis calculi proventus mittere debet, qui communicationem GPU-ad-GPU requirit altam latitudinem.

Velocius NVLINK virgas

Cum Blackwell, NVIDIA citius NVLINK virgas induxit quae fabricae duplicatae sunt ad 1.8 TB/s. NVLINK ipsum switch innixum est in nodi TSMC 4NP 800mm2 chip, quod scandere potest NVLINK ad 72 GPUs in eculeo GB200 NVL72.

Chipum 7.2 TB/s omnium ad omnia band bidirectionalem latitudinem per 72 portus praebet, cum in- retis computandi potestatem 3.6 TFLOPs. Ipsumque commutandum lineamenta duo ex his permutationibus praebens NVLINK, summa cum latitudine usque ad 14.4 TB/s.

Aqua refrigeratio

NVIDIA aqua refrigerando utitur ad meliorem efficiendam et efficientiam. GB200, Gratia Blackwell GB200 et B200 systemata novas solutiones refrigerationis liquidae plumae erunt, quae potentiam gratuita ad centrum datae facilitatis reducere possunt ab usque ad 28%.

Prima intelligentia artificialis imago per FP4 calculationes generata

NVIDIA™ (NVIDIA®) etiam primus particeps intelligentiae artificialis mundi imaginem FP4 computando generatam utens. Figura ostendit exemplar quantitatis FP4 producere imagines leporis 4-bit, quae exemplari FP16 simillimae sunt, sed velocius.

Haec imago ab MLPerf per Blackwell in stabili diffusione producta est. Nunc, provocatio accurationis minuendae (ab FP16 ad FP4) est ut accurationem aliquam perdas.