소식

칩 거대 기업이 다시 급등했는데, 그 배후는 누구일까요?

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

7월 30일 엔비디아의 주가는 7% 하락해 3개월 만에 회사 최대 하락폭을 기록했습니다. 밤새 시장 가치가 1,934억 달러 증발하여 2조 5,500억 달러로 떨어졌습니다.

7월 10일부터 30일까지 엔비디아의 주가는 주당 134.91달러에서 103.73달러로 23% 폭락했습니다. 이전에는 회사의 끊임없는 상승 모멘텀으로 인해 투자자들이 위험을 무시하는 것처럼 보였습니다.

지난 2주 동안 투자자들은 대기업이 AI 투자에 대한 수익을 창출하는 데 어려움을 겪고 있다는 우려가 커짐에 따라 Nvidia와 같은 대형 기술 주식에서 돈을 빼냈습니다.

기술 분석가들은 이러한 변화로 인해 Nvidia의 주가가 더 하락할 여지가 있다고 지적했습니다.

01

애플의 잘못인가?

Nvidia의 주가 급락은 Apple과 관련이 있을 수 있습니다.

Apple은 7월 29일 기술 문서에서 자사의 인공 지능(AI) 시스템인 Apple Intelligence의 두 가지 모델이 Google이 설계한 클라우드 칩에서 훈련되었다고 밝혔습니다. Apple은 훈련에 사용되는 텐서 처리를 자세히 설명했습니다. 또한 Apple은 일부 장치에 대한 Apple Intelligence의 미리보기 버전도 출시했습니다.

Apple은 47페이지 분량의 논문에서 Google이나 Nvidia에 대해 언급하지 않지만 AFM(Apple Foundation Model) 및 AFM 서버가 클라우드의 TPU 클러스터에서 훈련된다는 점을 언급합니다. 논문에서는 이 시스템을 통해 Apple이 AFM 온디바이스, AFM 서버 및 대형 모델을 포함한 AFM 모델을 효율적이고 확장 가능하게 훈련할 수 있다고 명시하고 있습니다.

Apple은 AFM-on-device가 2023년 12월에 출시될 가장 발전된 TPU인 2048 TPU v5p 칩의 단일 슬라이스에서 훈련되었다고 밝혔습니다. AFM 서버는 데이터 센터 네트워크에서 8개의 슬라이스로 함께 작동하도록 구성된 8192 TPU v4 칩에서 교육됩니다.

Google은 AI 모델 학습 및 추론을 가속화하기 위해 오랫동안 데이터 센터에 TPU를 대량으로 배포해 왔습니다. 또한 Google은 TPU를 자체 용도로만 간주합니다.클라우드 컴퓨팅서비스는 제3자에게 제공되어 사용이 가능하며 이를 판매용 제품으로 전환합니다.

Google의 최신 TPU 가격은 시간당 2달러 미만이며, 칩을 사용하려면 3년 전에 사전 주문해야 합니다. Google은 2015년에 내부 작업 부하용 TPU를 처음 출시했으며 2017년에 대중에게 공개했습니다. 이제 인공 지능을 위해 설계된 가장 정교한 맞춤형 칩이 되었습니다.

그럼에도 불구하고 Google은 Nvidia의 최고 고객 중 하나로 남아 있으며 클라우드 플랫폼에서 Nvidia 기술에 대한 액세스를 판매합니다.

Apple은 이전에 사전 훈련된 AI 모델을 가져와 이를 실행하여 콘텐츠를 생성하거나 예측하는 추론이 부분적으로 Apple 자체 데이터 센터의 칩에서 수행될 것이라고 밝혔습니다.

Apple은 지난 6월 WWDC 2024에서 관련 기술 문서를 공개했는데, 이는 엔지니어들이 Apple Intelligence에서 Apple 자체 프로세서 및 자체 소프트웨어 프레임워크와 같은 하드웨어를 사용하는 것 외에도 Google TPU와 결합된 자체 GPU를 사용하여 인공 지능 모델 훈련을 가속화했음을 보여줍니다.

Nvidia는 Google을 예로 들면서 점점 더 치열해지는 경쟁 압박에 직면해 있습니다. 이 거대 기술 기업은 자체 개발한 AI 칩을 통해 계속해서 시장 점유율을 확대하고 있습니다. TechInsights의 데이터에 따르면 2023년 데이터 센터 가속기 시장에서 Google TPU 출하량은 NVIDIA의 380만 개에 비해 약간 뒤떨어지지만 업계에서 확고한 3위를 차지하고 있으며 강력한 성장 모멘텀을 갖고 있는 Nvidia입니다. . 동시에 Microsoft와 같은 거대 기술 기업은 점차 Nvidia에 대한 의존도를 줄이고 다른 경쟁 브랜드의 칩으로 전환하고 있습니다.

02

GPU가 너무 비싸요

단일 의존성의 위험 외에도 Nvidia GPU의 높은 가격은 많은 제조업체를 겁나게 합니다.

보고서에 따르면 Nvidia의 차세대 Blackwell GPU를 탑재한 AI 서버의 가격은 대당 200만~300만 달러에 달하는 것으로 나타났습니다.

NVIDIA는 Blackwell 아키텍처를 기반으로 한 두 가지 레퍼런스 디자인 세트를 출시했습니다. 그 중 NVL36에는 36개의 B200 GPU 가속기 카드가 탑재될 것으로 예상되며 가격은 이전에 180만 달러로 예상되었습니다. 가격이 인상되었습니다. NVL72는 크기가 두 배로 커졌으며 B200 가속기 카드 72개가 탑재될 것으로 예상되며, 시작 가격은 300만 달러로 예상됩니다.

NVIDIA는 2025년에는 B200 서버 출하량이 60,000~70,000대에 달하고 총 가격은 1,200억~2,100억 달러에 이를 것으로 예상하고 있습니다.

현재 AWS, 델, 구글, 메타, 마이크로소프트 등이 B200 서버 구매에 관심을 갖고 있으며 그 규모가 기대 이상이다.

AI 서버는 주로 많은 컴퓨팅 작업을 처리하는 데 사용되는 CPU, GPU, FPGA 및 기타 프로세서로 구성됩니다. 기존 서버에 비해 AI 서버는 일반적으로 대규모 데이터 처리 요구 사항을 충족하기 위해 더 높은 성능의 하드웨어가 필요합니다. 그리고 복잡한 계산. 이러한 하드웨어의 가격이 높기 때문에 AI 서버 비용의 가장 큰 부분을 차지합니다. 그 중 GPU는 다양한 프로세서 중에서 가장 큰 비용을 차지합니다.

AI 훈련 및 추론 과정에서 GPU는 일반적으로 가장 비싼 하드웨어입니다. 이는 GPU가 AI 모델의 훈련 및 추론 프로세스를 가속화할 수 있는 강력한 컴퓨팅 성능과 병렬 처리 기능을 갖추고 있기 때문입니다. 대부분의 AI 서버에는 고성능 컴퓨팅 요구 사항을 충족하기 위해 여러 개의 GPU가 장착되어 있습니다.

GPU는 강력한 컴퓨팅 성능을 가지고 있기 때문에 전력 소비도 높습니다. AI 모델의 컴퓨팅 요구 사항을 충족하려면 일반적으로 여러 개의 GPU를 구성해야 하며, 이로 인해 서버의 전력 소비가 더욱 증가합니다. 전력 소비가 높다는 것은 서버가 작동할 때 더 큰 전원 공급 장치가 필요하고 더 높은 전기 요금이 발생한다는 것을 의미합니다.

CPU에 비해 ​​GPU는 더 복잡한 아키텍처와 더 많은 구성요소를 갖고 있습니다. 이는 GPU 유지 관리가 더 지루하고 복잡하며 유지 관리를 위해 더 많은 전문 기술자가 필요하다는 것을 의미합니다. 또한 GPU의 높은 전력 소비로 인해 냉각 요구 사항도 높아져 추가 냉각 장비 및 유지 관리 비용이 필요합니다.

AI 기술의 급속한 발전에 따라 GPU 성능도 지속적으로 향상되고 있습니다. 경쟁력을 유지하기 위해 많은 기업은 새 버전의 GPU를 자주 구매해야 하며, 이로 인해 서버 비용이 증가합니다.

AI 애플리케이션이 활성화되면서 점점 더 많은 기업이 AI 서버를 사용하기 시작했으며 이로 인해 GPU 수요가 증가하고 공급이 수요를 초과하면 GPU 가격도 상승하게 됩니다.

03

경쟁사의 압력

NVIDIA의 경쟁사들이 모두 준비를 하고 있는데, 그 중에서도 가장 눈길을 끄는 AMD가 최근 좋은 성적을 거두었습니다.

7월 30일, AMD는 2024년 2분기 재무 보고서를 발표했습니다. 순이익은 전년 대비 881% 급증했고, 데이터 센터 사업 수익은 두 배로 늘었으며, Nvidia에서 많은 사업을 빼앗았습니다.

AMD의 해당 분기 총 매출은 미화 58억 3,500만 달러에 이르렀으며, 이는 이전 예상인 미화 57억 2,000만 달러를 초과했을 뿐만 아니라 전년 동기 대비 9%, 월간 성장률 7%를 달성했습니다. 순이익은 2억 6,500만 달러에 이르렀으며, 이는 전년 대비 881%, 월별 115% 증가한 수치입니다.

데이터센터에 사용되는 GPU 칩인 MI300의 매출이 한 분기 만에 10억 달러를 돌파하며 데이터센터 사업부 매출이 크게 증가했다.

MI300 시리즈는 AMD가 2023년 말 출시한 AI GPU로 MI300X는 물론 통합 CPU 코어와 GPU 가속기 MI300A도 포함돼 있다. AMD에 따르면 MI300X의 성능은 AI 훈련에 사용될 때 NVIDIA H100과 동등하며 추론 측면에서는 경쟁 제품보다 성능이 뛰어납니다. 8개의 GPU로 구성된 단일 서버를 예로 들면, 1,760억 개의 매개변수가 있는 BLOOM 모델과 700억 개의 매개변수가 있는 Llama2 모델을 실행할 때 MI300X 플랫폼의 성능은 H100 플랫폼의 1.4~1.6배입니다.

AMD CEO Su Zifeng은 회사의 AI 칩 판매량이 "예상보다 높다"며 Microsoft는 GPT-4 Turbo에 대한 컴퓨팅 성능 지원과 Microsoft의 Word, Teams 등 다중 Copilot 서비스를 지원하기 위해 MI300 칩의 사용을 늘리고 있다고 말했습니다. Hugging Face는 새로운 Microsoft 클라우드 Azure를 채택한 최초의 고객 중 하나입니다. 이를 통해 기업 및 AI 고객은 클릭 한 번으로 수십만 개의 모델을 MI300에 배포할 수 있습니다.

AMD는 올해 6월 반복 로드맵을 발표해 올해 4분기에 MI325X를 출시하고 향후 2년 안에 MI350 시리즈와 MI400 시리즈를 출시할 예정이며, 그 중 M1300X와 MI325X는 CDNA3를 채택할 예정이다. 아키텍처, M1350은 CDNA4 구조를 채택합니다. MI400은 차세대 CDNA 아키텍처를 채택합니다. AMD는 매년 새로운 제품 시리즈를 출시할 예정입니다. 업계 관점에서 볼 때 이 속도는 엔비디아가 발표한 계획과 일치한다.

또한 Su Zifeng은 AI 추론에 대한 수요가 훈련보다 더 클 것이라고 말했습니다. AI PC는 PC 카테고리에서 중요한 부분을 차지하며, PC 시장은 AMD 사업에 있어 좋은 수익 성장 기회입니다.

올해 AMD는 투자를 통해 AI 도입을 가속화하고 있다. 지난 7월, 회사는 엔드투엔드 AI 기반 솔루션을 제공하는 유럽 최대 인공지능 연구소인 Silo AI를 인수하는 데 6억 6,500만 달러를 지출했습니다. 이번 인수는 AMD가 Nvidia를 따라잡기 위한 중요한 단계로 간주됩니다.

Su Zifeng은 AMD가 Silo AI 인수 외에도 AMD 생태계를 확장하고 AMD 컴퓨팅 플랫폼의 선두 위치를 유지하기 위해 지난 12개월 동안 12개 이상의 인공 지능 회사에 1억 2,500만 달러 이상을 투자했다고 말했습니다. 그녀는 AMD가 소프트웨어에 계속 투자할 것이라고 밝혔는데, 이것이 Silo AI에 투자하는 이유 중 하나였습니다.

AMD는 고품질 GPU 하드웨어, 소프트웨어 및 생태계 개발을 기반으로 Nvidia가 성공했던 것과 동일한 방식으로 경쟁하고 있습니다.

04

NVIDIA에도 약점이 있습니다

NVIDIA와 경쟁하기 위해서는 자신의 강점을 활용하고 약점을 피하는 것이 가장 좋은 전략입니다. 즉, 자신의 강점을 활용하여 NVIDIA의 약점을 공격하는 것입니다.

GPU 병렬 처리 능력은 매우 강력하지만 이것이 AI 훈련에 좋은 근본적인 이유입니다. 그러나 데이터가 앞뒤로 이동할 때 GPU는 이를 빠르게 처리하지 않습니다. 대규모 AI 모델을 실행하려면 GPU와 메모리 사이에 서로 연결된 다수의 GPU와 메모리 칩이 필요한 경우가 많습니다. 대규모 AI 모델을 훈련할 때 일부 GPU 코어는 유휴 상태로 거의 절반의 시간 동안 데이터를 기다립니다.

많은 수의 프로세서 코어와 대용량 메모리를 결합해 인메모리 컴퓨팅을 구성할 수 있다면 여러 칩 간 연결의 복잡성이 크게 줄어들고 데이터 전송 속도도 크게 향상될 수 있다. 다수의 프로세서 코어가 칩 내에서 서로 연결되어 있으며 독립적인 GPU 조합보다 수백 배 더 빠르게 실행될 수 있습니다. 현재 여러 스타트업이 이런 일을 하고 있어 그 전개에 주목할 만하다.

또한, 엔비디아에 맞서기 위해서는 소프트웨어와 하드웨어 생태계의 장기전을 대비해야 합니다. 이런 점에서 목숨을 걸고 싸울 수 있는 강력한 자원 배경이 필요합니다. AMD와 인텔이 이런 일을 하고 있습니다.

또한 칩 자체 외에도 칩 간 상호 연결에 더 많은 노력을 기울일 수 있습니다. Nvidia는 이러한 측면에서 선두주자가 아니지만 Broadcom은 그렇습니다.

Broadcom은 칩 간의 상호 연결 문제를 해결하며 Nvidia GPU와 직접 경쟁하지 않습니다. NVIDIA도 자체 칩 간 상호 연결 기술을 보유하고 있지만 업계 전체의 관점에서 보면 Broadcom의 기술과 제품은 세계 8대 AI 서버 시스템 중 7개가 Broadcom 기술을 지원하는 이더넷 인프라를 구축했습니다. 2025년에는 모든 초대형 AI 서버 시스템이 이더넷으로 구동될 것으로 예상된다.

Broadcom은 전 세계 50GB/s SerDes 시장에서 76%의 점유율을 차지하고 있습니다. SerDes 인터페이스는 저속 병렬 데이터를 고속 직렬 데이터로 변환한 다음 다시 병렬 데이터로 변환합니다. 수신 끝. 이러한 작업을 통해 한 TPU에서 다른 TPU로 데이터를 고속으로 전송할 수 있어 전송 효율성이 크게 향상됩니다.

또한 AI 성장의 혜택을 받아 Broadcom의 Netcom 제품 수익은 전년 대비 40%의 성장률을 보이고 있습니다. 회사 재무보고서에 따르면 올해 5월 기준 2분기 AI 매출은 전년 동기 대비 280% 증가한 31억 달러를 기록했으며, 이번 회계연도가 끝나기 전에 이 수치는 110억 달러를 넘어설 것으로 예상된다. .

05

크게 하락했다가 다시 크게 상승

많은 경쟁업체들이 Nvidia에 압력을 가하고 있으며 이는 회사 주가 하락의 중요한 원인입니다. 그러나 시장은 너무 빨리 변하기 때문에 사람들이 제때 반응할 수 없습니다.

7월 31일 저녁, 엔비디아의 주가는 한때 14% 이상 급등하는 등 갑자기 급등했고, 시가총액은 하루 만에 3,269억 달러 증가했다.

Nvidia는 일일 시가총액이 3000억 달러 이상 증가한 최초의 주식이 되었습니다. 현재 엔비디아는 미국 주식 일일 시가총액 증가 순위에서 상위 3위를 차지하고 있다. 올해 2월 22일과 5월 23일 엔비디아의 일일 시가총액은 각각 2,766억 달러와 2,177억 달러 증가했다.

모건스탠리는 엔비디아가 최근 시장에서 매각된 점을 고려하면 구체적인 이유는 알 수 없으나 관심 있는 투자자들에게 좋은 시장 진입 기회를 제공할 수 있다고 판단해 상위권으로 재상장했다고 밝혔다. 주식을 보유하고 수익을 냈습니다. 예측 및 목표 가격은 "과체중" 등급과 목표 가격 $144로 변경되지 않았습니다.

불과 이틀 만에 엔비디아 주가가 급락했다가 급등했다. 이는 블랙웰의 공급 부족과 모든 제품을 제때 납품하기 어려운 것과 관련이 있을 수 있다.

Morgan Stanley는 Blackwell 제품이 시장에서 큰 관심을 불러일으켰으며, 특히 추론 성능이 크게 향상되어 고객의 구매 욕구를 더욱 촉진했다고 말했습니다.

하지만 업계에서는 블랙웰 GPU 칩이 늦어지거나, 이 칩을 탑재한 서버 제품이 늦어질 수도 있다는 소식이 전해지고 있다.

많은 경쟁사의 기술과 제품의 성능이 점점 좋아지고 있어 Nvidia에 압력을 가하고 있지만, 회사의 GPU 제품은 현재와 단기 및 중기적으로 AI 서버 시장에서 여전히 주력으로 자리 잡고 있으며 전반적인 공급이 이루어지고 있습니다. 수요 초과. 많은 고객들이 기대하고 있는 블랙웰 GPU의 출하가 임박한 만큼, 출하가 지연된다는 소식은 분명 시장의 식욕을 자극하고 주가 상승에 도움이 될 것입니다.