소식

아마존, 칩 회사 인수

2024-08-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Amazon은 상장 Xperi의 캘리포니아 산호세 소재 자회사인 칩 제조업체이자 AI 모델 압축 회사인 Perceive를 현금 8천만 달러에 인수하기로 합의했습니다. Perceive는 엣지 디바이스에 대규모 인공 지능 모델을 제공하는 기술에 중점을 두고 획기적인 신경망 추론 솔루션을 개발하는 회사입니다.

아마존은 이 기술에 대한 구체적인 생각을 밝히지 않았습니다. Amazon 대변인은 "Perceive를 인수하는 계약을 체결하고 Perceive의 재능 있는 팀을 엣지에서 실행할 수 있는 장치에 대규모 언어 모델과 다중 모드 경험을 제공하려는 우리의 노력에 합류하게 된 것을 기쁘게 생각합니다."라고 말했습니다.

Xperi는 올해 초부터 Perceive의 구매자를 찾고 있었습니다. 거래가 완료되면 Perceive의 직원 44명 대부분이 Amazon에 합류할 것으로 예상됩니다. 아마존은 이번 거래가 규제 승인을 필요로 하지 않을 것으로 예상하며 이를 일상적인 인수라고 말했습니다.

Perceive의 칩 소개

정보에 따르면 Perceive는 공동 CEO인 Murali Dharan과 Steve Teig가 이끌고 있습니다. 회사에는 전 세계에 직원이 있습니다. 회사는 아이다호에 실험실을 운영할 예정입니다. Teig는 Xperi의 최고 기술 책임자로 재직하는 동안 Perceive 개발을 주도하여 핵심 오디오 및 이미징 혁신을 포함한 기술 개발을 감독하는 동시에 회사의 기계 학습 팀을 이끌었습니다. 이전에 Xperi 라이선스 사업의 전략적 방향, 관리 및 성장을 담당했던 Dharan은 이제 영업, 마케팅, 고객 성공 및 운영을 포함하여 Perceive의 비즈니스 운영을 주도하는 책임을 맡고 있습니다.

Perceive는 엣지 디바이스에서 대규모 AI 모델을 제공하는 제품을 제공합니다. 주력 제품은 전력이 제한되는 경우에도 다양한 환경에서 데이터 센터 수준의 신경망을 실행할 수 있는 Ergo AI 프로세서입니다.

보고서에 따르면 이는 엣지 장치에 획기적인 성능과 에너지 효율성을 제공하는 AI 프로세서입니다. 풀 프레임 속도로 대규모 신경망을 실행할 수 있고 표준 CNN, RNN, LSTM 등을 포함한 다양한 네트워크 아키텍처 및 유형을 지원할 수 있습니다. Ergo는 객체 분류 및 감지부터 이미지 분할 및 포즈, 오디오 신호 처리 및 언어에 이르기까지 광범위한 기계 학습 작업을 처리할 수 있을 만큼 유연하고 강력합니다. Ergo는 여러 네트워크를 동시에 실행할 수 있으므로 멀티태스킹을 요청할 수도 있습니다.

Ergo의 처리 능력에도 불구하고 외부 DRAM이 필요하지 않으며 작은 7mm x 7mm 패키지로 인해 카메라, 노트북 또는 AR/VR 안경과 같은 소형 장치에 사용하기에 이상적입니다.

Perceive는 Ergo가 다른 제품보다 에너지 효율성이 20~100배 더 높으며 30fps 비디오에서 추론을 수행하는 데 단 9mW의 컴퓨팅 성능만 필요하다고 말했습니다. 이는 귀하의 장치가 비교할 수 없는 배터리 수명을 제공하고 열을 적게 발생시켜 더 작고 다양한 패키지를 만들 수 있음을 의미합니다.

2023년 초 Perceive는 새로운 Ergo 2 AI 프로세서를 출시했습니다. 보고서에 따르면 이 칩은 업계 최고의 전력 효율성을 유지하면서 변압기 모델, 대규모 신경망, 동시에 실행되는 다중 네트워크 및 다중 모드 입력이 필요한 경우를 포함하여 보다 복잡한 사용 사례에 필요한 성능을 제공할 수 있습니다.

최신 Ergo 칩의 시장 기회에 대해 자세히 설명하면서 Perceive 창립자 겸 CEO인 Steve Teig는 다음과 같이 말했습니다. "새로운 Ergo 2 프로세서를 통해 우리는 장치 제조업체에 동급 최고의 칩을 구축할 수 있도록 제공하는 기능을 확장했습니다. "언어 또는 시각 처리를 위한 변환 모델, 더 높은 프레임 속도의 비디오 처리, 심지어 단일 애플리케이션에 여러 대규모 신경망을 결합하는 것까지 포함하는" 야심찬 제품에 이르기까지 다양합니다.

Ergo 2는 Perceive의 1세대 Ergo 칩보다 4배 빠르게 실행되며 마이크로 ML용으로 설계된 일반적인 칩보다 처리 능력이 훨씬 더 뛰어납니다. 이제 제품 개발자는 YOLOv5, RoBERTa, GAN 및 U-Nets와 같은 고급 신경망을 활용하여 정확한 결과를 신속하게 제공할 수 있습니다. 모든 Ergo 2 처리는 온칩으로 이루어지며 외부 메모리가 필요하지 않아 에너지 효율성, 개인 정보 보호 및 보안이 향상됩니다. Ergo 2 칩은 다음을 가능하게 합니다:

MobileNet V2 실행 시 초당 1,106개의 추론

ResNet-50 실행 시 초당 979개의 추론

YoloV5-S를 실행하면 초당 115개의 추론이 수행됩니다.

이러한 대규모 네트워크를 실행하는 데 필요한 성능 향상을 제공하기 위해 Ergo 2 칩은 파이프라인 아키텍처와 통합 메모리 설계를 사용하여 유연성과 전반적인 운영 효율성을 높입니다. 결과적으로 Ergo 2는 다음을 포함하여 더 높은 해상도의 센서와 더 넓은 범위의 애플리케이션을 지원할 수 있습니다.

음성-텍스트 및 문장 완성과 같은 언어 처리 애플리케이션

음향 반향 제거 및 더욱 풍부한 오디오 이벤트 감지와 같은 오디오 애플리케이션

비디오 초해상도 및 자세 감지와 같은 까다로운 비디오 처리 작업.

Ergo 2 프로세서의 크기는 7mm x 7mm이며 GlobalFoundries에서 22FDX 플랫폼을 사용하여 제조되었으며 실행하는 데 외부 DRAM이 필요하지 않습니다. 전력 소비가 낮다는 것은 냉각이 필요하지 않다는 의미이기도 합니다. 이 칩은 여러 이기종 네트워크를 동시에 실행하여 보안, 액세스 제어, 열 화상 또는 소매 비디오 분석에 사용되는 엔터프라이즈급 카메라와 같은 장치에 지능형 비디오 및 오디오 기능을 제공할 수 있습니다. 노트북, 태블릿, 고급 웨어러블 기기와 같은 소비자 제품.

AWS의 자체 개발 칩 이력

AWS는 10여년 전 회사가 Annapurna Labs를 인수한 덕분에 수년 동안 AI 워크로드 및 클라우드 최적화를 위한 자체 내부 맞춤형 실리콘을 구축해 왔습니다. 이로 인해 AWS는 클라우드에서 AI 모델을 교육하기 위해 지난 몇 년 동안 자체 Graviton 프로세서, Inferentia 칩 및 Trainium 기계 학습 프로세서를 구축했습니다.

올해 아마존은 인공지능(AI) 기술 발전에 큰 진전을 이루었습니다.

AWS는 연례 AWS re:Invent 컨퍼런스에서 AWS Trainium2와 Graviton4라는 두 가지 새로운 맞춤형 칩을 발표했습니다. 두 칩은 특히 시장이 주로 Nvidia에서 생산하는 고성능 그래픽 처리 장치(GPU)의 심각한 부족에 직면하고 있는 상황에서 증가하는 AI 기능 수요를 충족하기 위한 Amazon Web Services(AWS)의 과감한 노력을 나타냅니다.

향상된 컴퓨팅 성능에 대한 필요성은 모델을 훈련하고 배포하기 위해 강력한 인프라가 필요한 생성 인공 지능의 인기가 높아지면서 발생합니다. Nvidia는 2024년까지 GPU가 매진된 것으로 알려졌으며, TSMC CEO를 포함한 업계 소식통은 이러한 공급 위기가 2025년까지 계속될 수 있다고 예측합니다. 이를 염두에 두고 Amazon의 새로운 칩은 AI 워크로드에 특별히 맞춤화된 대안을 제공하여 Nvidia에 대한 의존도를 줄이는 것을 목표로 합니다.

Trainium2 칩은 대규모 AI 모델 훈련을 위해 설계되었으며, 이전 세대 칩보다 성능이 4배 높고, 이전 세대 칩보다 에너지 효율성이 2배 높습니다. Amazon에 따르면 이 칩은 최대 100,000개 장치의 클라우드 클러스터에서 사용될 때 65엑사플롭을 처리할 수 있습니다. 이 기능을 사용하면 수천억 개의 매개변수가 포함된 복잡한 모델을 학습하는 데 소요되는 시간이 몇 개월에서 몇 주로 단축됩니다. 이러한 발전으로 Trainium2는 AI 훈련 인프라의 선두주자가 되었습니다.

잠재력을 인정받은 Trainium2 칩은 이미 친숙한 AI 모델 구축에 주력하는 회사인 Anthropic을 포함하여 여러 업계 관계자로부터 관심을 끌었습니다.공동 창립자인 Tom Brown은 Trainium2를 통해 이전 모델보다 빠르게 확장하고 최대 4배 빠르게 처리할 수 있다고 강조했습니다. AWS와 Anthropic과 같은 회사 간의 파트너십은 AI 운영을 간소화하기 위해 독점 클라우드 기술을 활용하는 경향이 증가하고 있음을 보여줍니다.

반면 Graviton4 칩은 다양한 클라우드 워크로드에 맞게 맞춤화된 Amazon의 가장 강력하고 효율적인 프로세서입니다. 이번 4세대 칩은 이전 세대 Graviton3 대비 성능은 30%, 코어 수는 50%, 메모리 대역폭은 75% 증가할 것으로 예상된다. 이러한 개선을 통해 사용자는 운영 비용을 절감하고 데이터 처리 속도를 높일 수 있으므로 고성능 데이터베이스 및 집중 분석 애플리케이션을 실행하는 기업에 이상적입니다.

Graviton4의 얼리 어답터에는 Datadog, Epic Games 및 SAP와 같은 회사가 포함됩니다. 예를 들어 Epic의 수석 클라우드 엔지니어인 Roman Visintine은 이 칩이 대기 시간에 민감한 워크로드에서 잘 작동하며 특히 온라인 게임 경험에 유익하다고 지적했습니다. 빠른 데이터 액세스와 처리가 성공을 위해 매우 중요한 경쟁이 치열한 환경에서 이러한 클라우드 서비스 최적화 추세는 매우 중요합니다.

Amazon의 발표는 또한 기업들이 특정 컴퓨팅 요구 사항, 특히 인공 지능 및 기계 학습 작업을 충족하기 위해 맞춤형 칩 솔루션에 점점 더 많은 투자를 하고 있는 기술 산업의 더 큰 추세를 강조합니다. Amazon은 독점 하드웨어를 개발함으로써 자신을 차별화하고 Nvidia 및 AMD와 같은 기존 칩 제조업체에 대한 의존도를 줄이기를 희망합니다.

AI 기술이 헬스케어부터 엔터테인먼트까지 다양한 분야에서 지속적으로 성장하고 보편화됨에 따라 효율적인 고성능 칩에 대한 필요성은 더욱 커질 것입니다. 기술 분석가들은 이러한 새로운 아마존 칩의 출시가 현재의 요구 사항을 즉시 충족할 뿐만 아니라 미래의 인공 지능 개발을 위한 기반을 마련할 것으로 기대하고 있습니다.

놀랍게도 이러한 칩의 출시는 Microsoft가 인공 지능 및 클라우드 서비스를 위한 자체 칩 개발을 발표한 만큼 전략적인 시기에 이루어졌습니다. 이로 인해 AI 하드웨어 분야에서 치열한 경쟁이 촉발되었고 기업은 빠르게 혁신하고 경계를 넓히게 되었습니다.

AWS Trainium2 및 Graviton4 칩은 가까운 시일 내에 고객에게 제공될 예정이며, Trainium2는 내년에 출시되고 Graviton4는 이미 미리 보기 상태입니다. 기술 산업이 계속해서 클라우드 컴퓨팅과 인공 지능 기반 솔루션으로 전환함에 따라 Amazon은 이러한 디지털 혁신에서 중요한 역할을 할 준비가 되어 있습니다.

AI 칩은 잠재력이 크다

AWS는 회사의 비즈니스 요구 사항을 충족하는 것 외에도 AI 칩이 클라우드뿐만 아니라 장치 측면에서도 반영되는 큰 잠재력을 다시 한번 입증합니다.

퓨처럼 인텔리전스(Futurum Intelligence)에 따르면 2023년까지 엔비디아는 AI GPU 시장의 92%, 전체 데이터센터 AI 반도체 시장의 75%를 차지할 것으로 예상된다. 이러한 지배력은 이미 거대한 시장에서 계속 지속될 것이며, 2024년까지 거의 절반으로 성장할 것으로 예상됩니다.

분석 회사는 데이터 센터 인공 지능 애플리케이션용 프로세서 및 가속기의 총 시장 가치가 2023년 연간 시장 가치 377억 달러보다 49.3% 증가한 563억 달러에 이를 것으로 추정합니다. 시장 분석가들은 시장이 향후 5년간 연평균 29.7% 성장해 2026년에는 시장 규모가 984억 달러, 2028년에는 1,383억 달러에 이를 것으로 예측하고 있습니다.

퓨처럼은 AI 데이터센터 프로세서 시장을 CPU, GPU, 특수 가속기(XPU), 구글, AWS, 마이크로소프트 등 기업이 생산하는 독점 클라우드 가속기 등 4가지 카테고리로 나눈다.

2023년에는 CPU가 시장의 20.5%, GPU가 73.5%, XPU와 클라우드 전용 제품이 각각 3%를 차지할 것으로 예상된다.

1. 2023년에도 CPU는 데이터센터 AI 처리의 20%를 차지하며 계속 중요한 역할을 할 것이다. Futurum은 2023년 77억 달러에서 2028년 260억 달러로 5년간 연평균 28%의 복합 성장률로 성장할 것으로 예상합니다. Futurum은 2023년 Nvidia가 37%의 시장 점유율을 차지하고 Intel이 23%로 뒤를 이을 것으로 추정합니다.

2. 2023년까지 GPU는 데이터센터 AI 애플리케이션에 사용되는 칩셋의 74%를 차지할 것이며, 5년간 연평균 성장률 30%를 경험하여 2023년 280억 달러에서 2028년 1,020억 달러로 성장할 것입니다. 퓨처럼은 엔비디아가 AI GPU 시장의 92%를 점유하고 있는 것으로 추정하고 있다.

3. XPU는 2023년 10억 달러에서 2028년 37억 달러로 성장하여 5년간 연평균 31%의 복합 성장률을 경험할 것입니다.

4. 퍼블릭 클라우드 AI 가속기는 2023년 13억 달러에서 2028년 60억 달러로 성장하면서 5년간 연평균 35%의 성장률을 경험할 것입니다.

Futurum은 데이터 센터에서 공개적으로 사용할 수 없는 AI 프로세서 및 가속기를 본 연구에서 제외합니다. 따라서 Meta, Tesla 및 Apple이 설계하고 사용하는 AI 칩셋도 제외됩니다.

지리적 관점에서 볼 때 북미는 시장을 지배하고 있으며 2023년까지 시장 점유율의 55%를 차지할 것입니다. 유럽, 중동 및 아프리카(EMEA) 및 아시아 태평양(APAC)이 중요한 시장으로 그 뒤를 따르고 있으며, 라틴 아메리카(LATAM)는 엄청난 성장 잠재력을 지닌 개발도상국을 대표합니다.

시각 및 오디오 분석은 2023년 가장 큰 사용 사례입니다. Futurum은 2028년의 상위 3가지 사용 사례가 시각 및 청각 분석, 시뮬레이션 및 모델링, 텍스트 생성, 분석 및 요약이 될 것이라고 예측합니다.

엣지 AI와 관련하여 Omdia의 새로운 연구에서는 엣지 AI 프로세서 시장이 2028년까지 602억 달러의 수익을 창출하고 연평균 성장률 11%를 기록할 것으로 예측합니다.

Omdia의 최신 엣지 프로세서 예측에서는 다양한 산업과 장치가 인공 지능을 채택함에 따라 하드웨어에 대한 수요가 증가함에 따라 수익 성장이 주도될 것이라고 밝혔습니다. 시장 성장을 주도하는 영역 중 하나는 Intel, AMD, Apple과 같은 주요 공급업체의 제품 제공이 증가하는 PC 부문입니다. PC 공급업체들은 자신들의 장치에 AI 프로세서를 포함시키는 것을 "독특한 판매 포인트"로 홍보하려고 노력하고 있는 것으로 알려졌습니다.

보고서는 개인용 컴퓨터 부문 외에도 자동차, 드론, 보안 카메라, 로봇 등의 분야에서 인공지능 프로세서의 신속한 적용을 강조하고 있다.

이를 통해 AWS 인수의 의도를 알 수 있습니다.