notizia

Il gigante dei chip è cresciuto di nuovo, chi c'è dietro?

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Il 30 luglio, il prezzo delle azioni di Nvidia è sceso del 7%, il calo più grande della società in tre mesi. Il suo valore di mercato è evaporato da un giorno all'altro di 193,4 miliardi di dollari, scendendo a 2,55 trilioni di dollari.

Dal 10 al 30 luglio, il prezzo delle azioni NVIDIA è crollato del 23%, da 134,91 dollari per azione a 103,73 dollari. In precedenza, lo slancio in continua crescita della società sembrava indurre gli investitori a ignorare i rischi.

Nelle ultime due settimane, gli investitori hanno prelevato denaro da grandi titoli tecnologici come Nvidia poiché temevano che le grandi aziende stessero lottando per generare rendimenti sulla loro spesa per l’intelligenza artificiale.

Gli analisti tecnici hanno sottolineato che un tale spostamento lascia spazio a un ulteriore calo del prezzo delle azioni di Nvidia.

01

Colpa di Apple?

Il forte calo del prezzo delle azioni di Nvidia potrebbe essere correlato ad Apple.

Il 29 luglio, Apple ha dichiarato in un documento tecnico che due modelli del suo sistema di intelligenza artificiale (AI) Apple Intelligence sono stati addestrati su chip cloud progettati da Google nel dettaglio dell'elaborazione tensore utilizzata per l'addestramento del processore (TPU). Inoltre, Apple ha rilasciato anche una versione di anteprima di Apple Intelligence per alcuni dispositivi.

Apple non fa menzione di Google o Nvidia nel suo articolo di 47 pagine, ma nota che il suo Apple Foundation Model (AFM) e i server AFM sono addestrati su cluster TPU nel cloud. Il documento afferma che il sistema consente ad Apple di addestrare in modo efficiente e scalabile i modelli AFM, inclusi AFM-on-device, AFM-server e modelli più grandi.

Apple afferma che l’AFM sul dispositivo viene addestrato su una singola fetta di chip 2048 TPU v5p, il TPU più avanzato disponibile a dicembre 2023. Il server AFM è addestrato su chip 8192 TPU v4, configurati per funzionare insieme come 8 sezioni sulla rete del data center.

Google ha implementato TPU in grandi quantità nei data center per molto tempo per accelerare l'addestramento e l'inferenza dei modelli AI. Inoltre, Google considera anche il TPU non solo per uso propriocloud computingI servizi vengono forniti a terzi per l'utilizzo, trasformandoli in prodotti in vendita.

L'ultimo TPU di Google costa meno di 2 dollari l'ora e il chip richiede il preordine con tre anni di anticipo per poterlo utilizzare. Google ha lanciato per la prima volta le TPU per carichi di lavoro interni nel 2015 e le ha rese disponibili al pubblico nel 2017. Ora sono i chip personalizzati più sofisticati progettati per l’intelligenza artificiale.

Tuttavia, Google rimane uno dei principali clienti di Nvidia e vende l'accesso alla tecnologia Nvidia sulla sua piattaforma cloud.

Apple ha precedentemente affermato che l’inferenza, che consiste nel prendere un modello di intelligenza artificiale pre-addestrato e nell’eseguirlo per generare contenuti o fare previsioni, sarà effettuata in parte sui chip nei data center di Apple.

Apple ha rilasciato documenti tecnici rilevanti durante la WWDC 2024 di giugno, dimostrando che oltre a utilizzare hardware come i processori Apple e il proprio framework software in Apple Intelligence, gli ingegneri hanno anche utilizzato le proprie GPU combinate con le TPU di Google per accelerare l’addestramento dei modelli di intelligenza artificiale.

Nvidia si trova ad affrontare una crescente pressione competitiva. Prendendo come esempio Google, il colosso della tecnologia continua ad espandere la propria quota di mercato attraverso chip AI sviluppati internamente. I dati di TechInsights mostrano che nel 2023 le spedizioni di TPU di Google raggiungeranno i 2 milioni di unità nel mercato degli acceleratori per data center. Anche se leggermente inferiori ai 3,8 milioni di unità di NVIDIA, Nvidia si è saldamente classificata al terzo posto nel settore e presenta un forte slancio di crescita . Allo stesso tempo, i giganti della tecnologia come Microsoft stanno gradualmente riducendo la loro dipendenza da Nvidia e passando ai chip di altri marchi concorrenti.

02

Le GPU sono troppo costose

Oltre al rischio di dipendenza individuale, anche il prezzo elevato delle GPU Nvidia spaventa molti produttori.

I rapporti mostrano che i server AI equipaggiati con la GPU Blackwell di prossima generazione di Nvidia costano fino a 2-3 milioni di dollari ciascuno.

NVIDIA ha lanciato due set di progetti di riferimento basati sull'architettura Blackwell. Tra questi, l'NVL36 è dotato di 36 schede acceleratrici GPU B200. Il prezzo dovrebbe essere di 2 milioni di dollari, mentre ora era previsto il prezzo è aumentato. NVL72 ha raddoppiato le sue dimensioni ed è dotato di 72 schede acceleratrici B200. Il prezzo di partenza dovrebbe essere di 3 milioni di dollari.

NVIDIA prevede che nel 2025, le spedizioni di server B200 dovrebbero raggiungere dalle 60.000 alle 70.000 unità, con un prezzo totale compreso tra 120 e 210 miliardi di dollari.

Attualmente AWS, Dell, Google, Meta, Microsoft, ecc. sono interessati all'acquisto di server B200 e la portata supera le aspettative.

I server AI sono composti principalmente da CPU, GPU, FPGA e altri processori, che vengono utilizzati per gestire un gran numero di attività di elaborazione. Rispetto ai server tradizionali, i server AI richiedono solitamente hardware con prestazioni più elevate per soddisfare le esigenze di elaborazione dei dati su larga scala e calcoli complessi. A causa del prezzo più elevato di questi hardware, rappresentano la quota maggiore del costo dei server AI. Tra questi, la GPU rappresenta il costo maggiore tra i vari processori.

Nel processo di addestramento e inferenza dell'IA, la GPU è solitamente l'hardware più costoso. Questo perché la GPU ha una forte potenza di calcolo e capacità di elaborazione parallela, che possono accelerare il processo di addestramento e di inferenza del modello AI. La maggior parte dei server AI sono dotati di più GPU per soddisfare le esigenze di elaborazione ad alte prestazioni.

Poiché la GPU ha una potente potenza di calcolo, anche il suo consumo energetico è elevato. Per soddisfare le esigenze di calcolo dei modelli IA, di solito è necessario configurare più GPU, il che aumenterà ulteriormente il consumo energetico del server. Un consumo energetico elevato significa che il server richiede un alimentatore maggiore durante il funzionamento e comporta bollette elettriche più elevate.

Rispetto alle CPU, le GPU hanno un'architettura più complessa e più componenti, il che significa che la manutenzione della GPU è più noiosa e complessa e richiede più tecnici professionisti per la manutenzione e la gestione. Inoltre, a causa dell'elevato consumo energetico della GPU, anche i suoi requisiti di raffreddamento sono più elevati, richiedendo ulteriori apparecchiature di raffreddamento e costi di manutenzione.

Con il rapido sviluppo della tecnologia AI, anche le prestazioni della GPU migliorano costantemente. Per rimanere competitive, molte aziende devono acquistare frequentemente nuove versioni di GPU, il che aumenterà il costo dei server.

Con la promozione delle applicazioni AI, sempre più aziende iniziano a utilizzare server AI, il che ha portato ad una crescente domanda di GPU. Quando l’offerta supera la domanda, anche il prezzo delle GPU aumenterà.

03

Pressione dei concorrenti

I concorrenti di Nvidia si stanno attrezzando e tra questi AMD, la più accattivante, ha ottenuto buoni risultati di recente.

Il 30 luglio, AMD ha pubblicato il suo rapporto finanziario del secondo trimestre 2024. L’utile netto è aumentato dell’881% su base annua, i ricavi delle attività dei data center sono raddoppiati e hanno portato via molti affari a Nvidia.

Il fatturato totale di AMD per questo trimestre ha raggiunto i 5,835 miliardi di dollari, superando non solo la precedente aspettativa di 5,72 miliardi di dollari, ma anche una crescita del 9% su base annua e del 7% su base mensile. L'utile netto ha raggiunto i 265 milioni di dollari, con un aumento dell'881% su base annua e del 115% su base mensile.

Le vendite di MI300, un chip GPU utilizzato nei data center, hanno superato 1 miliardo di dollari in un solo trimestre, determinando un aumento significativo dei ricavi della divisione data center.

La serie MI300 è una GPU AI rilasciata da AMD alla fine del 2023, che include l'MI300X, così come il core CPU integrato e l'acceleratore GPU MI300A. Tra questi, l'MI300X è il benchmark dell'H100 di Nvidia. Secondo AMD, le prestazioni dell'MI300X sono alla pari con quelle di NVIDIA H100 quando viene utilizzato per l'addestramento all'intelligenza artificiale. In termini di ragionamento, le sue prestazioni superano quelle dei prodotti concorrenti. Prendendo come esempio un singolo server composto da 8 GPU, quando si esegue il modello BLOOM con 176 miliardi di parametri e il modello Llama2 con 70 miliardi di parametri, le prestazioni della piattaforma MI300X sono da 1,4 a 1,6 volte quelle della piattaforma H100.

Il CEO di AMD, Su Zifeng, ha affermato che le vendite di chip AI dell'azienda sono "superiori al previsto" e che Microsoft sta aumentando l'uso dei chip MI300 come supporto della potenza di calcolo per GPT-4 Turbo e per supportare i servizi Word, Teams, ecc. Multiple Copilot di Microsoft. Hugging Face è uno dei primi clienti ad adottare il nuovo cloud Microsoft Azure, che consente ai clienti aziendali e AI di distribuire centinaia di migliaia di modelli sull'MI300 con un solo clic.

Nel giugno di quest'anno, AMD ha annunciato una roadmap iterativa, pianificando il lancio dell'MI325X nel quarto trimestre di quest'anno e il lancio delle serie MI350 e MI400 nei prossimi due anni. Tra questi, M1300X e MI325X adotteranno il CDNA3 architettura, e l'M1350 adotterà la struttura CDNA4 L'MI400 adotterà l'architettura CDNA di prossima generazione. AMD lancerà nuove serie di prodotti ogni anno. Dal punto di vista del settore, questa velocità è in linea con il piano rilasciato da Nvidia.

Inoltre, Su Zifeng ha affermato che la richiesta di ragionamento tramite intelligenza artificiale sarà maggiore della formazione. I PC AI rappresentano una parte molto importante della categoria PC e il mercato dei PC rappresenta una buona opportunità di crescita dei ricavi per il business di AMD.

Quest’anno AMD sta accelerando la sua implementazione dell’intelligenza artificiale attraverso investimenti. A luglio, la società ha speso 665 milioni di dollari per acquisire Silo AI, il più grande laboratorio di intelligenza artificiale d'Europa, che fornisce soluzioni end-to-end basate sull'intelligenza artificiale. Questa acquisizione è considerata un passo importante per AMD per raggiungere Nvidia.

Su Zifeng ha affermato che oltre ad acquisire Silo AI, AMD ha investito più di 125 milioni di dollari in più di una dozzina di società di intelligenza artificiale negli ultimi 12 mesi per espandere l'ecosistema AMD e mantenere la posizione di leader delle piattaforme informatiche AMD. AMD continuerà a investire nel software, ha affermato, che è stato uno dei motivi per investire in Silo AI.

Basandosi su hardware GPU di qualità, sviluppo di software ed ecosistema, AMD compete nello stesso modo in cui Nvidia ha avuto successo.

04

NVIDIA ha anche dei punti deboli

Per competere con NVIDIA, la strategia migliore è sfruttare i propri punti di forza ed evitare le debolezze, ovvero utilizzare i propri punti di forza per attaccare i punti deboli di NVIDIA.

Sebbene le capacità di elaborazione parallela della GPU siano molto potenti, questo è il motivo fondamentale per cui è efficace nell'addestramento all'intelligenza artificiale. Ma quando i dati vengono spostati avanti e indietro, la GPU non li elabora così velocemente. Quando vengono eseguiti modelli di intelligenza artificiale di grandi dimensioni, spesso richiedono un gran numero di GPU e un gran numero di chip di memoria, collegati tra loro. Quanto più velocemente i dati si spostano tra la GPU e la memoria, tanto migliori sono le prestazioni. Quando si addestrano modelli IA di grandi dimensioni, alcuni core GPU restano inattivi, aspettando i dati quasi la metà del tempo.

Se un gran numero di core del processore e un'enorme memoria possono essere combinati per formare l'in-memory computing, la complessità delle connessioni tra più chip può essere notevolmente ridotta e la velocità di trasmissione dei dati può essere notevolmente migliorata. Un gran numero di core del processore sono collegati insieme all'interno del chip e possono funzionare centinaia di volte più velocemente di una combinazione di GPU indipendenti. Attualmente diverse startup stanno facendo queste cose e lo sviluppo è degno di attenzione.

Inoltre, devi essere preparato per una guerra prolungata nell'ecosistema software e hardware per poter affrontare NVIDIA. A questo proposito, hai bisogno di un forte background di risorse per combattere per la tua vita. AMD e Intel lo stanno facendo.

Inoltre, oltre al chip stesso, si possono fare ulteriori sforzi nell'interconnessione chip-to-chip: Nvidia non è leader in questo aspetto, Broadcom lo è.

Broadcom risolve il problema dell'interconnessione tra i chip e non è direttamente in concorrenza con le GPU Nvidia. Sebbene NVIDIA disponga anche di una propria tecnologia di interconnessione chip-to-chip, dal punto di vista dell'intero settore, la tecnologia e i prodotti di Broadcom sono superiori Tra gli otto sistemi server AI più grandi al mondo, 7 hanno implementato l'infrastruttura Ethernet supportata dalla tecnologia Broadcom Si prevede che entro il 2025 tutti i sistemi server AI su larga scala saranno alimentati da Ethernet.

Broadcom è la migliore nel risolvere i problemi di larghezza di banda di comunicazione. Nel mercato globale SerDes da 50 GB/s, Broadcom occupa il 76% della quota. La sua interfaccia SerDes converte i dati paralleli a bassa velocità in dati seriali ad alta velocità, quindi li riconverte in dati paralleli l'estremità ricevente. Attraverso tali operazioni, i dati possono essere trasferiti da un TPU all'altro ad alta velocità, migliorando notevolmente l'efficienza della trasmissione.

Beneficiando anche della crescita dell'intelligenza artificiale, i ricavi dei prodotti Netcom di Broadcom stanno crescendo a un tasso di crescita anno su anno del 40%. Il rapporto finanziario dell'azienda mostra che nel secondo trimestre fiscale a partire da maggio di quest'anno, i ricavi derivanti dall'intelligenza artificiale sono aumentati del 280% su base annua arrivando a 3,1 miliardi di dollari, e si prevede che questa cifra supererà gli 11 miliardi di dollari entro la fine di quest'anno fiscale. .

05

Una grande caduta seguita da una nuova grande risalita

Molti concorrenti stanno esercitando pressioni su Nvidia, il che è un motivo importante per il calo del prezzo delle azioni dell'azienda. Tuttavia, il mercato cambia così velocemente che le persone non possono reagire in tempo.

La sera del 31 luglio, il prezzo delle azioni di Nvidia è aumentato improvvisamente bruscamente, con un aumento di oltre il 14% in una sola volta, e il suo valore di mercato è aumentato di 326,9 miliardi di dollari in un solo giorno.

Nvidia è diventata la prima azione ad avere un aumento della capitalizzazione di mercato in un solo giorno di oltre 300 miliardi di dollari. Attualmente, NVIDIA occupa le prime tre posizioni nella lista degli aumenti del valore di mercato giornaliero delle azioni statunitensi. Il 22 febbraio e il 23 maggio di quest'anno, il valore di mercato giornaliero di NVIDIA è aumentato rispettivamente di 276,6 miliardi di dollari e 217,7 miliardi di dollari.

Morgan Stanley ha pubblicato un rapporto di ricerca affermando che, considerando che Nvidia è stata recentemente svenduta dal mercato, sebbene le ragioni specifiche siano sconosciute, ritiene che possa offrire buone opportunità di ingresso sul mercato agli investitori interessati, pertanto l'ha rimessa in vendita come top azioni e profitti realizzati. La previsione e il prezzo target non sono cambiati, con un rating di "sovrappeso" e un prezzo target di $ 144.

In soli due giorni, il prezzo delle azioni di Nvidia è sceso bruscamente per poi aumentare bruscamente. Ciò potrebbe essere correlato alla scarsità dell'offerta di Blackwell e alla difficoltà di consegnare tutti i prodotti in tempo.

Morgan Stanley ha affermato che i prodotti Blackwell hanno suscitato un forte interesse nel mercato, in particolare il significativo miglioramento della capacità di ragionamento, che spinge ulteriormente il desiderio di acquisto dei clienti.

Tuttavia, nel settore circolano notizie secondo cui il chip GPU Blackwell potrebbe subire ritardi o i prodotti server dotati del chip potrebbero subire ritardi.

Sebbene le prestazioni delle tecnologie e dei prodotti di molti concorrenti stiano migliorando sempre di più, mettendo sotto pressione Nvidia, i prodotti GPU dell'azienda sono ancora la forza principale nel mercato dei server AI attualmente e nel breve e medio termine, con un'offerta complessiva domanda eccedente. Mentre la GPU Blackwell che molti clienti attendono sta per essere spedita, la notizia che la consegna subirà un ritardo stimolerà sicuramente l'appetito del mercato e aiuterà l'aumento del prezzo delle azioni.