notizia

Annuncio ufficiale di Apple: i modelli che supportano Apple Intelligence vengono addestrati sui chip personalizzati di Google

2024-07-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Autore di questo articolo: Li Dan

Fonte: intelligenza artificiale difficile

I documenti pubblici mostrano che lo sviluppo da parte di Apple del proprio sistema di intelligenza artificiale (AI), Apple Intelligence, è inseparabile dal supporto dei chip personalizzati di Google.

Lunedì 29 luglio, ora della costa orientale, il sito web ufficiale di Apple ha pubblicato un documento tecnico che descrive in dettaglio alcuni modelli linguistici di base sviluppati per supportare il sistema di intelligenza personale di Apple, Apple Intelligence, incluso un modello linguistico di circa 3 miliardi utilizzato per funzionare in modo efficiente sul dispositivo: il modello parametrico "Apple Basic Model" (AFM) lato client e un modello linguistico server di grandi dimensioni: AFM server progettato per l'architettura AI cloud di Apple "Private Cloud Compute".

Nel documento, Apple ha introdotto che l'AFM lato client e l'AFM server sono membri di una vasta famiglia di modelli generativi sviluppati da Apple. Questi modelli vengono utilizzati per supportare utenti e sviluppatori. Nel documento, Apple ha rivelato che il modello di training utilizza il chip ASIC AI di quarta generazione TPUv4 e il chip TPUv5 di nuova generazione sviluppato da Google. L'articolo recita:

"Abbiamo addestrato il server AFM da zero su 8192 chip TPUv4, utilizzando una lunghezza di sequenza di 4096 e una dimensione batch di 4096 sequenze per condurre un addestramento di 6,3 trilioni di token."
"L'AFM lato terminale è addestrato su chip 2048 TPUv5p."

Nel documento di 47 pagine, Apple non ha menzionato Google o Nvidia per nome, ma ha affermato che i suoi servizi AFM e AFM sono addestrati su "cluster cloud TPU". Ciò significa che Apple noleggia server da fornitori di servizi cloud per eseguire calcoli.

Infatti, durante la Worldwide Developers Conference (WWDC) del giugno di quest'anno, i media hanno scoperto nei dettagli dei documenti tecnici rilasciati da Apple che Google è diventato un altro vincitore degli sforzi di Apple nel campo dell'intelligenza artificiale. Gli ingegneri Apple hanno utilizzato il software framework sviluppato internamente dall'azienda e una varietà di hardware per costruire il modello di base, comprese le unità di elaborazione tensore (TPU) disponibili solo su Google Cloud. Tuttavia, Apple non ha rivelato quanto Apple faccia affidamento sui chip e sul software di Google rispetto ad altri fornitori di hardware AI come Nvidia.

Pertanto lunedì un commento sul social media X ha sottolineato che c'erano novità sull'utilizzo dei chip Google da parte di Apple a giugno e ora abbiamo maggiori dettagli sullo stack di allenamento.


Alcuni commenti hanno affermato che Apple non odia Nvidia, ma il TPU è più veloce. Ci sono anche commenti secondo cui il TPU è più veloce, quindi ha senso che Apple lo utilizzi. Naturalmente, potrebbe anche essere più economico dei chip Nvidia.


Lunedì i commenti dei media affermano che il TPU di Google è stato originariamente creato per carichi di lavoro interni e ora viene utilizzato più ampiamente. La decisione di Apple di utilizzare i chip Google per addestrare i modelli suggerisce che alcuni giganti della tecnologia potrebbero cercare e aver trovato alternative ai chip AI di Nvidia quando si tratta di formazione AI.

Il Wall Street Journal ha menzionato che la settimana scorsa, il CEO di Meta Zuckerberg e il CEO di Alphabet e Google Pichai hanno entrambi accennato nei loro discorsi che le loro aziende e altre società tecnologiche potrebbero aver investito eccessivamente nelle infrastrutture di intelligenza artificiale. Ma tutti riconoscono che i rischi aziendali derivanti dal non farlo sono troppo alti.

Zuckerberg ha detto:

"La conseguenza di rimanere indietro è che nei prossimi 10-15 anni ci si troverà in una posizione di svantaggio nelle tecnologie più importanti."

Pichai ha detto:

L’intelligenza artificiale è costosa, ma il rischio di investimenti insufficienti è ancora maggiore. Google potrebbe aver investito troppo nell’infrastruttura AI, incluso principalmente l’acquisto di GPU Nvidia. Anche se il boom dell’intelligenza artificiale rallenta, i data center e i chip per computer acquistati dalle aziende possono essere utilizzati per altri scopi. Per noi, il rischio di sottoinvestire è di gran lunga maggiore del rischio di sovrainvestire.