notizia

Apple ammette: il modello AI viene addestrato utilizzando il chip personalizzato di Google

2024-07-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Notizie del 30 luglio, lunedì, ora degli Stati Uniti,melaLa società ha dichiarato che il suoAIIl modello centrale del sistema è inGoogle Pre-formazione completa sul processore progettato.È un segno che le grandi aziende tecnologiche stanno esplorando opzioni che vanno oltre la formazione di un’intelligenza artificiale all’avanguardia.NvidiaScheda graficaalternative.

Apple ha ammesso nel suo ultimo documento tecnico di utilizzare la Tensor Processing Unit (TPU) di Google per addestrare il suo modello di intelligenza artificiale. Separatamente, lunedì Apple ha lanciato una versione di anteprima di Apple Intelligence per alcuni utenti.

Per molto tempo, le GPU ad alte prestazioni di NVIDIA hanno dominato il mercato dell'addestramento dei modelli di intelligenza artificiale di fascia alta. Molte aziende tecnologiche, tra cui OpenAI, Microsoft e Anthropic, hanno adottato le sue GPU per accelerare l'addestramento dei modelli. Tuttavia, negli ultimi anni, le GPU Nvidia scarseggiavano. Per questo motivo, aziende come Google, Meta, Oracle e Tesla hanno sviluppato i propri chip per soddisfare le esigenze dei rispettivi sistemi di intelligenza artificiale e di sviluppo dei prodotti. .

Il CEO di Meta Mark Zuckerberg e il CEO di Alphabet Sundar Pichai hanno entrambi offerto approfondimenti la scorsa settimana suggerendo possibili progressi nell’infrastruttura dell’intelligenza artificiale tra le loro aziende e altri nel settore. Esiste un fenomeno di investimento eccessivo, ma viene anche sottolineato che non si riesce a farlo comporterebbe rischi aziendali estremamente elevati. Zuckerberg ha specificatamente sottolineato che se rimaniamo indietro in questo senso, potremmo perdere il nostro vantaggio competitivo in settori tecnologici chiave nei prossimi 10-15 anni.

Nel documento tecnico di 47 pagine, sebbene Apple non menzioni direttamente Google o NVIDIA, si afferma chiaramente che il suo modello Attentional Factorization Machines (AFM) e il server AFM sono addestrati in un ambiente "cloud TPU cluster", il che indica indirettamente che le risorse Apple forniti dai fornitori di servizi cloud vengono utilizzati per eseguire attività informatiche.

Nel documento, Apple ha sottolineato: "L'applicazione di questo sistema ci consente di addestrare modelli AFM in modo efficiente e scalabile, coprendo dall'AFM lato dispositivo all'AFM lato server e persino modelli su scala più ampia".

Finora, i rappresentanti ufficiali di Apple e Google non hanno risposto alle richieste di commento.

Rispetto a molti concorrenti, Apple ha svelato il suo progetto strategico di intelligenza artificiale in seguito. Dopo che OpenAI ha lanciato ChatGPT alla fine del 2022, altre aziende hanno rapidamente lanciato una ricerca entusiasta della tecnologia di intelligenza artificiale generativa. Lunedì, Apple ha lanciato ufficialmente Apple Smart, che ha debuttato con una serie di funzionalità innovative, come il nuovo design dell'interfaccia di Siri, capacità di elaborazione del linguaggio naturale notevolmente migliorate e riepilogo automatico dell'intelligenza artificiale nei campi di testo.

Nel prossimo anno, Apple prevede di lanciare più funzionalità basate sull'intelligenza artificiale generativa, inclusa la generazione automatica di immagini ed espressioni, e una versione migliorata di Siri che sarà in grado di utilizzare le informazioni personalizzate degli utenti per funzionare meglio in varie applicazioni complesse e compiti personalizzati.

In un documento tecnico pubblicato lunedì, Apple ha rivelato i dettagli specifici dell'addestramento del modello AFM sui suoi dispositivi, vale a dire che il modello è completato su una "fetta" separata contenente 2048 degli ultimi chip TPU v5p. TPU v5p è attualmente l'unità di elaborazione tensore più avanzata ed è stata lanciata per la prima volta a dicembre dello scorso anno. La formazione del server AFM è ancora più ampia: utilizza chip 8192 TPU v4. Questi chip sono attentamente configurati in otto sezioni e lavorano insieme nel data center attraverso la rete per supportare congiuntamente le potenti esigenze di elaborazione del server.

Secondo le informazioni ufficiali di Google, il suo ultimo TPU costa meno di 2 dollari l’ora per funzionare, ma i clienti devono prenotarlo con tre anni di anticipo per garantirne l’utilizzo. Dalla sua introduzione nel 2015, progettata specificamente per i carichi di lavoro interni e dopo che Google l'ha aperta al pubblico nel 2017, la TPU è diventata uno dei chip personalizzati più maturi e avanzati nel campo dell'intelligenza artificiale.

Vale la pena notare che, nonostante abbia un TPU sviluppato internamente, Google mantiene comunque il suo status di cliente principale di Nvidia, utilizzando le GPU di Nvidia e il proprio TPU per addestrare i sistemi di intelligenza artificiale e fornendo accesso alla tecnologia Nvidia sulla sua piattaforma cloud.

Apple ha precedentemente affermato che il processo di inferenza (utilizzando modelli di intelligenza artificiale pre-addestrati per la generazione o la previsione dei contenuti) sarà parzialmente eseguito su chip nei propri data center.

Questo è il secondo documento tecnico che Apple ha pubblicato di recente sul suo sistema di intelligenza artificiale, dopo una versione più ampia delineata a giugno, confermando ulteriormente l'utilizzo dei TPU da parte dell'azienda nel suo processo di sviluppo. (poco)