le mie informazioni di contatto
posta[email protected]
2024-09-29
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
recentemente, google deepmind ha annunciato ufficialmente il suo ultimo algoritmo di progettazione di chip alphachip su nature. questo metodo è dedicato all'accelerazione e all'ottimizzazione dello sviluppo di chip per computer. è stato testato su diversi prodotti tpu e può completare le attività richieste dagli esperti umani in pochi ore. settimane o addirittura mesi di progettazione del layout del chip.
nel 2020, google ha pubblicato un importante documento prestampato "chip placement with deep reinforcement learning", mostrando al mondo per la prima volta il layout del chip progettato utilizzando un nuovo metodo di apprendimento per rinforzo.questa innovazione consente a google di introdurre l’intelligenza artificiale nella progettazione dei chip tpu, ottenendo un layout del chip che supera i progettisti umani.
entro il 2022, google renderà ulteriormente open source il codice dell’algoritmo descritto nel documento, consentendo ai ricercatori di tutto il mondo di utilizzare questa risorsa per pre-addestrare i blocchi di chip.
oggi, questo metodo di apprendimento basato sull'intelligenza artificiale ha superato il test di diverse generazioni di prodotti come tpu v5e, tpu v5p e trillium e ha ottenuto risultati notevoli all'interno di google. ciò che è ancora più notevole è che il team di google deepmind ha recentemente pubblicato un’appendice di questo metodo su nature, elaborando più in dettaglio il suo impatto di vasta portata nel campo della progettazione dei chip. allo stesso tempo,google ha anche aperto un checkpoint basato sul pre-addestramento di 20 moduli tpu, sui pesi dei modelli condivisi e lo ha chiamato alphachip.
l’avvento di alphachip non solo preannuncia che l’intelligenza artificiale diventerà più ampiamente utilizzata nel campo della progettazione dei chip, ma segna anche che stiamo entrando in una nuova era di “progettazione basata su chip”.
alphachip: come google deepmind utilizza l'intelligenza artificiale per rivoluzionare la progettazione dei chip
come apice di deepmind di google, alphachip sta catturando l'attenzione della comunità tecnologica globale con i suoi progressi rivoluzionari nella progettazione dei chip.
la progettazione dei chip è un campo all'apice della tecnologia moderna. la sua complessità risiede nel collegamento ingegnoso di innumerevoli componenti di precisione attraverso fili estremamente sottili. essendo una delle prime tecniche di apprendimento per rinforzo applicate per risolvere problemi di ingegneria del mondo reale, alphachip è in grado di completare progetti di layout di chip paragonabili o migliori di quelli umani in poche ore, invece di settimane o mesi di lavoro manuale. questo sviluppo epocale ha aperto le porte alla nostra immaginazione oltre i limiti tradizionali.
quindi, come riesce esattamente alphachip a raggiungere questa impresa?
il segreto di alphachip è il suo approccio all’apprendimento per rinforzo, che tratta la progettazione del layout del chip come un gioco. partendo da una griglia vuota, alphachip posiziona gradualmente ciascun componente del circuito fino a quando tutto è a posto. successivamente, in base alla qualità del layout, il sistema assegnerà le ricompense corrispondenti.
ancora più importante, google ha proposto in modo innovativo una rete neurale a grafo “edge-based”.ciò consente ad alphachip di apprendere le relazioni reciproche tra i componenti del chip e di applicarle alla progettazione dell'intero chip, ottenendo così l'autotrascendenza in ogni progetto. similmente ad alphago, alphachip può imparare attraverso i "giochi" e padroneggiare l'arte di progettare eccellenti layout di chip.
nello specifico processo di progettazione del layout tpu, alphachip condurrà innanzitutto un pre-addestramento su vari moduli di generazioni precedenti di chip, inclusi moduli di rete su chip e inter-chip, controller di memoria e buffer di trasmissione dati. questa fase di pre-formazione fornisce ad alphachip una vasta esperienza. google ha quindi utilizzato alphachip per generare layout di alta qualità per gli attuali moduli tpu.
a differenza dei metodi tradizionali, alphachip si ottimizza continuamente risolvendo più compiti di layout dei chip, proprio come gli esperti umani continuano a migliorare le proprie capacità attraverso la pratica. come ha affermato il cofondatore e ceo di deepmind, demis hassabis,google ha creato un potente ciclo di feedback attorno ad alphachip:
* innanzitutto, addestra un modello di progettazione di chip avanzato (alphachip)
* in secondo luogo, utilizzare alphachip per progettare chip ia migliori
* quindi, usa questi chip ai per addestrare modelli migliori
* infine, utilizza questi modelli per progettare chip migliori
ripetutamente, il modello e il chip ai vengono aggiornati simultaneamente. demis hassabis ha affermato: "questo è uno dei motivi per cui lo stack tpu di google funziona così bene".
alphachip non solo posiziona più moduli degli esperti umani, ma ha anche una lunghezza di cablaggio notevolmente inferiore.con l'introduzione di ogni nuova generazione di tpu, alphachip progetta layout di chip migliori e fornisce una planimetria complessiva più completa, abbreviando così il ciclo di progettazione e migliorando le prestazioni dei chip.
il numero di blocchi di chip di progettazione alphachip e la riduzione media della lunghezza della linea delle tre generazioni di tpu di google (v5e, tpu v5p)
il viaggio decennale di google tpu: dalla persistenza nell'asic all'innovazione nella progettazione dell'intelligenza artificiale
in qualità di esploratore e pioniere nel campo del tpu, guardando la storia dello sviluppo di google in questa linea tecnologica, non solo fa affidamento sulla sua acuta intuizione, ma dimostra anche il suo straordinario coraggio.
come tutti sappiamo, negli anni 80,l'asic (circuito integrato specifico per l'applicazione) è caratterizzato da un elevato rapporto costo-efficacia, una forte potenza di elaborazione e un'elevata velocità.ha ottenuto un ampio favore dal mercato. tuttavia, la funzionalità asic è determinata da strumenti di mascheramento personalizzati, il che significa che i clienti devono pagare in anticipo costi di progettazione non ricorrenti (nre) elevati.
in questo momento,fpga (field programmable gate array) presenta il vantaggio di ridurre i costi iniziali e ridurre il rischio di logica digitale personalizzata.all'attenzione del pubblico, anche se non è del tutto superiore in termini di prestazioni, è unico sul mercato.
a quel tempo, l'industria generalmente prevedeva che la legge di moore avrebbe portato le prestazioni degli fpga oltre le esigenze degli asic. ma si scopre che l'fpga, in quanto "chip universale" programmabile, funziona bene nei prodotti esplorativi e a basso volume e può raggiungere velocità, consumo energetico o indicatori di costo migliori rispetto alla gpu, ma non riesce ancora a sbarazzarsi dell '"universalità e". l’ottimalità non può essere raggiunta allo stesso tempo." una volta che gli fpga hanno aperto la strada a un'architettura specializzata, hanno lasciato il posto ad asic più specializzati.
dopo essere entrati nel 21° secolo, la mania per la tecnologia ai è diventata sempre più elevata. gli algoritmi di machine learning e deep learning continuano a crescere. la domanda del settore di chip informatici dedicati all'intelligenza artificiale ad alte prestazioni e a basso consumo è aumentata . sono diventati sempre più inefficaci in molti compiti complessi. in questo contesto, google ha preso una decisione coraggiosa nel 2013,scegli asic per creare un'infrastruttura tpu e svilupparla attorno a tensorflow e jax.
vale la pena notare che la ricerca e lo sviluppo indipendenti dell'asic sono un processo con ciclo lungo, grandi investimenti, soglia elevata e grande rischio. una volta scelta la direzione sbagliata, ciò potrebbe portare a enormi perdite economiche. tuttavia, al fine di esplorare soluzioni di machine learning più convenienti e a risparmio energetico, dopo che google ha compiuto progressi rivoluzionari nel riconoscimento delle immagini attraverso il deep learning nel 2012, ha immediatamente iniziato a sviluppare tpuv1 nel 2013 e ha annunciato la prima generazione nel 2015. il tpu il chip (tpu v1) è online internamente,ciò segna la nascita del primo acceleratore al mondo progettato specificamente per l’intelligenza artificiale.
fortunatamente, tpu ha presto dato il via a un'opportunità dimostrativa di alto profilo: nel marzo 2016, alphago lee ha sconfitto con successo il campione mondiale di go lee sedol. essendo la versione di seconda generazione della serie alphago, utilizza google cloud per il calcolo .
tuttavia, il tpu non ha ottenuto immediatamente un'applicazione di successo su larga scala nel settore. è stato solo quando è stato proposto il metodo di layout del chip alphachip che il tpu è entrato veramente in una nuova fase di sviluppo.
cronologia dello sviluppo di google tpu
nel 2020, google ha dimostrato le capacità di alphachip in un documento prestampato "chip placement with deep reinforcement learning".è in grado di imparare dall'esperienza passata e di migliorare continuamente, e può generare ricchi incorporamenti di funzionalità per le netlist di input progettando un'architettura neurale di ricompensa in grado di prevedere con precisione varie netlist e i loro layout.
alphachip considera le condizioni di ottimizzazione delle prestazioni come condizioni di vittoria del gioco, adotta metodi di apprendimento per rinforzo e ottimizza continuamente la capacità di disposizione dei chip formando un agente con l'obiettivo di massimizzare i premi cumulativi. hanno avviato 10.000 giochi, consentendo all'ia di esercitarsi nel layout e nel routing su 10.000 chip e raccogliere dati, apprendendo e ottimizzando continuamente.
alla fine, hanno scoperto che l’intelligenza artificiale superava o corrispondeva al layout manuale in termini di area, potenza e lunghezza dei cavi rispetto agli ingegneri umani, impiegando molto meno tempo per soddisfare gli standard di progettazione. i risultati lo dimostranoalphachip può generare layout che competono o superano gli sforzi manuali sulle moderne netlist di acceleratori in meno di 6 ore.nelle stesse condizioni, gli esperti umani esistenti potrebbero impiegare diverse settimane per completare lo stesso lavoro.
con l'aiuto di alphachip, google punta sempre più sul tpu.dicembre 2023google ha lanciato 3 diverse versioni di gemini, un modello generale multimodale di grandi dimensioni. l'addestramento di questo modello utilizza ampiamente il chip cloud tpu v5p.maggio 2024,google ha rilasciato il chip tpu di sesta generazione trillium, che può essere espanso in un cluster fino a 256 tpu in un singolo pod a larghezza di banda elevata e bassa latenza. rispetto alle generazioni precedenti di prodotti, trillium ha capacità più elevate nell'adattare l'addestramento dei modelli .
allo stesso tempo, i chip tpu sono gradualmente andati oltre google e hanno ottenuto un più ampio riconoscimento sul mercato.30 luglio 2024in un documento di ricerca pubblicato, apple ha affermato di aver selezionato due cluster cloud di tensor processing unit (tpu) di google durante l’addestramento del modello di intelligenza artificiale afm nell’ecosistema apple intelligence. altri dati mostrano che oltre il 60% delle startup di intelligenza artificiale generativa e quasi il 90% degli unicorni di intelligenza artificiale generativa utilizzano l’infrastruttura ai di google cloud e i servizi cloud tpu.
ci sono vari segnali che, dopo dieci anni che google ha affilato la spada, il tpu è uscito dal periodo di coltivazione e ha iniziato a riportare google nell'era dell'intelligenza artificiale con le sue eccellenti prestazioni hardware.il percorso “ai design ai chip” contenuto in alphachip apre nuovi orizzonti anche nel campo del chip design.
l'intelligenza artificiale rivoluziona la progettazione dei chip: da google alphachip all'esplorazione dell'automazione dell'intero processo
sebbene alphachip sia unico nel campo dei chip progettati dall’intelligenza artificiale, non è il solo.la portata della tecnologia ai è stata ampiamente estesa a molti collegamenti chiave come la verifica e il test dei chip.
il compito principale della progettazione del chip è ottimizzare il consumo energetico (power), le prestazioni (performance) e l'area (area) del chip. questi tre indicatori chiave sono chiamati collettivamente ppa. questa sfida è anche chiamata esplorazione dello spazio di progettazione. tradizionalmente, questo compito viene completato dagli strumenti eda, ma per ottenere prestazioni ottimali, gli ingegneri dei chip devono costantemente apportare modifiche manuali e poi affidarle nuovamente agli strumenti eda per l'ottimizzazione, e così via. questo processo è come sistemare i mobili in casa, cercando costantemente di massimizzare l’utilizzo dello spazio e ottimizzare la circolazione, ma ogni regolazione equivale a spostare i mobili e riorganizzarli, il che richiede molto tempo e manodopera.
per risolvere questo problema,synopsys ha lanciato dso.ai nel 2020.questa è la prima soluzione di progettazione di chip del settore che integra ai ed eda. dso.ai utilizza la tecnologia di apprendimento per rinforzo per cercare automaticamente nello spazio di progettazione tramite l'intelligenza artificiale per trovare il miglior punto di equilibrio senza intervento manuale. questo strumento è stato utilizzato da molti giganti dei chip.
ad esempio, dopo aver utilizzato dso.ai, microsoft ha ridotto il consumo energetico dei moduli chip del 10%-15% mantenendo le stesse prestazioni; stmicroelectronics ha aumentato l'efficienza di esplorazione ppa di oltre 3 volte. il gigante dei chip di memoria sk hynix l'area del chip è stata ridotta del 5%. i dati di synopsys mostrano che dso.ai ha assistito con successo più di 300 tape-out commerciali, sottolineando l'importante ruolo che l'intelligenza artificiale svolge nella progettazione e produzione di chip reali.
in termini di verifica dei chip assistita dall'intelligenza artificiale, un rapporto tecnico pubblicato da synopsys ha inoltre sottolineato che il processo di verifica occupa fino al 70% dell'intero ciclo di sviluppo del chip. il costo della rimozione dei chip raggiunge centinaia di milioni di dollari e la complessità dei chip moderni continua ad aumentare, rendendo difficile la verifica. a tal fine,synopsys lancia lo strumento vso.ai,utilizza l'intelligenza artificiale per ottimizzare lo spazio di verifica e accelerare la convergenza della copertura.
vso.ai può dedurre diversi tipi di copertura, integrando la tradizionale copertura del codice. l'intelligenza artificiale può anche imparare dall'esperienza di verifica per ottimizzare continuamente gli obiettivi di copertura. inoltre, synopsys ha anche lanciato lo strumento tso.ai, che può aiutare gli sviluppatori di chip a individuare i chip difettosi prodotti dalle fonderie.
il profondo coinvolgimento dell’intelligenza artificiale nel campo della progettazione dei chip ha innescato un’idea audace: possiamo utilizzare l’intelligenza artificiale per progettare un chip completo? in effetti nvidia ci ha già provato in questo ambito. progettare circuiti attraverso agenti di apprendimento per rinforzo profondo,quasi 13.000 circuiti nell'h100 di nvidia sono stati progettati dall'intelligenza artificiale. anche l'istituto di tecnologia informatica dell'accademia cinese delle scienze ha utilizzato l'intelligenza artificiale per generare un chip del processore risc-v chiamato "qiu meng no. 1" entro 5 ore.con 4 milioni di porte logiche, le sue prestazioni sono paragonabili a quelle dell'intel 80486.
nel complesso, la capacità dell’intelligenza artificiale di progettare chip completi è ancora limitata, ma questa rappresenta senza dubbio un’importante opportunità per lo sviluppo futuro dei chip. con il continuo progresso della tecnologia, il potenziale dell’intelligenza artificiale nel campo della progettazione dei chip sarà sicuramente ulteriormente esplorato e utilizzato e, in ultima analisi, cambierà l’intero processo di progettazione dei chip.
autore: tian xiaoyao