notizia

Cosa resta di un grande modello che atterra sul bordo?

2024-08-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Mentre i modelli di grandi dimensioni avviano il processo di empowerment del settore, la loro implementazione su larga scala a livello edge/side è diventata una priorità assoluta per un ulteriore sviluppo. Tuttavia, l’implementazione a livello periferico/laterale è certamente più favorevole a ottenere una risposta immediata e la protezione della privacy per i modelli di grandi dimensioni, ma dovrà anche affrontare sfide in termini di frammentazione della potenza di calcolo, problemi di efficienza energetica e scenari di implementazione. Per le imprese ciò rappresenta allo stesso tempo una difficoltà e un’opportunità.

Spinti dalle esigenze applicative del settore, i modelli di grandi dimensioni si stanno sviluppando verso l’edge.

Attualmente, l'industria dei modelli di grandi dimensioni del mio paese sta vivendo un rapido sviluppo. Le statistiche mostrano che alla fine di marzo il numero di modelli di grandi dimensioni rilasciati in Cina ha raggiunto 117. Tuttavia, nel processo di sviluppo, a differenza degli Stati Uniti, che si concentrano su scoperte originali, le grandi aziende modello cinesi pongono maggiormente l’accento sull’implementazione delle applicazioni. Zhou Hongyi, fondatore e presidente di 360 Group, ha affermato in un precedente discorso che i modelli di volume, la potenza di calcolo e i dati non sono le uniche opzioni per sviluppare modelli verso trilioni di parametri. I grandi modelli di intelligenza artificiale hanno percorsi di sviluppo più diversificati. Anche Li Dahai, co-fondatore e CEO di Face Wall Intelligence, ha sottolineato l'importanza dei modelli di settore, che ora sono diventati una delle tendenze importanti nello sviluppo.

Se si desidera potenziare migliaia di settori in modo più efficace, i modelli di grandi dimensioni e la relativa potenza di calcolo non possono essere implementati solo nel cloud e i modelli end-side presentano vantaggi comparativi che il cloud non ha. Il primo è che il modello end-side ha una maggiore affidabilità. I modelli distribuiti sui terminali possono interagire con l’ambiente in tempo reale e in modo continuo, ma è difficile per i modelli cloud mantenere questa continuità. In secondo luogo, il modello lato client può garantire meglio la privacy degli utenti. Questo problema ha attirato l'attenzione di sempre più persone. Se in futuro i robot entreranno ampiamente nelle case, i problemi di privacy diventeranno più seri. I vantaggi del modello lato client nel garantire la riservatezza dei dati sono ancora più evidenti.



Sulla base di questa comprensione, alcune aziende di edge computing hanno assunto un ruolo guida nell’attuazione di pratiche di scenario relative all’intelligenza artificiale edge e hanno iniettato con successo l’intelligenza artificiale edge in più campi. Ad esempio, nel campo della produzione intelligente, la piattaforma di edge computing Jetson di NVIDIA può portare le capacità di calcolo dell'inferenza dell'intelligenza artificiale in scenari industriali e risolvere problemi come il rilevamento dei difetti e la produzione flessibile sulla catena di montaggio utilizzando il ragionamento visivo dell'intelligenza artificiale accelerato dalla GPU. Le soluzioni Intel vengono utilizzate anche in campi quali il monitoraggio intelligente, l'istruzione e l'insegnamento e l'assistenza medica intelligente. Attraverso la gestione di vari dispositivi edge, aiutano i servizi di intelligence edge a diventare più flessibili, efficienti e accurati.

Lo sviluppo di modelli edge ed end-side ha anche guidato la crescita dell’edge AI computing e la relativa potenza di calcolo, chip e altri collegamenti della catena industriale hanno inaugurato un’ondata di sviluppo su larga scala. Qiu Xiaoxin, fondatore e presidente di Aixin Yuanzhi, ha sottolineato che la vera implementazione su larga scala di modelli di grandi dimensioni richiede la stretta integrazione di cloud, bordo ed estremità a tre livelli. La chiave per la combinazione del lato bordo e del lato fine risiede nell'intelligenza artificiale Informatica e percezione. Qiu Xiaoxin ritiene che i chip intelligenti e i grandi modelli multimodali siano diventati la "combinazione d'oro" nell'era dell'intelligenza artificiale. Quando i modelli di grandi dimensioni saranno sempre più utilizzati nelle applicazioni, più economici, più efficienti e più rispettosi dell'ambiente diventeranno le parole chiave chip intelligenti e dotati di intelligenza artificiale L'efficiente chip di inferenza del processore sarà una scelta più ragionevole per l'implementazione di modelli di grandi dimensioni, che è anche la chiave per promuovere un'intelligenza artificiale inclusiva. STL Partners prevede che entro il 2030, la dimensione potenziale del mercato globale dell’edge computing raggiungerà i 445 miliardi di dollari, con un tasso di crescita annuo composto del settore fino al 48%.

Distribuzione diversificata della potenza di calcolo per far fronte alle sfide della frammentazione

Tuttavia, l'implementazione di modelli di grandi dimensioni sul lato edge/end non può essere eseguita da un giorno all'altro. A causa delle limitazioni delle risorse di calcolo dei dispositivi edge e della diversità dei requisiti di risorse di calcolo dei modelli di grandi dimensioni, l’implementazione dell’edge dovrà affrontare innanzitutto sfide in termini di potenza di calcolo. Da un lato, i produttori di modelli devono eseguire elaborazioni tecniche come compressione, potatura e quantificazione su modelli di grandi dimensioni per ridurre le dimensioni e la complessità computazionale del modello in modo che possa adattarsi ai requisiti prestazionali dei dispositivi edge/end-side; dall'altro, come migliorare la base della potenza di calcolo. Anche l'implementazione delle strutture è al centro dell'attenzione.

Zhang Yu, chief technology officer della Network and Edge Division di Intel China, ha sottolineato che poiché l'intelligenza artificiale dà potere a migliaia di settori, applicazioni diverse hanno richieste diverse di potenza di calcolo e l'intervallo è molto ampio. Quelli con requisiti di prestazioni elevate devono essere ospitati da un cluster di potenza di calcolo, mentre possono essere utilizzati uno o più dispositivi con requisiti di potenza di calcolo bassi. Yang Lei, direttore del prodotto di Arm Technology, ha anche affermato che quando si distribuiscono modelli di intelligenza artificiale così grandi sui terminali, si devono ancora affrontare molteplici sfide come costi, consumo energetico ed ecosistema software.



In risposta a tali tendenze della domanda, negli ultimi anni i fornitori di infrastrutture di potenza di calcolo come Inspur e Lenovo hanno costruito layout di potenza di calcolo basati sull’”intelligenza di rete cloud end-edge”. I prodotti includono gateway edge intelligenti, server edge, controller industriali, computer integrati e altri dispositivi hardware per soddisfare le esigenze di potenza di calcolo di diversi settori. Dal punto di vista dei chip, l’integrazione di CPU+GPU+NPU è diventata la direzione dello sviluppo del processore per far fronte alla potenza di calcolo dell’intelligenza artificiale più complessa. Qualcomm lancia l'unità di elaborazione neurale dedicata integrata Snapdragon X Elite che supporta decine di miliardi di modelli a livello di parametri. Il processore Intel Meteor Lake combina le funzioni AI della NPU con il motore di calcolo del processore per migliorare l'efficienza energetica dei PC che eseguono funzioni AI. In termini di chip AI domestici, Aixin Yuanzhi ha recentemente rilasciato il "processore AI Aixin Tongyuan". Il set di istruzioni principali dell'operatore e la microarchitettura del flusso di dati adottano una microarchitettura del flusso di dati programmabile, che può migliorare efficacemente l'efficienza energetica e la potenza di calcolo. Densità, adatta allo sviluppo di ambiti di edge computing e ragionamento AI.

Le questioni legate all’efficienza energetica sono importanti e lo sviluppo leggero è la chiave

Anche l’efficienza energetica è una questione chiave da considerare nello sviluppo di modelli edge di grandi dimensioni. Infatti, se i modelli di grandi dimensioni vogliono essere implementati in modo efficace sul lato edge/end, rispetto al cloud, le questioni di efficienza energetica sono più importanti. Sachin Katti, vicepresidente senior e direttore generale della divisione Network and Edge di Intel, ha affermato in un'intervista con l'autore che quando si parla di potenza di calcolo, oltre all'ottimizzazione della potenza di calcolo, dell'ecologia del software, ecc., una questione chiave è il consumo energetico, soprattutto quando viene schierato al limite. Il consumo energetico delle apparecchiature implementate nell'edge può essere di circa 200 W; il consumo energetico dell'implementazione del cloud può essere compreso tra 1k e 2kW e il consumo energetico di un rack a strato singolo nel data center può arrivare fino a 100 kW. Se si somma il consumo energetico dell’intero data center, si potrebbe raggiungere una scala compresa tra 50G e 100GW.

I dispositivi edge hanno spesso potenza di elaborazione e memoria limitate e i modelli di grandi dimensioni richiedono risorse significative per l'inferenza ad alte prestazioni. ‌Pertanto, ‌come ‌ottimizzare l’utilizzo delle risorse e ridurre il consumo energetico garantendo al contempo l’accuratezza del modello e la velocità di risposta è diventata una questione chiave. In risposta a questa tendenza, i produttori rilevanti hanno promosso framework di sviluppo leggeri e librerie di accelerazione, come il motore di distribuzione del modello AI Ryzen rilasciato da AMD, la libreria di accelerazione di inferenza OpenVINO di Intel, la libreria di accelerazione di inferenza ad alte prestazioni TensorRT di NVIDIA, ecc., combinati con soluzioni mirate Framework di sviluppo leggeri per terminali embedded e mobili (come PyTorch Mobile, ‌TensorFlow Lite, ‌Paddle Lite, ecc.)‌ possono promuovere l'applicazione diffusa dell'intelligenza artificiale nei dispositivi mobili, ‌Internet of Things e altri scenari di edge computing.



Inoltre, il settore ha anche iniziato ad adottare ampiamente la tecnologia di raffreddamento a liquido come mezzo per raffreddare i server e viene gradualmente utilizzata nei data center e nelle implementazioni di modelli di grandi dimensioni. Resta inteso che la tecnologia di raffreddamento a liquido esistente può già raffreddare una flotta da 100 kW e si prevede che in futuro verrà estesa a 300 kW.

Esplorando le applicazioni dell’intelligenza artificiale, chi sarà la “scena delle star” in futuro?

Poiché le persone sottolineano sempre più la potenza dei modelli di grandi dimensioni nelle applicazioni industriali, trovare "scene stellari" adeguate è diventata una questione chiave che determina il successo o il fallimento del settore. Attualmente, i telefoni cellulari AI, i PC AI e la guida autonoma sono diventati i mercati applicativi più promettenti per i modelli di grandi dimensioni.

L'ultima ricerca della società di ricerche di mercato IDC mostra che il mercato dei telefoni cellulari AI raggiungerà spedizioni di 234,2 milioni di unità nel 2024, con un aumento del 363,6% rispetto a 50,5 milioni di unità spedite nel 2023, e rappresenterà il 19% del totale degli smartphone mercato quest'anno. Nel 2028, le spedizioni di telefoni cellulari AI raggiungeranno i 912 milioni di unità, con un tasso di crescita annuo composto del 78,4%. Anthony Scarsella, direttore della ricerca di Worldwide Quarterly Mobile Phone Tracking di IDC, ha affermato che i costi rimarranno un inibitore chiave quando verranno rilasciati i telefoni AI, poiché molti chip e NPU potenti sono costosi e vengono venduti principalmente nel mercato di fascia ultra alta. Tuttavia, con il passare del tempo e l’intensificarsi della concorrenza, riteniamo che questi componenti troveranno la loro strada nei modelli di fascia media e più convenienti.

I PC con intelligenza artificiale stanno maturando più velocemente di quanto inizialmente previsto e si prevede che porteranno un’ondata di sostituzioni nel settore globale dei PC. Secondo le previsioni di Canalys, il tasso di penetrazione globale dei PC AI aumenterà dal 19% al 71% dal 2024 al 2028 e le spedizioni aumenteranno da 51 milioni di unità a 208 milioni di unità, con un tasso di crescita annuo composto del 42,11%. Morgan Stanley prevede che i PC AI rappresenteranno il 2% del mercato complessivo dei PC quest’anno e aumenteranno al 16% l’anno prossimo, al 28% nel 2026, al 48% nel 2027 e al 64% nel 2028.

L'uso di modelli di grandi dimensioni nelle automobili è ancora agli inizi. Tuttavia, man mano che il concetto di intelligenza si radica gradualmente nei cuori delle persone, è diventato opinione diffusa che le auto alla fine diventeranno "terminali mobili ambulanti". Anche i grandi modelli di intelligenza artificiale nelle auto "prenderanno il treno espresso". Ci sono due direzioni principali per l’inserimento dei modelli di grandi dimensioni nelle auto: una è quella di entrare nell’area della cabina di pilotaggio per ottenere un’interazione uomo-computer più intelligente; l’altra è quella di cooperare con il sistema di guida autonoma per migliorare ulteriormente le soluzioni di guida intelligenti; Zhang Chi, CTO di Maichi Intelligent Technology Co., Ltd., ha affermato che i modelli di grandi dimensioni accelerano la transizione della guida autonoma dalle autostrade a scenari urbani più complessi e promuovono anche la formazione della percezione end-to-end e l'integrazione del controllo. Liu Jianwei, co-fondatore e vicepresidente di Aixin Yuanzhi, ha affermato che Aixin Yuanzhi ha previsto lo scoppio di Transformer nel 2022 e ha preso l'iniziativa di lanciare un chip dotato del processore AI Aixin Tongyuan. I chip di guida intelligente di Aixin Yuanzhi, come M55H e M76H, sono stati installati sugli attuali modelli più venduti.