notizia

Dirigente Intel: i modelli di intelligenza artificiale si sposteranno gradualmente dal cloud all'edge

2024-07-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

·Il tempo di elaborazione del cloud è prolungato, i costi di trasmissione dei dati sono elevati e ci sono preoccupazioni sulla sicurezza dei dati. Sachin Katti, vicepresidente senior di Intel, ha affermato che l’intelligenza artificiale sta penetrando nell’edge e che i modelli di grandi dimensioni potrebbero gradualmente spostarsi dal cloud all’edge.


Sachin Katti, vicepresidente senior e direttore generale del Networking and Edge Group di Intel.

"Ci aspettiamo che l'intelligenza artificiale venga implementata e applicata maggiormente all'edge per elaborare i dati locali. Nel corso del tempo, i modelli di intelligenza artificiale potrebbero spostarsi gradualmente dal cloud all'edge, 24 luglio all'Intel Network & Edge 2024 alla Computing Industry Conference, Sachin Katti, vicepresidente senior e direttore generale della divisione Network and Edge di Intel, ha affermato che l'attuale intelligenza artificiale funziona principalmente nel cloud. Poiché i dispositivi edge generano grandi quantità di dati localmente, il costo di trasmissione di tutti i dati al cloud è piuttosto elevato verso l’edge computing è la tendenza generale.

La sicurezza dei dati e il tempo reale promuovono l'intelligenza artificiale dal cloud all'edge

Sachin Katti ha affermato che gli esseri umani sono nell’era dell’assistenza dell’intelligenza artificiale e che l’intelligenza artificiale aiuta gli esseri umani a lavorare in modo più efficiente. Dopo l’era dell’assistenza dell’intelligenza artificiale, gli esseri umani entreranno nell’era degli assistenti dell’intelligenza artificiale fornire servizi di ordinazione. I flussi di lavoro delle imprese possono anche essere completati con l’intelligenza artificiale. In un lontano futuro, potremmo scoprire che gli agenti possono interagire tra loro, proprio come gli esseri umani lavorano insieme per fornire soluzioni a livello di dipartimento”.

Sachin Katti ha affermato che oggi la crescita dell'intelligenza artificiale è concentrata principalmente nel cloud, ma la tendenza generale è l'evoluzione verso l'edge computing. “In passato, l'intelligenza artificiale di cui parlavamo riguardava fondamentalmente la visione artificiale o la tecnologia di automazione basata su serie temporali. Ma ora l’intelligenza artificiale edge è gradualmente passata dalla visione artificiale all’edge alle applicazioni edge come i modelli linguistici di grandi dimensioni e l’intelligenza artificiale generativa. Intel continuerà a fornire funzionalità rilevanti per accelerare l’implementazione dell’intelligenza artificiale generativa e dei modelli linguistici di grandi dimensioni all’edge”.

Oltre ai requisiti di trasmissione dei dati edge, la sicurezza dei dati e le prestazioni in tempo reale sono considerazioni importanti nella promozione dell’intelligenza artificiale dal cloud all’edge. Guo Wei, vicepresidente di Intel Marketing Group e direttore generale della divisione Intel China Network e Edge and Channel Data Center, ha affermato che da un lato le aziende hanno preoccupazioni riguardo all'immissione dei dati nel cloud, dall'altro l'edge computing aiuta a risolvere; requisiti in tempo reale.

"Fondamentalmente, più della metà dei nostri clienti quest'anno stanno esplorando soluzioni di implementazione basate su modelli edge di grandi dimensioni." Chen Wei, Vicepresidente e Direttore generale di Intel della Network and Edge Division China, ha affermato che dal punto di vista dell'implementazione dell'edge computing, la dimensione del modello non è “Più grande è, meglio è”, ma dovrebbe adattarsi alle reali esigenze degli scenari applicativi del mercato. “L’implementazione dell’edge computing deve considerare molti fattori, come la latenza, la disponibilità, l’ottimizzazione regolabile dei microdati e la sicurezza delle informazioni. , eccetera."

L'ottimizzazione dei bordi è limitata dal volume dei dati

"La caratteristica dell'edge è la frammentazione." Zhang Yu, chief technology officer della Network and Edge Division di Intel China e senior chief AI engineer di Intel, ha affermato che utenti diversi hanno requisiti diversi in termini di potenza e prestazioni di calcolo. Una sfida comune nell’edge tuning è la limitazione del volume dei dati. La quantità di dati che una scuola o una fabbrica può effettivamente utilizzare per la formazione è molto ridotta. Anche i dati di diverse aziende e scuole sono diversi. Gli impianti di produzione di ricambi auto e gli impianti di lavorazione incontrano problemi diversi non possono essere rilevati con un modello unificato e il modello deve essere addestrato con dati specifici dell'azienda.

Allo stesso tempo, Zhang Yu ha affermato: "La formazione richiede l'etichettatura per far sapere alla macchina a cosa si sta prestando attenzione. Le persone che effettivamente utilizzano l'attrezzatura funzionale AI in una fabbrica sono spesso i lavoratori della linea di produzione. Come si può hanno l'energia per etichettare durante il processo di produzione?" ?" Pertanto, è necessario utilizzare metodi di annotazione automatizzati durante l'ottimizzazione dei bordi per completare l'annotazione quando la quantità di dati è ridotta. "All'edge, gli utenti finali perseguono l'implementazione aziendale, non soluzioni tecniche. I requisiti degli utenti per i servizi sono praticità, facilità di implementazione e facilità di gestione dopo l'implementazione. Questo è spesso un punto dolente per i clienti."

Guo Wei ha affermato che non è sufficiente fare affidamento esclusivamente sulla formazione modello per risolvere i problemi pratici del settore e che la richiesta di migliorare le capacità di ragionamento è particolarmente evidente quest'anno. L'implementazione di modelli di grandi dimensioni implicherà inevitabilmente la distribuzione equilibrata della potenza di calcolo dall'end all'edge e quindi al cloud. "Se si tratta solo di un'applicazione standard di modelli di grandi dimensioni verticali, i modelli di grandi dimensioni verranno implementati principalmente nel cloud. Tuttavia, a causa della necessità di implementazione nel settore, la potenza di calcolo dell’intelligenza artificiale sarà inevitabilmente trasferita al cloud." Distribuzione edge ed end-side."

Sachin Katti ha affermato che i principali carichi di lavoro sull’edge sono l’inferenza e l’apprendimento continuo. A volte, dopo l'implementazione all'edge, si scopre che l'effetto non è buono come previsto oppure, poiché funziona per un periodo di tempo, il modello originale deve essere messo a punto.

Quanta potenza di calcolo è necessaria all'edge? Sachin Katti ha affermato che esiste una correlazione positiva tra potenza di calcolo e consumo energetico. Le apparecchiature distribuite all'edge consumano circa 200 watt di energia, l'implementazione del cloud consuma 1-2 kilowatt e il consumo energetico di un rack a strato singolo nel data center può arrivare fino a 100 kilowatt. Se si somma il consumo energetico dell'intero data center, potrebbe raggiungere i 50-100 gigawatt. Nei casi in cui la potenza di calcolo o il consumo energetico sono elevati, l'efficienza e la capacità di raffreddamento sono variabili chiave da considerare. Poiché i dati su larga scala e la potenza di calcolo genereranno molto calore, "Attualmente utilizziamo la tecnologia di raffreddamento a liquido per raffreddare efficacemente la flotta. La tecnologia di raffreddamento a liquido esistente è stata in grado di raffreddare con successo la flotta da 100 kilowatt e si prevede che che in futuro verrà ampliato a 300 kilowatt. Pertanto, i limiti Un altro fattore molto importante nella potenza di calcolo è se si dispone di capacità sufficiente per raffreddare efficacemente l’ambiente complessivo.