notizia

Amazon acquisisce una società di chip

2024-08-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Amazon ha raggiunto un accordo per acquisire il produttore di chip e società di compressione di modelli di intelligenza artificiale Perceive, una filiale con sede a San Jose, in California, di Xperi quotata in borsa, per 80 milioni di dollari in contanti. Perceive è un'azienda che sviluppa soluzioni rivoluzionarie per l'inferenza di reti neurali, concentrandosi sulla tecnologia che fornisce modelli di intelligenza artificiale su larga scala su dispositivi edge.

Amazon non ha rivelato i suoi pensieri specifici sulla tecnologia. "Siamo lieti di aver firmato un accordo per acquisire Perceive e portare il suo talentuoso team a unirsi ai nostri sforzi per portare grandi modelli linguistici ed esperienze multimodali su dispositivi in ​​grado di funzionare all'avanguardia", ha affermato un portavoce di Amazon.

Xperi è alla ricerca di un acquirente per Perceive dall'inizio di quest'anno. Una volta concluso l’accordo, la maggior parte dei 44 dipendenti di Perceive dovrebbero unirsi ad Amazon. Amazon ha affermato di non aspettarsi che l’accordo richieda l’approvazione normativa, definendola un’acquisizione di routine.

Introduzione del chip di Perceive

Le informazioni mostrano che Perceive è guidata dai co-CEO Murali Dharan e Steve Teig. L'azienda ha dipendenti in tutto il mondo. La società gestirà un laboratorio in Idaho. Teig ha guidato la creazione di Perceive durante il suo mandato come Chief Technology Officer di Xperi, dove ha supervisionato lo sviluppo della tecnologia, comprese le principali innovazioni in ambito audio e imaging, guidando anche il team di machine learning dell'azienda. Dharan, che in precedenza era responsabile della direzione strategica, della gestione e della crescita del business delle licenze di Xperi, è ora responsabile della guida delle operazioni commerciali di Perceive, comprese le vendite, il marketing, il successo dei clienti e le operazioni.

Perceive fornisce prodotti che servono modelli di intelligenza artificiale di grandi dimensioni su dispositivi edge. Il suo prodotto di punta è il processore Ergo AI, che può eseguire reti neurali a livello di data center in una varietà di ambienti, anche quando la potenza è limitata.

Secondo i rapporti, si tratta di un processore AI che offre prestazioni rivoluzionarie ed efficienza energetica ai dispositivi edge. In grado di eseguire reti neurali di grandi dimensioni alla massima velocità dei fotogrammi e di supportare una varietà di architetture e tipi di rete, tra cui CNN standard, RNN, LSTM e altro. Ergo è flessibile e sufficientemente potente da gestire un'ampia gamma di attività di apprendimento automatico, dalla classificazione e rilevamento di oggetti, alla segmentazione e posa delle immagini, all'elaborazione e al linguaggio del segnale audio. Puoi anche chiedergli di eseguire più attività contemporaneamente, poiché Ergo può eseguire più reti contemporaneamente.

Nonostante la potenza di elaborazione di Ergo, non richiede DRAM esterna e il suo piccolo package da 7 mm x 7 mm lo rende ideale per l'uso in dispositivi compatti come fotocamere, laptop o occhiali AR/VR.

Perceive ha affermato che Ergo è da 20 a 100 volte più efficiente dal punto di vista energetico rispetto ad altri prodotti, richiedendo solo 9 mW di potenza di calcolo per eseguire inferenza su video a 30 fps. Ciò significa che il tuo dispositivo può offrire una durata della batteria senza precedenti e generare meno calore, consentendo un pacchetto più piccolo e versatile.

All'inizio del 2023, Perceive ha lanciato il nuovo processore AI Ergo 2. Secondo i rapporti, il chip può fornire le prestazioni richieste per casi d’uso più complessi, compresi quelli che richiedono modelli di trasformatori, reti neurali più grandi, reti multiple che funzionano simultaneamente e input multimodali, pur mantenendo un’efficienza energetica leader del settore.

Elaborando le opportunità di mercato per gli ultimi chip Ergo, il fondatore e CEO di Perceive Steve Teig ha dichiarato: "Con i nuovi processori Ergo 2, abbiamo ampliato le capacità che offriamo ai produttori di dispositivi per costruire i loro chip migliori della categoria. capacità in arrivo a prodotti ambiziosi, "inclusi modelli di trasformazione per l'elaborazione del linguaggio o della visione, elaborazione video con frame rate più elevato e persino la combinazione di più reti neurali di grandi dimensioni in un'unica applicazione".

Ergo 2 funziona quattro volte più velocemente del chip Ergo di prima generazione di Perceive e ha una potenza di elaborazione molto maggiore rispetto ai tipici chip progettati per micro-ML. Gli sviluppatori di prodotti possono ora sfruttare reti neurali avanzate come YOLOv5, RoBERTa, GAN e U-Nets per fornire rapidamente risultati accurati. Tutta l'elaborazione di Ergo 2 viene eseguita su chip e non richiede memoria esterna, migliorando l'efficienza energetica, la privacy e la sicurezza. Il chip Ergo 2 consente:

1.106 inferenze al secondo con MobileNet V2

979 inferenze al secondo durante l'esecuzione di ResNet-50

L'esecuzione di YoloV5-S esegue 115 inferenze al secondo

Per fornire i miglioramenti prestazionali necessari per gestire queste reti di grandi dimensioni, il chip Ergo 2 utilizza un'architettura a pipeline e un design di memoria unificato, che ne aumenta la flessibilità e l'efficienza operativa complessiva. Di conseguenza, Ergo 2 può supportare sensori a risoluzione più elevata e una gamma più ampia di applicazioni, tra cui:

Applicazioni di elaborazione del linguaggio come conversione del parlato in testo e completamento di frasi

Applicazioni audio come la cancellazione dell'eco acustico e il rilevamento di eventi audio più ricchi

Attività di elaborazione video impegnative come la super risoluzione video e il rilevamento della posa.

Il processore Ergo 2 misura 7 mm x 7 mm, è prodotto da GlobalFoundries utilizzando la piattaforma 22FDX e non richiede DRAM esterna per funzionare. Il suo basso consumo energetico significa anche che non richiede raffreddamento. Il chip può eseguire più reti eterogenee contemporaneamente, offrendo funzionalità video e audio intelligenti a dispositivi come telecamere di livello aziendale utilizzate per sicurezza, controllo degli accessi, imaging termico o analisi video al dettaglio adatte a casi di utilizzo industriale, inclusa l'ispezione visiva o integrata; prodotti di consumo come laptop, tablet e dispositivi indossabili avanzati.

La storia dei chip sviluppati internamente da AWS

AWS costruisce da anni il proprio silicio personalizzato interno per i carichi di lavoro AI e l'ottimizzazione del cloud, in gran parte grazie all'acquisizione di Annapurna Labs da parte dell'azienda più di dieci anni fa. Ciò ha portato AWS negli ultimi anni a costruire i propri processori Graviton, chip Inferentia e processori di machine learning Trainium per l’addestramento di modelli AI nel cloud.

Quest’anno Amazon ha compiuto un importante passo avanti nel progresso della tecnologia dell’intelligenza artificiale (AI).

Alla conferenza annuale AWS re:Invent, AWS ha annunciato due nuovi chip personalizzati: AWS Trainium2 e Graviton4. I due chip rappresentano uno sforzo coraggioso da parte di Amazon Web Services (AWS) per soddisfare la crescente domanda di funzionalità di intelligenza artificiale, soprattutto perché il mercato si trova ad affrontare una grave carenza di unità di elaborazione grafica (GPU) ad alte prestazioni, prodotte principalmente da Nvidia.

La necessità di una maggiore potenza di calcolo deriva dalla crescente popolarità dell’intelligenza artificiale generativa, che richiede una potente infrastruttura per addestrare e implementare i modelli. Secondo quanto riferito, Nvidia avrà esaurito le GPU fino al 2024 e fonti del settore, incluso il CEO di TSMC, prevedono che questa crisi di fornitura potrebbe continuare fino al 2025. Con questo in mente, i nuovi chip di Amazon mirano a ridurre la dipendenza da Nvidia fornendo un’alternativa specificatamente adattata ai carichi di lavoro AI.

Il chip Trainium2 è progettato per l’addestramento di modelli IA su larga scala, con prestazioni quattro volte superiori rispetto alla precedente generazione di chip e due volte più efficienti dal punto di vista energetico rispetto alla precedente generazione di chip. Secondo Amazon, il chip può gestire 65 exaflop se utilizzato in un cluster cloud fino a 100.000 unità. Questa funzionalità riduce il tempo necessario per addestrare modelli complessi, come quelli con centinaia di miliardi di parametri, da mesi a settimane. Questi progressi rendono Trainium2 un leader nell’infrastruttura di formazione AI.

Riconosciuto per il suo potenziale, il chip Trainium2 ha già attirato l'interesse di diversi operatori del settore, tra cui Anthropic, una società focalizzata sulla costruzione di modelli di intelligenza artificiale amichevoli.Il cofondatore Tom Brown ha sottolineato che Trainium2 consentirà loro di scalare rapidamente e di elaborare i dati fino a quattro volte più velocemente rispetto al modello precedente. Le partnership tra AWS e aziende come Anthropic illustrano la crescente tendenza a sfruttare la tecnologia cloud proprietaria per semplificare le operazioni di intelligenza artificiale.

Il chip Graviton4, d'altra parte, è il processore più potente ed efficiente di Amazon, progettato su misura per una varietà di carichi di lavoro cloud. Rispetto alla generazione precedente Graviton3, questo chip di quarta generazione dovrebbe migliorare le prestazioni del 30%, aumentare il numero di core del 50% e aumentare la larghezza di banda della memoria del 75%. Questi miglioramenti consentono agli utenti di ridurre i costi operativi e aumentare la velocità di elaborazione dei dati, rendendolo ideale per le aziende che gestiscono database ad alte prestazioni e applicazioni di analisi intensive.

Tra i primi ad adottare Graviton4 figurano aziende come Datadog, Epic Games e SAP. Ad esempio, Roman Visintine, capo ingegnere cloud di Epic, ha sottolineato che il chip funziona bene con carichi di lavoro sensibili alla latenza ed è particolarmente vantaggioso per le esperienze di gioco online. In un ambiente altamente competitivo in cui l'accesso e l'elaborazione rapidi dei dati sono fondamentali per il successo, questa tendenza all'ottimizzazione dei servizi cloud è cruciale.

L'annuncio di Amazon evidenzia anche una tendenza più ampia nel settore tecnologico, in cui le aziende investono sempre più in soluzioni di chip personalizzati per soddisfare esigenze informatiche specifiche, in particolare attività di intelligenza artificiale e apprendimento automatico. Sviluppando hardware proprietario, Amazon spera di differenziarsi e di ridurre la propria dipendenza da produttori di chip affermati come Nvidia e AMD.

Poiché la tecnologia dell’intelligenza artificiale continua a crescere e a diventare sempre più diffusa in vari campi, dalla sanità all’intrattenimento, la necessità di chip efficienti e ad alte prestazioni non potrà che aumentare. Gli analisti tecnologici prevedono che il lancio di questi nuovi chip Amazon non solo soddisferà immediatamente le esigenze attuali, ma getterà anche le basi per il futuro sviluppo dell’intelligenza artificiale.

Sorprendentemente, il lancio di questi chip avviene in un momento strategico, poiché Microsoft ha anche annunciato il proprio sviluppo di chip per l'intelligenza artificiale e i servizi cloud. Ciò ha scatenato una forte concorrenza nel campo dell’hardware AI, spingendo le aziende a innovare rapidamente e oltrepassare i limiti.

Si prevede che i chip AWS Trainium2 e Graviton4 saranno disponibili per i clienti nel prossimo futuro, con il lancio di Trainium2 l'anno prossimo e Graviton4 già in anteprima. Mentre l’industria tecnologica continua a spostarsi verso il cloud computing e soluzioni basate sull’intelligenza artificiale, Amazon è pronta a svolgere un ruolo importante in questa trasformazione digitale.

I chip AI hanno un grande potenziale

AWS sviluppa spesso chip, oltre a soddisfare le esigenze aziendali, dimostra ancora una volta che i chip AI hanno un grande potenziale, che non si riflette solo nel cloud, ma anche sul lato dei dispositivi.

Secondo Futurum Intelligence, entro il 2023, Nvidia rappresenterà il 92% del mercato delle GPU AI e il 75% dell’intero mercato dei semiconduttori AI per data center. Questa posizione dominante continuerà in un mercato già enorme, che si prevede crescerà di quasi la metà entro il 2024.

La società di analisi stima che il valore di mercato totale di processori e acceleratori per applicazioni di intelligenza artificiale nei data center raggiungerà i 56,3 miliardi di dollari, con un aumento del 49,3% rispetto al valore di mercato annuale di 37,7 miliardi di dollari nel 2023. Gli analisti di mercato prevedono che il mercato crescerà ad un tasso di crescita annuo composto del 29,7% nei prossimi cinque anni, portando la dimensione del mercato a 98,4 miliardi di dollari nel 2026 e a 138,3 miliardi di dollari nel 2028.

Futurum divide il mercato dei processori per data center AI in quattro categorie: CPU, GPU, acceleratori specializzati (chiamati XPU) e acceleratori cloud proprietari prodotti da aziende come Google, AWS e Microsoft.

Nel 2023, le CPU rappresenteranno il 20,5% del mercato, le GPU rappresenteranno il 73,5% del mercato e XPU e prodotti specifici per il cloud rappresenteranno il 3% ciascuno.

1. Nel 2023, le CPU rappresenteranno il 20% dell’elaborazione dell’intelligenza artificiale nei data center e continueranno a svolgere un ruolo importante. Futurum stima che cresceranno a un tasso di crescita annuo composto quinquennale del 28%, da 7,7 miliardi di dollari nel 2023 a 26 miliardi di dollari nel 2028. Futurum stima che Nvidia avrà una quota di mercato del 37% nel 2023, seguita da Intel al 23%.

2. Entro il 2023, le GPU rappresenteranno il 74% dei chipset utilizzati nelle applicazioni AI dei data center e registreranno un tasso di crescita annuale composto del 30% in cinque anni, passando da 28 miliardi di dollari nel 2023 a 102 miliardi di dollari nel 2028. Futurum stima che Nvidia detenga il 92% del mercato delle GPU AI.

3. XPU registrerà un tasso di crescita annuo composto quinquennale del 31%, passando da 1 miliardo di dollari nel 2023 a 3,7 miliardi di dollari nel 2028.

4. Gli acceleratori di intelligenza artificiale del cloud pubblico registreranno un tasso di crescita annuale composto del 35% in cinque anni, passando da 1,3 miliardi di dollari nel 2023 a 6 miliardi di dollari nel 2028.

Futurum esclude processori e acceleratori AI da questo studio se non sono disponibili per l'uso pubblico nei data center, escludendo quindi i chipset AI progettati e utilizzati da Meta, Tesla e Apple.

Dal punto di vista geografico, il Nord America domina il mercato e rappresenterà il 55% della quota di mercato entro il 2023. Seguono come mercati importanti l’Europa, il Medio Oriente e l’Africa (EMEA) e l’Asia Pacifico (APAC), mentre l’America Latina (LATAM) rappresenta una regione in via di sviluppo con un enorme potenziale di crescita.

L’analisi visiva e audio sono i maggiori casi d’uso nel 2023. Futurum prevede che i tre principali casi d’uso nel 2028 saranno l’analisi visiva e audio, la simulazione e la modellazione, e la generazione, analisi e riepilogo del testo.

Nello specifico dell’intelligenza artificiale edge, una nuova ricerca di Omdia prevede che il mercato dei processori AI edge genererà entrate per 60,2 miliardi di dollari entro il 2028, con un tasso di crescita annuo composto dell’11%.

Le ultime previsioni sui processori edge di Omdia rilevano che la crescita dei ricavi sarà guidata dall’aumento della domanda di hardware poiché vari settori e dispositivi adottano l’intelligenza artificiale. Una delle aree che guidano la crescita del mercato è il segmento dei PC, con un’offerta di prodotti in aumento da parte dei principali fornitori come Intel, AMD e Apple. Secondo quanto riferito, i fornitori di PC stanno cercando di commercializzare l'inclusione di processori AI nei loro dispositivi come un "punto di vendita unico".

Oltre al settore dei personal computer, il rapporto evidenzia anche la rapida applicazione dei processori di intelligenza artificiale in settori quali automobili, droni, telecamere di sicurezza e robot.

Da ciò possiamo vedere le intenzioni dietro l’acquisizione di AWS.