notizia

chi ha più gpu?

2024-09-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

con l'avvento dell'era dell'intelligenza artificiale, la gpu è diventata al centro dell'attenzione di tutti.

tuttavia, se si desidera massimizzare le funzioni di addestramento dell'intelligenza artificiale e di inferenza della gpu, è necessario fare affidamento anche sulla potenza del data center. un data center ai è spesso dotato di decine di migliaia di gpu possiamo ottenere cose come chatbot potenti come chatgpt.

tuttavia, il prezzo dei data center ai non è basso. il costo di costruzione di miliardi di dollari non è solo esclusivo dei giganti della tecnologia, ma vieta anche a molti paesi e regioni che non sono forti.

poiché sempre più cose possono essere fatte con l’intelligenza artificiale, anche l’importanza geopolitica dei chip di fascia alta aumenta di giorno in giorno. sempre più paesi e regioni competono per accumulare chip, e alcuni hanno addirittura promulgato leggi per impedire ad alcuni paesi regioni dall’acquistare le sanzioni più all’avanguardia,ma finora c’è stata una sorprendente mancanza di dati pubblici sulla posizione esatta dei chip ia nel mondo.

il professor vili lehdonvirta dell'internet institute dell'università di oxford ha rivelato una realtà che non può essere ignorata: le gpu sono altamente concentrate solo in 30 paesi e regioni in tutto il mondo, di cui stati uniti e cina sono molto più avanti, e la maggior parte delle aree sono in tale posizione. chiamati "deserti informatici": non ci sono gpu disponibili per l'affitto.

come indagare sulle distribuzioni

la catena di fornitura globale dell’informatica basata sull’intelligenza artificiale può essere approssimativamente suddivisa in quattro parti:

aziende che progettano e vendono gpu e altri chip legati all'intelligenza artificiale

aziende che producono e confezionano chip

aziende che implementano chip per fornire potenza di calcolo

aziende che spendono potenza di calcolo per sviluppare o implementare sistemi di intelligenza artificiale

il leader di mercato nella progettazione e vendita di gpu è nvidia con sede negli stati uniti, la produzione di chip è dominata da taiwan semiconductor manufacturing co., ltd. (tsmc) e l'asml olandese è attualmente l'unica azienda che produce macchine litografiche essenziali per la produzione. i chip all’avanguardia sono fondamentali (miller 2022). di conseguenza, queste parti della catena di fornitura informatica sono altamente concentrate sia in termini geografici che di proprietà.

questo studio si concentra sulla terza fase della catena di approvvigionamento: dove nel mondo i chip vengono distribuiti per fornire l’elaborazione dell’intelligenza artificiale per lo sviluppo e l’implementazione dell’intelligenza artificiale, ovvero per addestrare modelli di intelligenza artificiale ed eseguire inferenze su modelli esistenti. in generale, esistono tre categorie di fornitori di servizi informatici su larga scala: strutture di supercalcolo scientifico, cluster informatici privati ​​e i cosiddetti fornitori di cloud computing pubblici.

le strutture di supercalcolo scientifico esistono fin dall'inizio degli anni '60, sono generalmente finanziate dai governi e vengono utilizzate principalmente per scopi accademici e militari. uno studio dell’ocse (2023) ha condotto una semplice analisi geografica delle strutture scientifiche di supercalcolo. secondo il database top500, la cina ha il maggior numero di supercomputer, con il 32%, seguita dagli stati uniti, con il 25% e dall’unione europea, con il 21%; tuttavia, la maggior parte dei supercomputer scientifici non sono progettati per l’addestramento di modelli di intelligenza artificiale (ocse 2023). l’attuale prosperità dello sviluppo dell’intelligenza artificiale generativa si basa principalmente sui cluster informatici privati ​​e sul cloud computing pubblico. gli studi precedenti non hanno analizzato in dettaglio la loro distribuzione geografica.

i cluster informatici privati ​​sono di proprietà di società a scopo di lucro come meta, hp e molte aziende più piccole. questi cluster sono costituiti da computer connessi a gpu distribuiti nei data center. un cluster privato può essere utilizzato per lo sviluppo dell'intelligenza artificiale dell'azienda o affittato ad altre società. anche i fornitori di cloud computing pubblico sono società a scopo di lucro. sono chiamati "pubblici" non perché abbiano qualcosa a che fare con il governo, ma perché i loro servizi sono forniti su richiesta e condivisi da più clienti (cioè simile al significato di "pubblico" in una taverna, piuttosto che al dipartimento pubblico "pubblico") . tra i leader nel mercato del cloud computing pubblico figurano aws, microsoft azure e google cloud, i fornitori cinesi di cloud pubblico alibaba e tencent forniscono anche computing ia su larga scala. questi grandi fornitori vengono spesso definiti "fornitori di elaborazione su vasta scala".

questo studio si concentra principalmente sulla distribuzione geografica dell’intelligenza artificiale nel cloud pubblico. i cluster di elaborazione privati ​​sono stati utilizzati per addestrare alcuni modelli iconici come meta’s llama e llama 2. ma la formazione e lo sviluppo di un gran numero di modelli di intelligenza artificiale all'avanguardia si concentra nei fornitori di cloud pubblico iperscalabile google, microsoft e amazon e nelle loro "partnership informatiche" con aziende leader nel settore dell'intelligenza artificiale, come anthropic, cohere, google deepmind, hugging volto, openai e stabilità ai. il cloud pubblico è importante anche perché è aperto a diversi tipi di sviluppatori, compresi i ricercatori accademici. pertanto, la nostra principale domanda di ricerca è: qual è la distribuzione geografica dell’intelligenza artificiale nel cloud pubblico nel mondo? esploreremo anche le potenziali ragioni di queste dispersioni geografiche, discuteremo le loro implicazioni per la governance informatica e la geopolitica e concluderemo con una breve discussione sui cluster privati ​​e sull’informatica nazionale basata sull’intelligenza artificiale di proprietà del governo.

il censimento dello studio copre i sei maggiori fornitori di cloud pubblico iperscala: aws, microsoft, google, alibaba, huawei e tencent. sebbene esistano numerosi fornitori più piccoli, questi sei rappresentano la maggior parte del mercato globale del cloud pubblico e sono leader anche in vari mercati regionali. al momento del censimento, la gpu più potente per l’addestramento dei comuni modelli di intelligenza artificiale era la h100 di nvidia, lanciata nel 2023, con il precedente modello di punta, la a100, lanciata nel 2020, e la v100 all’inizio del 2017. nel 2023, nvidia ha introdotto l’h800 e l’a800 per aggirare le restrizioni sulle esportazioni statunitensi verso la cina, ma tali restrizioni sono state rapidamente estese a questi nuovi modelli. la raccolta dei dati si è concentrata su questi cinque tipi di gpu più rilevanti per l'intelligenza artificiale.

dal database del censimento, lo studio ha costruito un set di dati a livello di paese per consentire l’analisi geografica.per ciascun paese, ha calcolato il numero totale di regioni cloud pubbliche all'interno del suo territorio, ha inoltre calcolato il sottoinsieme di regioni che supportano almeno un tipo di gpu ("regioni abilitate per gpu") e il sottoinsieme di regioni che supportano una gpu specifica tipo.

per integrare i dati del censimento del cloud, lo studio ha condotto interviste agli esperti qualitative e semi-strutturate. abbiamo intervistato un totale di 10 informatori, in rappresentanza di due esperti politici, tre esperti di provider di cloud pubblico su vasta scala e cinque esperti di ricerca con esperienza nell'informatica basata sull'intelligenza artificiale. questi informatori sono stati reclutati utilizzando il campionamento a valanga attraverso la nostra rete professionale. gli obiettivi principali di queste interviste sono migliorare e convalidare la metodologia di censimento, generare informazioni supplementari o alternative sulla distribuzione geografica dell’intelligenza artificiale nel cloud pubblico e aiutare a spiegare i modelli geografici osservati.

dove sono le gpu ai?

la figura 1 mostra la posizione approssimativa delle aree nuvolose pubbliche trovate nel censimento. la tabella 4 mostra quante regioni cloud sono presenti in ogni paese e quante di queste regioni offrono istanze gpu. dal punto di vista della governance informatica, una delle caratteristiche più importanti dei dati è che la stragrande maggioranza dei paesi nel mondo non dispone di aree cloud pubbliche. dei 39 paesi con una o più regioni cloud, 30 hanno regioni cloud che supportano le gpu.

un'altra caratteristica sorprendente è che anche all'interno dei paesi con regioni cloud abilitate per gpu, la distribuzione geografica delle regioni è altamente polarizzata:la cina e gli stati uniti messi insieme hanno quasi lo stesso numero di regioni (49) del resto del mondo messo insieme (52). dei due, il numero totale di regioni che supportano gpu in cina è leggermente superiore (27) rispetto agli stati uniti (22).

è possibile condurre un'ulteriore analisi esaminando i tipi di istanze gpu offerte in ciascun paese. lo schema più evidente è che gli stati uniti hanno le gpu più nuove e potenti al mondo non solo in termini di proporzione di diversi tipi di istanze disponibili, ma anche in termini numerici. gli stati uniti sono l'unico paese in cui la gpu nvidia a100 del 2020 è disponibile in più regioni rispetto alla gpu v100 del 2017. anche gli stati uniti hanno diverse regioni che offrono la gpu nvidia h100 del 2023. le regioni cloud in cina si basano principalmente su v100 e alcune regioni forniscono istanze a100. h100 non è disponibile in nessuna regione della cina. solo 15 paesi nel resto del mondo offrono l’a100, solo un paese offre l’h100 e le restanti regioni si basano esclusivamente sul v100.

questa analisi non tiene conto dei chip di accelerazione personalizzati (come i tpu), né delle differenze nel numero di gpu disponibili nelle diverse regioni. gli intervistati hanno notato che il numero di gpu dello stesso tipo disponibili in diverse regioni può variare in modo significativo tra regioni e fornitori. un informatore ha osservato: "i fornitori di servizi cloud su vasta scala danno quasi l'impressione di essere onnipotenti in termini di elaborazione o archiviazione e di sembrare in grado di gestire qualsiasi problema che si presenta loro. ma in alcuni casi questa non è del tutto la realtà." il numero di gpu disponibili in una regione può essere molto limitato, con il risultato che solo un numero limitato di clienti è in grado di eseguire istanze gpu in quella regione o di addestrare solo modelli su scala ridotta in un periodo di tempo ragionevole.

si ritiene attualmente che aws e microsoft abbiano i cluster gpu cloud più grandi, ma "ci sono sicuramente differenze tra le regioni a questo riguardo".tuttavia, il numero di gpu e la loro distribuzione all'interno della regione del provider sono considerate informazioni altamente riservate dai fornitori di cloud su vasta scala. nessuno dei nostri fornitori di informazioni era disposto o in grado di fornire dati specifici o indicare come tali informazioni potessero essere ottenute pubblicamente. ma si ritiene generalmente che il numero di gpu negli stati uniti possa essere molto maggiore rispetto ad altre regioni del mondo con gpu simili. la regione cinese potrebbe anche avere più chip v100 per compensare le sue prestazioni relativamente basse. le nostre interviste suggeriscono che anche se il numero di gpu per regione potesse essere incluso in questa analisi, ciò potrebbe non mettere in discussione i modelli dominanti sopra descritti, ma piuttosto rafforzarli.

perché concentrarsi sugli stati uniti?

cosa c’è dietro la leadership degli stati uniti nel computing avanzato basato sull’intelligenza artificiale nel cloud pubblico rispetto alla cina e ad altri paesi? una spiegazione ovvia sono i controlli sulle esportazioni del governo degli stati uniti, che vietano l’esportazione di chip a100 e h100 in cina. i fornitori di cloud cinesi potranno importare alcuni chip a100 prima che i controlli sulle esportazioni entrino in vigore nel 2023, ma l’h100 è stato soggetto a controlli sulle esportazioni da quando il prodotto è stato rilasciato. allo stesso modo, i chip h800 e a800 sono stati sottoposti a controlli sulle esportazioni poco dopo il loro lancio. la v100, che è molto meno potente di questi chip, è il tipo di istanza gpu nvidia più comune in cina perché non è soggetta a controlli sulle esportazioni.

tuttavia, i controlli sulle esportazioni non possono spiegare perché altri paesi oltre alla cina abbiano utilizzato principalmente gpu più vecchie. sono possibili diverse spiegazioni. una spiegazione semplice è l’attrito della diffusione dell’innovazione, che si riferisce al processo di diffusione delle gpu sul mercato. è probabile che le gpu più recenti vengano installate prima negli stati uniti, dove nvidia ha la rete di distribuzione più forte poiché ha sede negli stati uniti. nel corso del tempo, le gpu avanzate dovrebbero diffondersi gradualmente in mercati relativamente distanti. "suppongo che inizialmente quasi tutte le gpu siano state destinate alla regione nordamericana, ma ora dovrebbe esserci un cluster considerevole anche in europa", ha ipotizzato un informatore.

un’altra potenziale spiegazione per la leadership del cloud computing negli stati uniti deriva dalle differenze geografiche nella struttura iniziale della domanda, che combinate con le economie di scala creano una sorta di “dipendenza dal percorso” che mantiene la concentrazione dell’intelligenza artificiale in determinate aree geografiche. un informatore ha spiegato:"ci sono pochissimi acquirenti di cloud che stanno effettivamente sviluppando un'intelligenza artificiale rivoluzionaria... quindi non c'è bisogno di diffondere le capacità in giro... sono necessari alcuni supercluster per formare una massa critica di potenza di calcolo in determinate località, non ce n'è bisogno per replicare questa capacità ovunque”.

le prime aziende e ricercatori a concentrarsi sulla formazione di modelli di intelligenza artificiale su larga scala sono emersi negli stati uniti, quindi i fornitori di servizi cloud hanno concentrato lì la loro più potente potenza di calcolo per la formazione. ma anche se la domanda di computer aumenta in altre parti del mondo, ciò non si traduce necessariamente in una crescita corrispondente dell’infrastruttura informatica locale, poiché gli sviluppatori possono spesso inviare attività di formazione alle regioni cloud degli stati uniti senza subire perdite significative di prestazioni. pertanto, la leadership informatica iniziale degli stati uniti è stata sostenuta.

gli informatori ritengono che la situazione con la potenza di calcolo utilizzata per implementare l’intelligenza artificiale sia diversa. in molti casi d'uso dell'intelligenza artificiale, come gli assistenti vocali, l'esperienza dell'utente può essere influenzata dalla latenza se la distanza tra l'utente e il server è troppo grande. anche i costi di trasferimento dei dati possono diventare un problema aziendale. pertanto, tali applicazioni vengono implementate al meglio su un'infrastruttura informatica più vicina agli utenti. ciò spiega anche perché i chip v100, che non sono abbastanza potenti per l’addestramento – ma comunque adatti per compiti di inferenza nonostante siano più lenti – sono distribuiti in modo più uniforme in tutto il mondo rispetto ai chip più avanzati.

tuttavia, ci sono alcune eccezioni che non si adattano al modello generale secondo cui gli stati uniti hanno le gpu più avanzate.giappone, regno unito e francia hanno ciascuno lo stesso numero di aree di supporto a100 delle aree di supporto v100. ciascuno di questi paesi ha una significativa attività di sviluppo dell’ia locale.potrebbero esserci barriere normative o politiche che impediscono agli sviluppatori locali di inviare dati negli stati uniti per la formazione. un informatore ha osservato: “attualmente, ci sono il settore pubblico o importanti attori europei che hanno bisogno di addestrare modelli di livello gpt-4 con dati che non possono lasciare l’europa… se i fornitori di cloud iperscala non rispondessero a questa richiesta, sarei sorpreso”.

in questo contesto, gli informatori hanno menzionato le discussioni politiche su “sovranità digitale”, “sovranità dei dati” e “sovranità computazionale”, che potrebbero creare una maggiore necessità di formazione informatica locale. anche i paesi bassi e l'irlanda hanno linee di gpu piccole ma relativamente avanzate. ciò potrebbe essere correlato alla posizione strategica di questi paesi come hub infrastrutturali per alcuni fornitori di cloud iperscala. in particolare, i paesi bassi sono l'unico paese al di fuori degli stati uniti ad avere una regione cloud con gpu h100.

distribuzione globale dell'informatica privata e governativa

questo studio si concentra sul cloud computing pubblico, una fonte di elaborazione importante ma non l’unica. nel cloud computing pubblico, la nostra raccolta dati si concentra sulle gpu di nvidia e su sei principali fornitori di servizi cloud iperscalabili.

la posizione relativa dei diversi tipi di fornitori di servizi informatici su larga scala cambierà, sfidando la geografia dell’informatica attualmente osservata? i cluster gpu sono beni strumentali costosi che richiedono un utilizzo elevato per ottenere un roi ragionevole, il che spiega perché i cluster su larga scala sono costruiti principalmente come infrastrutture condivise, siano esse di proprietà del governo (come il supercalcolo scientifico) o negli ultimi anni private (come il cloud pubblico). ). sembra che l’informatica di proprietà del governo stia tornando in auge su piccola scala in tutto il mondo sotto forma dell’iniziativa national ai computing. ad esempio, il gruppo di lavoro national ai resources (nair) negli stati uniti mira a creare un’infrastruttura informatica pubblica per “democratizzare la ricerca sull’intelligenza artificiale”. tuttavia, in molti casi l’entità degli investimenti pubblici non sembra essere sufficiente per sfidare veramente la posizione dominante dei fornitori di servizi cloud su vasta scala. molti recenti sforzi governativi sono stati condotti anche in collaborazione con questi fornitori di servizi cloud su vasta scala e, di fatto, questi progetti si basano su infrastrutture private.

il nuovo supercomputer lumi del consorzio europeo per il calcolo ad alte prestazioni fornisce un controesempio.situata a kajaani, in finlandia, lumi è stata fondata in collaborazione con i governi degli stati membri dell'ue ed è costituita da un cluster di 11.912 gpu progettate dalla rivale di nvidia, amd. le sue dimensioni potrebbero renderlo una seria alternativa all’infrastruttura di cloud computing “pubblica” privata per le infrastrutture di sviluppo dell’intelligenza artificiale. data la sua posizione nell’ue, non mette in discussione il divario informatico nord-sud mostrato nella figura 2. tuttavia, potrebbe contribuire a rompere l’immagine bipolare di stati uniti e cina come uniche superpotenze legate all’intelligenza artificiale.

stanno crescendo anche nuovi cluster informatici privati. il tpu di google potrebbe rappresentare una parte significativa dell’elaborazione basata sull’intelligenza artificiale. sia aws che microsoft prevedono di produrre i propri chip. meta annuncia massicci investimenti nella creazione di potenza informatica privata: il ceo mark zuckerberg afferma di investire 340.000 unità nvidia h100 e a100 nel 2023, microsoft afferma di spendere centinaia di milioni di dollari per alimentare il chatbot di cluster chatgpt di openai. le grandi aziende tecnologiche potrebbero essere in grado di ottenere un elevato utilizzo di cluster su larga scala basandosi esclusivamente sulle loro esigenze interne e dei partner. ma i cluster inizialmente distribuiti come privati ​​potrebbero passare all’infrastruttura cloud condivisa man mano che le esigenze interne diminuiscono.ciò offusca la distinzione tra capacità di cloud computing private e pubbliche (come l’edilizia residenziale pubblica).

una lacuna nell’informatica basata sull’intelligenza artificiale

governare l’intelligenza artificiale attraverso il calcolo è un’idea potente perché il calcolo consiste in un’infrastruttura fisica ampia e osservabile. queste infrastrutture devono essere fisicamente localizzate da qualche parte e sono quindi soggette alla giurisdizione territoriale, che è la forma di giurisdizione più applicabile per tutti gli stati, grandi e piccoli. tuttavia, la ricerca mostra che le infrastrutture informatiche non sono distribuite uniformemente nel mondo e la loro distribuzione geografica determina in gran parte la probabilità che diversi paesi utilizzino l’informatica come punto di intervento per l’intelligenza artificiale.

lo studio fa rivivere l’idea familiare di due superpotenze basate sull’intelligenza artificiale impegnate in una “corsa agli armamenti” informatici, con gli stati uniti in vantaggio nella qualità dei chip e la cina che cerca di colmare il divario attraverso la quantità.le restrizioni all’esportazione degli stati uniti sulle gpu avanzate sembrano aver avuto un ruolo, poiché nessun fornitore di cloud pubblico offre i chip h100 del 2023 in cina, né l’h800 o l’a800, che sono stati sviluppati per aggirare queste restrizioni. allo stesso modo, russia e iran, due paesi soggetti alle sanzioni occidentali, nel nostro campione non dispongono di strutture di cloud computing basate sull’intelligenza artificiale.

tuttavia, oltre alla prospettiva della competizione geopolitica tra le grandi potenze, la ricerca propone anche altre categorie concettuali relative alla governance dell’intelligenza artificiale basata sull’informatica. oltre agli stati uniti e alla cina, anche altri 15 paesi dispongono di gpu importanti per lo sviluppo dell'intelligenza artificiale, ovvero a100 e h100. questi paesi di primo livello, ad eccezione dell’india, si trovano tutti nel cosiddetto “nord del mondo”. per analogia, chiamiamoli "calcolo del nord". questi paesi del nord informatico possono utilizzare la loro giurisdizione territoriale per intervenire nello sviluppo dell’intelligenza artificiale, soprattutto quando i modelli vengono inviati alle regioni locali del cloud pubblico per la formazione. ad esempio, potrebbero influenzare i tipi di sistemi di intelligenza artificiale che entrano nei mercati globali richiedendo che algoritmi e set di dati superino audit e siano certificati come conformi alle norme locali prima che la formazione possa iniziare.

il secondo livello comprende 13 paesi la cui potenza di calcolo è più adatta all’implementazione dei sistemi di intelligenza artificiale che al loro sviluppo. ad eccezione della svizzera, questi paesi si trovano tutti nel sud del mondo, da qui il termine “sud computazionale”. ad esempio, ci sono cinque regioni cloud supportate da gpu in america latina, ma nessuna di esse dispone di una gpu più potente della v100 rilasciata nel 2017. questi paesi sono in grado di utilizzare la loro giurisdizione territoriale sull’informatica per controllare quali sistemi di intelligenza artificiale possono essere implementati localmente, ma hanno meno influenza sullo sviluppo dei sistemi di intelligenza artificiale.

oltre al "nord informatico" e al "sud informatico", esiste anche un "deserto informatico", un termine usato per riferirsi a tutti i paesi del mondo che non dispongono di cloud computing pubblico basato sull'intelligenza artificiale (sia per la formazione che per l'implementazione). ).per questi paesi, passare a servizi di intelligenza artificiale basati su cloud significa fare affidamento su infrastrutture sviluppate e implementate in giurisdizioni straniere. i deserti computazionali includono alcuni paesi ricchi ma anche tutti i paesi a reddito medio-basso e a basso reddito classificati dal fondo monetario internazionale (fmi). il calcolo dell’impatto sui paesi desertici può variare a seconda della loro ricchezza. i paesi ricchi nel deserto potrebbero essere in grado di sfruttare i loro altri vantaggi – come l’influenza diplomatica sul nord informatico e la ricchezza sufficiente per costruire una potenza di calcolo di proprietà del governo – per compensare lo svantaggio della loro mancanza di elaborazione locale basata sull’intelligenza artificiale nel cloud pubblico, ma i deserti informatici i paesi poveri hanno poche prospettive di influenzare l’intelligenza artificiale attraverso la governance computazionale.

analogamente ai ricercatori che hanno osservato un “divario informatico” tra il mondo accademico e l’industria, lo studio ha osservato anche un divario informatico globale e la distribuzione geografica dell’intelligenza artificiale nel cloud pubblico sembra riprodurre modelli familiari di disuguaglianza globale. a partire dalla metà degli anni ’90, le discussioni sulla digitalizzazione proponevano che l’ingresso di successo nella nuova “economia della conoscenza” globale si sarebbe basato su beni immateriali come la conoscenza e la creatività, piuttosto che fare affidamento sui beni materiali e sulle risorse richieste nell’era dell’economia industriale. ciò significa che i paesi in via di sviluppo possono evitare costosi investimenti infrastrutturali e tuffarsi direttamente in un’economia basata sulla conoscenza. tuttavia, la discussione odierna sull’intelligenza artificiale ha evidenziato ancora una volta il ruolo fondamentale delle infrastrutture fisiche come le fabbriche di chip, i data center e le reti elettriche nella competitività nazionale. se l’informatica diventasse un nodo chiave della governance, allora queste infrastrutture fisiche potrebbero rivelarsi cruciali anche per mantenere poteri normativi indipendenti (lehdonvirta 2023). pertanto, la potenza di calcolo di un paese è equiparata, in una certa misura, anche al suo potere politico.

questo cambierà? se la concentrazione dell’informatica di fascia alta negli stati uniti e nel “nord informatico” è semplicemente dovuta all’attrito nella diffusione dell’innovazione, allora col tempo il mondo potrebbe essere gradualmente inondato di potenza di calcolo, riducendo questo divario. i rivali di nvidia, come amd e intel, stanno cercando di recuperare in termini di prestazioni dei chip. i produttori cinesi stanno anche sviluppando chip di elaborazione dell’intelligenza artificiale e, a causa dei controlli sulle esportazioni statunitensi, c’è un’enorme domanda interna per questi prodotti, insieme al sostegno del governo, questo divario potrebbe gradualmente ampliarsi.

tuttavia, se i modelli geografici osservati vengono spiegati maggiormente dalla dipendenza dal percorso derivante dai vantaggi del first mover e dalle economie di scala, allora la concentrazione geografica, la specializzazione regionale e la divisione internazionale del lavoro potrebbero diventare caratteristiche durature della produzione informatica, come lo sono in molti altri paesi. industrie idem.

scrivi alla fine

chi ha più gpu? la risposta a questa domanda sembra essere pronta, ma dietro questa domanda si nasconde essenzialmente la distribuzione non uniforme della potenza di calcolo. come migliorare lo squilibrio della potenza di calcolo e consentire a più persone nei deserti informatici di godere della comodità portata dall’intelligenza artificiale sarà probabilmente difficile da risolvere in breve tempo.