nachricht

wer hat die meisten gpus?

2024-09-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

mit dem aufkommen der ära der künstlichen intelligenz ist die gpu in den mittelpunkt aller aufmerksamkeit gerückt.

wenn sie jedoch die ki-trainings- und inferenzfunktionen der gpu maximieren möchten, müssen sie sich auch auf die leistung des rechenzentrums verlassen. ein ki-rechenzentrum ist oft mit zehntausenden von gpus ausgestattet wir können dinge wie einen leistungsstarken chatbot wie chatgpt erreichen.

der preis für ki-rechenzentren ist jedoch nicht niedrig. die baukosten in milliardenhöhe sind nicht nur den technologiegiganten vorbehalten, sondern verbieten auch viele länder und regionen, die nicht stark genug sind.

da mit künstlicher intelligenz immer mehr dinge getan werden können, nimmt auch die geopolitische bedeutung von high-end-chips von tag zu tag zu. immer mehr länder und regionen konkurrieren darum, chips zu horten, und einige haben sogar gesetze erlassen, um dies zu verhindern regionen vom kauf der modernsten chips abhalten,bisher gab es jedoch überraschend wenig öffentliche daten über den genauen standort von ki-chips auf der ganzen welt.

professor vili lehdonvirta vom internet institute der universität oxford enthüllte eine realität, die nicht ignoriert werden kann: gpus sind in nur 30 ländern und regionen auf der ganzen welt stark konzentriert, wobei die vereinigten staaten und china weit vorne liegen, und die meisten gebiete liegen in so- sogenannte „rechnerwüsten“: es gibt überhaupt keine gpus zum mieten.

so untersuchen sie verteilungen

die globale ki-computing-lieferkette lässt sich grob in vier teile unterteilen:

unternehmen, die gpus und andere ki-bezogene chips entwickeln und verkaufen

unternehmen, die chips herstellen und verpacken

unternehmen setzen chips ein, um rechenleistung bereitzustellen

unternehmen, die rechenleistung für die entwicklung oder bereitstellung von ki-systemen aufwenden

der marktführer bei gpu-design und -vertrieb ist das in den usa ansässige unternehmen nvidia, die chipherstellung wird von der taiwanesischen taiwan semiconductor manufacturing co., ltd. (tsmc) dominiert und die niederländische asml ist derzeit das einzige unternehmen, das lithografiemaschinen herstellt, die für die fertigung unerlässlich sind modernste chips sind entscheidend (miller 2022). infolgedessen sind diese teile der it-lieferkette sowohl geografisch als auch hinsichtlich der eigentumsverhältnisse stark konzentriert.

diese studie konzentriert sich auf den dritten schritt der lieferkette: wo auf der welt werden chips eingesetzt, um ki-computing für die ki-entwicklung und -bereitstellung bereitzustellen, also zum trainieren von ki-modellen und zum ausführen von inferenzen auf vorhandenen modellen? im großen und ganzen gibt es drei kategorien von großen computing-anbietern: wissenschaftliche supercomputing-einrichtungen, private computing-cluster und sogenannte public-cloud-computing-anbieter.

wissenschaftliche supercomputing-einrichtungen gibt es seit den frühen 1960er jahren, werden in der regel von der regierung finanziert und hauptsächlich für akademische und militärische zwecke genutzt. eine studie der oecd (2023) führte eine einfache geografische analyse wissenschaftlicher supercomputing-einrichtungen durch. laut der top500-datenbank verfügt china mit 32 % über die größte anzahl an supercomputern, gefolgt von den vereinigten staaten mit 25 % und der europäischen union mit 21 %. allerdings sind die meisten wissenschaftlichen supercomputer nicht für das training von ki-modellen ausgelegt (oecd 2023). der derzeitige erfolg der generativen ki-entwicklung beruht hauptsächlich auf privaten computerclustern und öffentlichem cloud-computing. frühere studien haben ihre geografische verteilung nicht im detail analysiert.

private computercluster gehören gewinnorientierten unternehmen wie meta, hp und vielen kleineren unternehmen. diese cluster bestehen aus computern mit gpu-anbindung, die in rechenzentren bereitgestellt werden. ein privater cluster kann entweder für die ki-entwicklung des unternehmens genutzt oder an andere unternehmen vermietet werden. auch public-cloud-computing-anbieter sind gewinnorientierte unternehmen. sie werden „öffentlich“ genannt, nicht weil sie etwas mit der regierung zu tun haben, sondern weil ihre dienste auf anfrage bereitgestellt und von mehreren kunden gemeinsam genutzt werden (d. h. ähnlich der bedeutung von „öffentlich“ in einer taverne und nicht der öffentlichen abteilung „öffentlich“). . zu den marktführern auf dem public-cloud-computing-markt gehören aws, microsoft azure und google cloud; die chinesischen public-cloud-anbieter alibaba und tencent bieten ebenfalls groß angelegtes ki-computing an. diese großen anbieter werden oft als „hyperscale-computing-anbieter“ bezeichnet.

diese studie konzentriert sich hauptsächlich auf die geografische verteilung des public cloud ai computing. private computercluster wurden verwendet, um einige ikonische modelle wie meta’s llama und llama 2 zu trainieren. doch die ausbildung und entwicklung einer großen zahl hochmoderner ki-modelle konzentriert sich auf die public-cloud-hyperscale-anbieter google, microsoft und amazon sowie deren „compute-partnerschaften“ mit führenden ki-unternehmen wie anthropic, cohere, google deepmind und hugging gesicht, openai und stabilitäts-ki. die öffentliche cloud ist auch deshalb wichtig, weil sie vielen verschiedenen arten von entwicklern offen steht, darunter auch akademischen forschern. daher lautet unsere hauptforschungsfrage: wie ist die geografische verteilung des öffentlichen cloud-ki-computings auf der ganzen welt? wir werden auch mögliche gründe für diese geografischen streuungen untersuchen, ihre auswirkungen auf computer-governance und geopolitik diskutieren und mit einer kurzen diskussion über private cluster und staatliches nationales ki-computing abschließen.

die volkszählung der studie umfasst die sechs größten hyperscale-public-cloud-anbieter: aws, microsoft, google, alibaba, huawei und tencent. zwar gibt es eine reihe kleinerer anbieter, diese sechs stellen jedoch den großteil des weltweiten public-cloud-marktes dar und sind auch in verschiedenen regionalen märkten führend. zum zeitpunkt der volkszählung war die leistungsstärkste gpu für das training gängiger ki-modelle nvidias h100, die 2023 auf den markt kam, während das vorherige flaggschiffmodell, die a100, 2020 auf den markt kam und die v100 anfang 2017. im jahr 2023 führte nvidia den h800 und den a800 ein, um die us-exportbeschränkungen nach china zu umgehen, doch diese beschränkungen wurden schnell auf diese neuen modelle ausgeweitet. die datenerfassung konzentrierte sich auf diese fünf gpu-typen, die für die ki am relevantesten sind.

aus der volkszählungsdatenbank erstellte die studie einen datensatz auf länderebene, um eine geografische analyse zu ermöglichen.für jedes land wurde die gesamtzahl der öffentlichen cloud-regionen in seinem hoheitsgebiet sowie die teilmenge der regionen berechnet, die mindestens einen gpu-typ unterstützen („gpu-fähige regionen“), sowie die teilmenge der regionen, die eine bestimmte gpu unterstützen typ.

zur ergänzung der cloud-volkszählungsdaten wurden im rahmen der studie qualitative und halbstrukturierte experteninterviews durchgeführt. wir haben insgesamt 10 informanten befragt, darunter zwei politikexperten, drei experten für hyperscale-public-cloud-anbieter und fünf forschungsexperten mit fachkenntnissen im bereich ki-computing. diese informanten wurden mithilfe von schneeballstichproben über unser eigenes professionelles netzwerk rekrutiert. die hauptziele dieser interviews bestehen darin, die volkszählungsmethodik zu verbessern und zu validieren, ergänzende oder alternative informationen über die geografische verteilung des public cloud ai computing zu generieren und dabei zu helfen, beobachtete geografische muster zu erklären.

wo sind die ki-gpus?

abbildung 1 zeigt die ungefähre lage der bei der volkszählung gefundenen öffentlichen wolkengebiete. tabelle 4 zeigt, wie viele cloud-regionen es in jedem land gibt und wie viele dieser regionen gpu-instanzen anbieten. aus sicht der computing-governance ist eines der wichtigsten merkmale der daten, dass die überwiegende mehrheit der länder der welt überhaupt keine öffentlichen cloud-regionen hat. von den 39 ländern mit einer oder mehreren cloud-regionen verfügen 30 über cloud-regionen, die gpus unterstützen.

ein weiteres auffälliges merkmal ist, dass selbst in den ländern mit gpu-fähigen cloud-regionen die geografische verteilung der regionen stark polarisiert ist:china und die vereinigten staaten zusammen haben fast so viele regionen (49) wie der rest der welt zusammen (52). von beiden ist die gesamtzahl der regionen mit gpu-unterstützung in china etwas höher (27) als in den vereinigten staaten (22).

eine weitere analyse kann durchgeführt werden, indem die in den einzelnen ländern angebotenen arten von gpu-instanzen untersucht werden. das offensichtlichste muster ist, dass die vereinigten staaten über die neuesten und leistungsstärksten gpus der welt verfügen, und zwar nicht nur im verhältnis zu den verschiedenen verfügbaren instanztypen, sondern auch in der bloßen anzahl. die vereinigten staaten sind das einzige land, in dem die nvidia a100-gpu 2020 in mehr regionen verfügbar ist als die v100-gpu 2017. in den usa gibt es auch mehrere regionen, die die nvidia h100-gpu 2023 anbieten. cloud-regionen in china basieren hauptsächlich auf v100, und einige regionen stellen a100-instanzen bereit. h100 ist in keiner region chinas verfügbar. im rest der welt bieten nur 15 länder den a100 an, nur ein land bietet den h100 an und die übrigen regionen basieren ausschließlich auf dem v100.

diese analyse berücksichtigt weder benutzerdefinierte beschleunigungschips (z. b. tpus) noch berücksichtigt sie unterschiede in der anzahl der in verschiedenen regionen verfügbaren gpus. die interviewpartner stellten fest, dass die anzahl der in verschiedenen regionen verfügbaren gpus desselben typs je nach region und anbieter erheblich variieren kann. ein informant bemerkte: „hyperscale-cloud-dienstanbieter erwecken fast den eindruck, in bezug auf rechenleistung oder speicher allmächtig zu sein und in der lage zu sein, jedes problem zu bewältigen, das man ihnen stellt. aber das ist in manchen fällen nicht ganz die realität.“ die anzahl der in einer region verfügbaren gpus kann sehr begrenzt sein, was dazu führt, dass nur eine begrenzte anzahl von kunden gpu-instanzen in dieser region ausführen kann oder nur kleinere modelle in angemessener zeit trainieren kann.

man geht derzeit davon aus, dass aws und microsoft über die größten cloud-gpu-cluster verfügen, aber „in dieser hinsicht gibt es definitiv unterschiede zwischen den regionen.“die anzahl der gpus und deren verteilung innerhalb der region des anbieters gelten jedoch bei hyperscale-cloud-anbietern als streng vertrauliche informationen. keiner unserer informationsanbieter war bereit oder in der lage, spezifische daten bereitzustellen oder anzugeben, wie diese informationen öffentlich beschafft werden könnten. es wird jedoch allgemein angenommen, dass die anzahl der gpus in den vereinigten staaten möglicherweise viel größer ist als in anderen regionen der welt mit ähnlichen gpus. die chinesische region verfügt möglicherweise auch über mehr v100-chips, um die relativ geringe leistung auszugleichen. unsere interviews deuten darauf hin, dass selbst wenn die anzahl der gpus pro region in diese analyse einbezogen werden könnte, dies die oben beschriebenen vorherrschenden muster möglicherweise nicht in frage stellt, sondern sie eher verstärkt.

warum sich auf die vereinigten staaten konzentrieren?

was steckt hinter dem vorsprung der usa im fortgeschrittenen öffentlichen cloud-ki-computing im vergleich zu china und anderen ländern? eine naheliegende erklärung sind die exportkontrollen der us-regierung, die den export von a100- und h100-chips nach china verbieten. chinesische cloud-anbieter können einige a100-chips importieren, bevor die exportkontrollen im jahr 2023 in kraft treten. der h100 unterliegt jedoch seit der veröffentlichung des produkts exportkontrollen. ebenso wurden die h800- und a800-chips kurz nach ihrer einführung unter exportkontrolle gestellt. der weitaus leistungsschwächere v100 als diese chips ist in china der am weitesten verbreitete nvidia-gpu-instanztyp, da er keinen exportkontrollen unterliegt.

allerdings können exportkontrollen nicht erklären, warum andere länder neben china überwiegend ältere gpus einsetzen. mehrere erklärungen sind möglich. eine einfache erklärung ist die reibung der innovationsverbreitung, die sich auf den prozess der gpu-verbreitung auf dem markt bezieht. neuere gpus werden voraussichtlich zuerst in den usa installiert, wo nvidia seit seinem hauptsitz in den usa über das stärkste vertriebsnetz verfügt. im laufe der zeit sollten sich fortschrittliche gpus nach und nach in relativ weit entfernten märkten verbreiten. „ich gehe davon aus, dass fast alle gpus zunächst in den nordamerikanischen raum gingen, aber mittlerweile dürfte es auch in europa einen größeren cluster geben“, spekulierte ein informant.

eine weitere mögliche erklärung für den us-amerikanischen cloud-computing-vorreiter sind geografische unterschiede in der anfänglichen nachfragestruktur, die in kombination mit skaleneffekten eine art „pfadabhängigkeit“ schaffen, die die konzentration von ki-computing in bestimmten geografischen gebieten aufrechterhält. ein informant erklärte:„es gibt nur sehr wenige cloud-käufer, die tatsächlich bahnbrechende ki-entwicklung betreiben … es besteht also keine notwendigkeit, die fähigkeiten zu verteilen … man braucht ein paar supercluster, um an bestimmten standorten eine kritische masse an rechenleistung zu bilden, das ist nicht nötig.“ um diese fähigkeit überall zu reproduzieren.“

die ersten unternehmen und forscher, die sich auf das groß angelegte training von ki-modellen konzentrierten, entstanden in den vereinigten staaten, sodass cloud-anbieter ihre leistungsstärkste trainingsrechenleistung dort konzentrierten. aber selbst wenn die nachfrage nach computern anderswo auf der welt steigt, führt dies nicht unbedingt zu einem entsprechenden wachstum der lokalen computerinfrastruktur, da entwickler häufig schulungsaufgaben in cloud-regionen in den usa senden können, ohne nennenswerte leistungseinbußen zu erleiden. somit wurde die anfängliche führungsrolle der vereinigten staaten im computerbereich aufrechterhalten.

informanten glauben, dass die situation bei der rechenleistung, die für den einsatz von ki verwendet wird, anders ist. in vielen ki-anwendungsfällen, beispielsweise bei sprachassistenten, kann die benutzererfahrung durch latenz beeinträchtigt werden, wenn die entfernung zwischen benutzer und server zu groß ist. auch die kosten für die datenübertragung können zu einem geschäftlichen problem werden. daher werden solche anwendungen am besten auf einer computerinfrastruktur bereitgestellt, die näher an den benutzern liegt. dies erklärt auch, warum v100-chips, die für das training nicht leistungsstark genug sind, sich aber dennoch für inferenzaufgaben eignen, obwohl sie langsamer sind, gleichmäßiger auf der welt verteilt sind als fortschrittlichere chips.

es gibt jedoch einige ausnahmen, die nicht zum allgemeinen muster passen, dass die usa über die fortschrittlichsten gpus verfügen.japan, großbritannien und frankreich verfügen jeweils über die gleiche anzahl an a100-unterstützungsgebieten wie v100-unterstützungsgebieten. in jedem dieser länder gibt es erhebliche lokale ki-entwicklungsaktivitäten.möglicherweise bestehen regulatorische oder politische hindernisse, die lokale entwickler daran hindern, daten zur schulung in die usa zu senden. ein informant bemerkte: „derzeit gibt es öffentliche sektoren oder wichtige europäische akteure, die modelle auf gpt-4-ebene mit daten trainieren müssen, die europa nicht verlassen dürfen … wenn hyperscale-cloud-anbieter nicht auf diese nachfrage reagieren würden, wäre ich überrascht.“

in diesem zusammenhang erwähnten informanten politische diskussionen zu „digitaler souveränität“, „datensouveränität“ und „rechensouveränität“, die zu einem erhöhten bedarf an lokaler trainingsinformatik führen könnten. auch die niederlande und irland verfügen über kleine, aber relativ fortschrittliche gpu-reihen. dies hängt möglicherweise mit der strategischen position dieser länder als infrastrukturknotenpunkte für einige hyperscale-cloud-anbieter zusammen. bemerkenswert ist, dass die niederlande das einzige land außerhalb der vereinigten staaten sind, das über eine cloud-region mit h100-gpus verfügt.

weltweiter vertrieb von privatem und staatlichem computing

diese studie konzentriert sich auf public cloud computing, eine wichtige, aber nicht die einzige datenquelle. im bereich public cloud computing konzentriert sich unsere datenerfassung auf die gpus von nvidia und sechs führende anbieter von hyperscale-cloud-diensten.

wird sich die relative position verschiedener arten von großen computeranbietern ändern und die derzeit beobachtete geographie des computers in frage stellen? gpu-cluster sind teure investitionsgüter, die eine hohe auslastung erfordern, um einen angemessenen roi zu erzielen. dies erklärt, warum große cluster in erster linie als gemeinsame infrastruktur aufgebaut werden, sei es in staatlicher hand (z. b. wissenschaftliches supercomputing) oder in den letzten jahren privat (z. b. in der öffentlichen cloud). ). in form der national ai computing-initiative scheint staatliches computing weltweit ein kleines comeback zu erleben. beispielsweise zielt die arbeitsgruppe national ai resources (nair) in den vereinigten staaten darauf ab, eine öffentliche computerinfrastruktur zu schaffen, um „die ki-forschung zu demokratisieren“. in vielen fällen scheint der umfang der staatlichen investitionen jedoch nicht auszureichen, um die dominanz wirklich in frage zu stellen status von hyperscale-cloud-dienstleistern: viele aktuelle regierungsbemühungen wurden auch in zusammenarbeit mit diesen hyperscale-cloud-anbietern durchgeführt, und tatsächlich stützen sich diese projekte auf private infrastruktur.

ein gegenbeispiel liefert der neue lumi-supercomputer des european high performance computing consortium.lumi mit sitz in kajaani, finnland, wurde in zusammenarbeit mit den regierungen der eu-mitgliedstaaten gegründet und besteht aus einem cluster von 11.912 gpus, die von nvidias rivalen amd entwickelt wurden. seine größe könnte es zu einer ernsthaften alternative zur privaten „öffentlichen“ cloud-computing-infrastruktur für die ki-entwicklungsinfrastruktur machen. aufgrund seines standorts in der eu stellt es das in abbildung 2 dargestellte nord-süd-rechnergefälle nicht in frage. es könnte jedoch dazu beitragen, das bipolare bild der vereinigten staaten und chinas als einzige ki-supermächte zu durchbrechen.

auch neue private computing-cluster wachsen. googles tpu könnte einen erheblichen anteil am ki-computing ausmachen. aws und microsoft planen beide, ihre eigenen chips zu produzieren. meta kündigt massive investitionen in den aufbau privater rechenleistung an: ceo mark zuckerberg gibt an, im jahr 2023 340.000 nvidia h100- und a100-einheiten zu investieren. microsoft gibt an, hunderte millionen dollar in den betrieb des chatbot-clusters chatgpt von openai auszugeben. große technologieunternehmen können möglicherweise allein auf der grundlage ihrer internen und partneranforderungen eine hohe auslastung großer cluster erreichen. allerdings können cluster, die ursprünglich als privat bereitgestellt wurden, auf eine gemeinsam genutzte cloud-infrastruktur umgestellt werden, wenn der interne bedarf abnimmt.dadurch wird die unterscheidung zwischen privaten und öffentlichen cloud-computing-funktionen (z. b. im öffentlichen wohnungsbau) verwischt.

eine lücke im ki-computing

die steuerung der ki durch berechnungen ist eine wirkungsvolle idee, da berechnungen aus einer großen, beobachtbaren physischen infrastruktur bestehen. diese infrastrukturen müssen sich physisch irgendwo befinden und unterliegen daher der territorialen gerichtsbarkeit, der für alle staaten, ob groß oder klein, die durchsetzbarste form der gerichtsbarkeit ist. untersuchungen zeigen jedoch, dass die computerinfrastruktur nicht gleichmäßig auf der ganzen welt verteilt ist und ihre geografische verteilung weitgehend die wahrscheinlichkeit bestimmt, dass verschiedene länder computer als interventionspunkt für ki nutzen.

die forschung belebt die bekannte vorstellung von zwei ki-supermächten, die sich in einem computer-„wettrüsten“ befinden, wobei die vereinigten staaten einen vorteil bei der chipqualität haben und china versucht, die lücke durch quantität zu schließen.us-exportbeschränkungen für fortschrittliche gpus scheinen eine rolle gespielt zu haben, da kein öffentlicher cloud-anbieter die 2023 h100-chips in china anbietet, noch den h800 oder a800, die zur umgehung dieser beschränkungen entwickelt wurden. ebenso verfügen russland und iran, zwei länder, die westlichen sanktionen unterliegen, in unserer stichprobe über keine öffentlichen cloud-ki-computing-einrichtungen.

allerdings schlägt die forschung neben der perspektive des geopolitischen großmachtwettbewerbs auch andere konzeptionelle kategorien im zusammenhang mit der computerbasierten ki-governance vor. neben den usa und china verfügen auch 15 weitere länder über gpus, die für die entwicklung der ki am wichtigsten sind, nämlich a100 und h100. mit ausnahme indiens liegen diese länder der ersten stufe alle im sogenannten „globalen norden“. nennen sie sie analog „berechnung des nordens“. diese rechenländer im norden können ihre territoriale zuständigkeit nutzen, um in die ki-entwicklung einzugreifen, insbesondere wenn modelle zum training an ihre lokalen öffentlichen cloud-regionen gesendet werden. sie könnten beispielsweise einfluss darauf nehmen, welche arten von ki-systemen auf globale märkte gelangen, indem sie vor beginn der schulung verlangen, dass algorithmen und datensätze audits bestehen und als mit den lokalen regeln konform zertifiziert werden.

die zweite stufe umfasst 13 länder, deren rechenleistung eher für den einsatz von ki-systemen als für deren entwicklung geeignet ist. mit ausnahme der schweiz liegen diese länder alle im globalen süden, daher der begriff „computational south“. beispielsweise gibt es in lateinamerika fünf gpu-unterstützte cloud-regionen, aber keine davon verfügt über eine leistungsstärkere gpu als die 2017 veröffentlichte v100. diese länder können ihre territoriale zuständigkeit für die informatik nutzen, um zu steuern, welche ki-systeme lokal eingesetzt werden können, haben jedoch weniger einfluss auf die entwicklung von ki-systemen.

neben dem „computing north“ und dem „computing south“ gibt es auch eine „computing desert“, ein begriff, der sich auf alle länder der welt bezieht, die über kein öffentliches cloud-ki-computing verfügen (weder für schulung noch für den einsatz). ).für diese länder bedeutet die umstellung auf cloud-basierte ki-dienste, dass sie sich auf die in ausländischen gerichtsbarkeiten entwickelte und bereitgestellte infrastruktur verlassen müssen. zu den rechenwüsten zählen einige reiche länder, aber auch alle vom internationalen währungsfonds (iwf) klassifizierten länder mit niedrigem mittlerem einkommen und niedrigem einkommen. die berechnung der auswirkungen auf wüstenländer kann je nach wohlstand der länder unterschiedlich sein. wohlhabende länder in der wüste können möglicherweise ihre anderen vorteile nutzen – etwa den diplomatischen einfluss auf den computernorden und den reichtum, der ausreicht, um staatliche rechenleistung aufzubauen –, um den nachteil ihres mangels an lokalem öffentlichem cloud-ki-computing, aber computerwüsten, auszugleichen arme länder haben wenig chancen, die ki durch computational governance zu beeinflussen.

ähnlich wie forscher eine „computerkluft“ zwischen wissenschaft und industrie beobachten, stellte die studie auch eine globale computerkluft fest, und die geografische verteilung des öffentlichen cloud-ki-computing scheint bekannte muster globaler ungleichheit zu reproduzieren. ab mitte der 1990er-jahre schlugen diskussionen über die digitalisierung vor, dass der erfolgreiche einstieg in die neue globale „wissensökonomie“ auf immateriellen vermögenswerten wie wissen und kreativität basieren würde und nicht auf den materiellen vermögenswerten und ressourcen, die im industriellen wirtschaftszeitalter erforderlich sind. dies bedeutet, dass entwicklungsländer auf teure infrastrukturinvestitionen verzichten und direkt in eine wissensbasierte wirtschaft einsteigen können. die heutige diskussion über ki hat jedoch einmal mehr die entscheidende rolle physischer infrastruktur wie chipfabriken, rechenzentren und stromnetze für die nationale wettbewerbsfähigkeit hervorgehoben. wenn die datenverarbeitung zu einem wichtigen governance-knoten wird, könnten sich diese physischen infrastrukturen auch als entscheidend für die aufrechterhaltung unabhängiger regulierungsbefugnisse erweisen (lehdonvirta 2023). daher wird die rechenleistung eines landes in gewissem maße auch mit seiner politischen macht gleichgesetzt.

wird sich das ändern? wenn die konzentration von high-end-ki-computing in den vereinigten staaten und im „computing north“ einfach auf reibungen bei der verbreitung von innovationen zurückzuführen ist, könnte die welt im laufe der zeit allmählich mit rechenleistung überschwemmt werden, wodurch sich diese lücke verringert. nvidias konkurrenten wie amd und intel holen bei der chipleistung auf. auch chinesische hersteller entwickeln ki-verarbeitungschips, und aufgrund der us-exportkontrollen besteht eine enorme inlandsnachfrage danach. in verbindung mit staatlicher unterstützung könnte sich diese lücke allmählich vergrößern.

wenn die beobachteten geografischen muster jedoch eher durch pfadabhängigkeit erklärt werden, die sich aus first-mover-vorteilen und skaleneffekten ergibt, dann könnten geografische konzentration, regionale spezialisierung und internationale arbeitsteilung wie in vielen anderen bereichen dauerhafte merkmale der computerproduktion werden industrien das gleiche.

schreibe am ende

wer hat die meisten gpus? die antwort auf diese frage scheint fertig zu sein, doch dahinter steckt im wesentlichen die ungleiche verteilung der rechenleistung. wie man das ungleichgewicht der rechenleistung verbessern und es mehr menschen in computerwüsten ermöglichen kann, den komfort der ki zu genießen, wird in kurzer zeit wahrscheinlich schwer zu lösen sein.