nachricht

musk jagt billionen in openai

2024-09-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

openai ist sehr stark. wenn man diese stärke beziffern möchte, dann könnte diese zahl bei 150 milliarden us-dollar liegen.

am 11. september ortszeit berichtete bloomberg, dass openai eine finanzierung im wert von 150 milliarden us-dollar durchführte, 6,5 milliarden us-dollar von investoren einsammelte und außerdem darüber verhandelte, 5 milliarden us-dollar in form eines revolvierenden darlehens von banken zu leihen.

ende august verbreitete sich die nachricht, dass openai gelder beschaffen würde. damals gaben die medien bekannt, dass es einen wert von mehr als 100 milliarden us-dollar habe und mehrere milliarden us-dollar einbringen würde welt. immerhin wurde openai ende letzten jahres mit 86 milliarden us-dollar bewertet, als mitarbeiter ihre bestehenden anteile verkauften.

früheren nachrichten zufolge sind neben microsoft auch apple und nvidia an der aktuellen finanzierungsrunde von openai beteiligt. der anstieg der bewertung und die wetten der giganten zeigen die attraktivität von openai.

die andere seite der geschichte ist die erstaunliche geldverbrennungsrate von openai und die situation interner und externer probleme.

die letzte wichtige finanzierung von openai erfolgte im januar 2023, als microsoft etwa 10 milliarden us-dollar investierte. mit anderen worten: openai hat in weniger als zwei jahren dutzende milliarden dollar verbrannt. the information hat bereits zuvor berichtet, dass die verluste von openai in diesem jahr 5 milliarden us-dollar erreichen könnten. damals sagten die medien voraus, dass openai bald eine finanzierung benötigen würde, was leider zutraf.

aufgrund interner bedenken verlangsamte openai nicht nur seine updates, sondern erlebte auch häufige abgänge von führungskräften.

im jahr 2023 wird openai den gpt-store starten und gpt-4 veröffentlichen, und es wird sehr viel los sein. mehr als die hälfte dieses jahres ist vergangen und die neuen produkte von openai sind größtenteils heiß, aber nicht greifbar, aber das seit langem gemunkelte neue modell wurde noch nicht einmal in großem maßstab getestet „strawberry“ ist noch mysteriöser.

gleichzeitig arbeiten nur noch 2 der 11 mitbegründer bei openai. kürzlich gab alexis conneau, die schlüsselfigur hinter gpt-4o und gpt-5, seinen abschied von openai bekannt.

aufgrund ausländischer aggression haben giganten wie google und microsoft getarnte konkurrenten von openai übernommen, und andere star-ki-startups im silicon valley, darunter inflection ai und character ai, haben de facto bereits „eigentümer“.

was noch beunruhigender ist, ist, dass der alte feind elon musk von einem verbalen streit mit openai zu einem nahkampf mit echten waffen übergegangen ist.

xai, gegründet von musk, ist erst seit 15 monaten etabliert und hat sich zu einem der mächtigsten konkurrenten von openai entwickelt. die serie-b-finanzierung endete im mai dieses jahres. xai erhielt nicht nur eine einzige finanzierung in höhe von 6 milliarden us-dollar und war damit nach openai die zweithöchste, sondern seine bewertung erreichte auch 24 milliarden us-dollar, was es zum zweithöchsten ki-startup nach openai macht.

was die produkte betrifft, hat das grok-modell von xai viele iterationen durchlaufen, und die aktuelle leistung von grok 2 ist eng an gpt-4 angelehnt.

gerade als der scheinbare krieg ins stocken geriet, verkündete elon musk am 3. september, dass colossus, ein supercomputing-cluster mit 100.000 nvidia h100, offiziell gestartet wurde und in bezug auf die größe weltweit an erster stelle steht.

der ausbau der rechenleistung dient bereits ehrgeizigen zielen, und musk hat damit gedroht, bis ende dieses jahres die weltweit leistungsfähigste künstliche intelligenz zu entwickeln.

openai, das seit langem mit der rechenleistung zu kämpfen hat, hat mit microsoft mehrere neue rechenzentrumspläne auf den weg gebracht, entweder zur erweiterung bestehender microsoft-supercomputer oder zum bau neuer einrichtungen. es wurde sogar bekannt, dass das „stargate-projekt“ über millionen von nvidia-chips verfügt.

der unterschied zwischen vorbereitung und „offiziellem start“ ist jedoch offensichtlich. im ki-wettbewerb, bei dem die zeit knapp wird, wartet die zeit auf niemanden. laut the information hat altman gegenüber microsoft-führungskräften bedenken geäußert, dass die rechenleistung von xai die von openai übersteigt.

der rechenleistungskrieg zwischen musk und ultraman hat begonnen.

einer davon ist musk, der sagt: „ich werde keine wohlhabende familie heiraten, ich bin selbst eine wohlhabende familie“ und mit xai große fortschritte macht. eine davon ist openai, das von giganten unterstützt wird und immer noch der maßstab in der ki-branche ist. der kampf um die rechenleistung hat begonnen, und die herausforderung besteht nicht nur darin, ob sie geld haben oder nicht.

musk und altman sind beide mitbegründer von openai. die beiden verstanden sich gut, als google deepmind einsetzte, um den bereich der künstlichen intelligenz zu dominieren, aber ihre wege trennten sich, kurz bevor die gemeinnützige organisation openai sich einer begrenzten kommerzialisierung zuwandte.

chatgpt wurde vor zwei jahren sofort ein hit. musk startete einen heftigen angriff auf openai und sogar ultraman selbst und sagte, openai habe „seine ursprüngliche absicht verletzt“ und sei ein vasall von microsoft geworden. letzterer ist der größte geldgeber von openai und investiert dutzende milliarden dollar.

die leistung von ultraman ist die meiste zeit mittelmäßig. aber aus altmans wenigen worten lässt sich unschwer seine widersprüchlichen gefühle von ekel und unfähigkeit, musk zu verachten, erkennen. altman sagte einmal, musk sei „ein idiot“. sechs monate später sagte altman etwas gutes über musk: „elon ist definitiv ein magnet für talente und der mittelpunkt der aufmerksamkeit, und er hat tatsächlich einige echte superkräfte.“

zu diesem zeitpunkt ist musks xai etabliert und altman ist sich der fähigkeiten dieses verrückten aus dem silicon valley durchaus bewusst.

bei der offiziellen ankündigung im juli 2023 galt xai als ziel von openai. auch hier scheut sich musk nicht.

doch damals herrschte in der außenwelt meist eine abwartende haltung gegenüber xai. schließlich hat es spät angefangen und ist klein angelegt. neben openai und microsoft gibt es auch giganten wie google und star-start-ups wie anthropic. xai hat nicht nur nur 11 gründungsmitglieder, seine philosophie schließt selbstverständlich auch große investitionen von technologieriesen aus. einige bekannte medien, darunter „wired“, verspotteten die herausforderung von xai gegenüber openai eher als eine „illusion“ von musk.

die entwicklungsgeschwindigkeit von xai übersteigt jedoch die vorstellungskraft aller.genau das hat altman über musk gesagt – superkräfte.

es ist nicht schwer herauszufinden, dass die veröffentlichungen und iterationen von xai-produkten sehr schnell erfolgen, wenn man sich den zeitplan ansieht. das vor 13 monaten gegründete unternehmen hat das erste große grok-modell, den iterativen grok 1.5, den multimodalen grok 1.5v, grok 2 und das kleine modell grok 2mini herausgebracht.

musk, der sich gut mit marketing auskennt, hat grok eine ausgeprägte persönlichkeit verliehen. wenn benutzer mit grok sprechen, werden sie feststellen, dass dieser roboter leichtfertig und sarkastisch ist, gerne witze macht und die „politische korrektheit“ in frage stellt.

unter dem deckmantel der scherze hatte das grok-modell openai jedoch immer fest im griff.

nehmen sie als beispiel die jüngste kampfsituation. xai hat im august zwei modelle veröffentlicht, grok 2 und grok 2 mini. die leistung in bezug auf codierung, mathematik und argumentation wurde im vergleich zur vorherigen generation erheblich verbessert und die vincent-diagrammfunktion wurde hinzugefügt. zu diesem zeitpunkt belegte die frühe version von grok 2, sus-column-r, in der lmsys-gesamtliste den dritten platz. sie konnte mit gpt-4o an der spitze konkurrieren und übertraf anthropics claude 3.5 sonnet am ende direkt. bei der spezifischen verwendung behält grok 2 den „unregelmäßigen“ malstil bei. die neu eingeführte bildgenerierungsfunktion ermöglicht es der ki, bilder von anderen bekannten großen modellen zu „zeichnen“, die herumlaufen, beispielsweise von musk, der eine waffe in der hand hält szenen usw. entfachten einst die lebensbegeisterung der internetnutzer.

noch überraschender ist, dass xai im mai dieses jahres eine serie-b-finanzierung mit einem gesamtfinanzierungsbetrag von 6 milliarden us-dollar abgeschlossen hat.im bereich großer modelle ist dies nach openai die zweitgrößte einzelfinanzierung. der gesamtfinanzierungsbetrag von openai beträgt 14 milliarden us-dollar, der größte davon erfolgte im januar 2023 mit einer massiven investition von 10 milliarden us-dollar von microsoft.

zum vergleich: vor der finanzierung durch xai war anthropic nach openai die zweitgrößte einzelfinanzierungsgröße, die im september 2023 eine finanzierung in höhe von 4 milliarden us-dollar und im oktober eine finanzierung in höhe von 2 milliarden us-dollar erhielt, gefolgt von inflection ai und seinem einzigen finanzierungsbetrag in im juni 2023 wurden 1,3 milliarden us-dollar erreicht.

unter ihnen startete xai spätestens ein jahr nach seiner gründung, entwickelte aber nicht nur ein großes modell, das die produktstärke von openai fest im griff hat, sondern folgte auch in bezug auf den finanzierungsumfang dicht dahinter.

heute ist xai zu einem konkurrenten geworden, den openai nicht ignorieren kann, selbst einer seiner mächtigsten konkurrenten.

ob es sich um einen wettbewerb in bezug auf produkt- oder finanzierungsumfang handelt, es ist ein offener kampf zwischen beiden. unter wasser tobt auch der versteckte kampf um rechenleistung zwischen xai und openai.

erst am 3. september gab musk auf x bekannt, dass colossus (giant) offiziell gestartet wurde.

colossus ist der super-ki-trainingscluster von xai, der sich im raum memphis, tennessee, befindet und von 100.000 nvidia h100-gpus angetrieben wird.

darüber hinaus versprach musk, dass colossus in den nächsten monaten seine investitionen weiter erhöhen, die anzahl der gpus verdoppeln und die anzahl der gpus im gesamten cluster auf 200.000 erhöhen wird, darunter 50.000 nvidia h200.

was ist das konzept eines clusters bestehend aus 100.000 nvidia h100?

vereinfacht gesagt ist es derzeit die nummer 1 der welt. zur weiteren erläuterung: da große unternehmen gpus horten, ist es schwierig, öffentliche zahlen über die tatsächliche anzahl aktiver gpus zu ermitteln. im juni letzten jahres gab inflection ai, das 1,3 milliarden us-dollar eingesammelt hatte, jedoch die kühne aussage ab, dass es den „größten supercomputer der welt“ bauen und aus (nur) 22.000 nvidia h100 bestehen würde. im märz dieses jahres kündigte meta zwei neue rechenzentrumscluster mit jeweils 24.000 h100-chips an. mehrere unternehmen planen den bau eines supercomputers mit 100.000 nvidia-chips oder mehr, aber nur musk hat sich gemeldet und erklärt, dass er gebaut wurde.

das überraschende am offiziellen start von colossus ist nicht nur sein umfang, sondern auch die zeit, die für die umsetzung benötigt wurde. nach musks worten brauchte das team nur 122 tage oder vier monate, um colossus zu bauen. im allgemeinen würde der aufbau eines ki-trainingsclusters dieser größe ein jahr dauern.

musk gab erstmals im mai dieses jahres bekannt, dass xai eine „superfabrik für rechenleistung“ baut. im juli gab musk bekannt, dass einige unternehmen, darunter xai, x und nvidia, mit versuchen begonnen hatten. damals hieß der cluster „memphis supercluster“.

„spielen sie, um zu gewinnen, oder spielen sie überhaupt nicht.“eine x-nachricht von musk im juni ist die beste erklärung für seine ambitionen, und sein konkreterer plan besteht darin, bis dezember dieses jahres „die in jeder hinsicht leistungsstärkste künstliche intelligenz der welt“ zu trainieren.

laut musk selbst sind 20.000 nvidia h100-chips erforderlich, um grok 2 zu trainieren, während für das training von grok 3 möglicherweise 100.000 h100-chips erforderlich sind.

wir müssen wissen, dass die fähigkeiten von grok 2 denen von gpt-4 nahe kommen. es ist nicht schwer zu erkennen, dass musk dieses mal hart arbeiten will, um wunder zu erreichen. es ist auch offensichtlich, wer das hauptziel ist, um die „stärkste“ ki zu übertreffen.

solche nachrichten sind natürlich eine art druck für openai.

laut einem bericht von the information gaben mit der angelegenheit vertraute personen bekannt, dass altman gegenüber microsoft-führungskräften bedenken geäußert hat, dass er befürchtet, dass die rechenleistung von xai bald die von openai übertreffen wird.

ultraman hatte jede menge grund zur sorge.

derzeit sind die großen modelliterationen von openai auf die „4“-serie beschränkt. laut der von lmsys am 4. september aktualisierten globalen rangliste wurde die neueste version von openai, chatgpt-4o, am 8. august dieses jahres aktualisiert und belegt derzeit den ersten platz. in bezug auf die gesamtpunktzahl ist sie jedoch nicht so gut wie gemini-1.5-pro. , grok-2 öffnet eine große lücke. gpt-4o, das am 13. mai dieses jahres aktualisiert wurde, belegt den fünften platz.

man kann sagen, dass die leute auf gpt-5 gewartet haben, seit openai gpt-4 im märz letzten jahres veröffentlicht hat. der anfängliche konsens war, dass gpt-5 bis ende 2023 oder im sommer 2024 auf den markt kommen würde, aber vor einigen monaten hatte mira murati, chief technology officer von openai, öffentlich erklärt, dass sich die veröffentlichung von gpt-5 verzögern könnte ende 2025 oder anfang 2026.

der grund für die verzögerung von gpt-5 dürften „zwei mängel“ sein: unzureichende rechenleistung und unzureichende daten. mulati gab bekannt, dass die parameter von gpt-5 52 billionen erreichen werden, ein deutlicher anstieg im vergleich zu den 2 billionen von gpt-4.

nicht nur die entwicklung der nächsten gpt-generation erfordert eine ausreichende rechenleistungsunterstützung. im märz dieses jahres veröffentlichte die marktforschungsorganisation facrorial funds einen bericht, in dem die hardwareressourcen analysiert wurden, die openai für die bereitstellung von sora benötigt. dabei geht man davon aus, dass sora in der spitzenzeit voraussichtlich 720.000 nvidia h100-chips benötigen wird, um seinen rechenbedarf zu decken. dieser bericht kann auch erklären, warum sora nicht der öffentlichkeit zugänglich gemacht wurde.

die aktuelle rechenleistung von openai stammt hauptsächlich von microsoft oder profitiert von der investition von microsoft. im jahr 2020 baute microsoft einen supercomputer mit 10.000 grafikkarten, um die arbeit von openai zu unterstützen. dies war damals einer der fünf schnellsten supercomputer der welt.

im märz letzten jahres gab microsoft neue fortschritte bei der zusammenarbeit mit der openai-infrastruktur bekannt. der ursprüngliche supercomputer mit 10.000 cpus wurde mit zehntausenden a100-chips aufgerüstet, und die systemkosten könnten mehrere hundert millionen dollar „übersteigen“.

die rechenleistung ist der entscheidende knackpunkt, über den ultraman am häufigsten spricht.bereits im mai 2023 saß altman im anhörungsraum des us-kongresses und äußerte bedenken hinsichtlich engpässen bei der rechenleistung.

in diesem jahr war altmans aussage, als er über rechenleistung sprach, großartiger und entschiedener. er glaubte, dass die beiden „währungen“ in zukunft rechenleistung und energie sein werden: „dies (rechenleistung) könnte das wertvollste gut der welt sein.“ wir sollten erhebliche investitionen in die durchführung weiterer berechnungen tätigen.“

im märz schickte ultraman außerdem eine x-nachricht, in der er sich darüber beschwerte, dass nicht genügend nvidia-gpus zur unterstützung der ki-entwicklung vorhanden seien. berichten zufolge erhielt openai danach weitere servernutzungsrechte von microsoft. bis mitte 2025 werden oracle und microsoft openai mit einer jährlichen miete von rund 2,5 milliarden dollar zur verfügung stellen .

laut einem bericht von the information plant microsoft weitere upgrades und plant, bis 2030 mehrere ki-infrastrukturen aufzubauen.

der rechenleistungsplan von microsoft und openai kann in fünf phasen unterteilt werden.die beiden parteien befinden sich derzeit in der dritten phase des plans. die vierte phase ist der supercomputer, den microsoft für openai baut und dessen inbetriebnahme etwa 2026 geplant ist. die wisconsin economic development authority sagte, microsoft habe dort mit dem bau eines 1-milliarden-dollar-rechenzentrums begonnen, und mit der angelegenheit vertraute personen gaben an, dass die endgültigen kosten des rechenzentrums bis zu 10 milliarden dollar betragen könnten.

die fünfte phase ist das aufsehen erregende „stargate“-projekt. der plan wurde im märz dieses jahres von den medien enthüllt: microsoft und openai planen den bau eines supercomputers mit „millionen“ chips, die projektkosten könnten bis zu 100 milliarden us-dollar betragen.

ultraman versuchte nicht nur, mehr rechenressourcen von außen zu erhalten, sondern zog auch persönlich in den kampf, um seine chip-ambitionen voranzutreiben.ultraman ist bestrebt, selbst entwickelte chips zu haben, um die kernkosten zu senken. derzeit sind die high-end-ki-chips von nvidia nicht nur teuer, sondern auch ressourcenarm.

anfang dieses jahres kam die nachricht heraus, dass ultraman ein 7-billionen-chip-imperium aufbauen wollte, doch das sei zu ehrgeizig und weit hergeholt. verschiedenen berichten zufolge war ultraman im vergangenen jahr in chipfragen sehr aktiv und verhandelte aktiv mit allen parteien.

einerseits handelt es sich um forschung und entwicklung von chips. im juli wurde berichtet, dass openai ein internes chip-team unter der leitung von richard ho, dem ehemaligen senior president für tpu engineering bei google, aufbaut. broadcom, das bei der herstellung von tpu mit google zusammengearbeitet hat, hat bereits mit dem openai-chip-team kommuniziert. darüber hinaus bewerben auch die konkurrenten von broadcom ihre dienste für openai.

auf der anderen seite steht die herstellung von chips. altman soll mit führungskräften großer chiphersteller und -lieferanten, darunter tsmc, verhandeln, um die produktionskapazität zu erhöhen und mehr nvidia-chips oder sogar neue openai-chips zu produzieren. darüber hinaus stand ultraman möglicherweise anfang des jahres in kontakt mit den speicherchipherstellern samsung und sk hynix.

und ultramans erster schritt scheint bald zu kommen. kürzlich berichtete taiwan economic daily, dass openai den einsatz des a16-chips von tsmc in sora bestellt hat.der a16-chip ist der fortschrittlichste prozessknoten, den tsmc bisher vorgestellt hat. er ist auch der erste schritt für tsmc, in das angström-system einzusteigen. er wird voraussichtlich in der zweiten hälfte des jahres 2026 in serie hergestellt. neben openai ist auch apple einer der ersten kunden von a16.

der rechenleistungswettbewerb zwischen musk und ultraman ist bereits in vollem gange, aber der ausbau der rechenleistung erfordert mehr als nur geld. sie haben jeweils ihren eigenen „fluch des vorteils“.

musk hat viele unternehmen in seinen händen, die ihm einen vorteil verschaffen, darunter vor allem x und tesla, die mit xai zu tun haben. x kann xai daten und benutzer bereitstellen, während tesla „nützlicher“ ist. es sendet nicht nur mindestens 11 mitglieder an xai, sondern stellt möglicherweise auch direkt gpus für xai bereit. darüber hinaus sagte musk, dass die große menge an visuellen daten, die tesla sammelt, von xai zum trainieren großer modelle verwendet werden kann. im juli dieses jahres veröffentlichte musk sogar eine umfrage zu x, in der er die fans fragte, ob sie damit einverstanden seien, dass tesla 5 milliarden us-dollar in xai investiert.

aber „links und rechts“ bringt musk bequemlichkeit, bringt aber auch ärger mit sich.

tesla ist noch nicht auf dem höhepunkt, im gegenteil, die verkäufe von elektrofahrzeugen sind schwach und das neue flaggschiff-limousinenmodell hat sich verzögert. teslas investoren reagierten heftig auf teslas „bluttransfusion“ für xai, mit anhaltendem widerstand und sogar mehreren klagen.

die kontroverse zwang musk, der schon immer ein harter kerl war, sich zu melden, um die tesla-aktionäre zu besänftigen. nachdem bekannt wurde, dass musk nvidia bei der lieferung von chips an xai vorrang eingeräumt hatte, erklärte er, dass tesla keinen platz habe, um mit den chips zu beginnen, und betonte, dass teslas südliches gigatexas-erweiterungsprojekt abgeschlossen sein würde. er gab auch bekannt, dass tesla dafür 3 milliarden ausgeben würde jahr. 4 milliarden us-dollar für den kauf von nvidia-chips.

andererseits ist ein weiterer großer vorteil, den musk xai zum erfolg verholfen hat, die „unabhängigkeit“. durch die nicht-„zusammenarbeit“ mit technologiegiganten besetzen musk und xai einen hohen stellenwert in der öffentlichen meinung. dies hilft ihm auch, investitionen anzuziehen und zu einer kraft zu werden, die die giganten kontrolliert und ins gleichgewicht bringt.

das bedeutet aber auch, dass musk keine „geldgeber“ in start-up-unternehmen wie openai, anthropic und inflection haben wird, die alle auf einmal von giganten mit großen geldsummen versorgt wurden. der weg zur erweiterung der rechenleistung ist mit gold gepflastert und die kosten für nur 100.000 nvidia h100 belaufen sich auf etwa 2,5 milliarden us-dollar (es sei denn, nvidia bietet mengenrabatte an).

einer der vorteile von openai besteht darin, dass es von microsoft unterstützt wird, das in den zwei jahren, seit das unternehmen mit chatgpt ins rampenlicht gerückt ist, sein wichtigster unterstützer war.

aber es gibt eine subtile peinlichkeit in der engen beziehung zwischen openai und microsoft, die bereits ein offenes geheimnis ist.

der direkteste widerspruch besteht darin, dass openai und microsoft beide partner sind und miteinander konkurrieren. mit anderen worten: microsoft-produkte wie copilot und new bing, die tief in das openai-modell eingebettet sind, müssen mit openai selbst um kunden konkurrieren. zuvor flog altman nach san francisco, new york, london und an andere orte, um persönlich vor hunderten von führungskräften von fortune-500-unternehmen vorträge zu halten und die produkte und dienstleistungen von openai auf unternehmensebene zu bewerben.

erst am 5. september gab openai außerdem mit großer aufmerksamkeit bekannt, dass die vor einem jahr gestartete unternehmensversion des chatgpt-abonnementdienstes inzwischen mehr als 1 million zahlende benutzer hat.

auf strategischer ebene hat microsoft bereits anpassungen vorgenommen. zuvor hatte microsoft heimlich inflection ai übernommen, fast alle seine talente übernommen und ein internes ki-team „microsoft ai“ gegründet, um mit anderen giganten mithalten zu können. im mai berichtete the information, dass microsoft im begriff sei, ein neues ki-modell mit dem internen codenamen mai-1 und 50 milliarden parametern auf den markt zu bringen.

ich frage mich: wenn microsoft über ein eigenes „natürliches“ großmodell verfügt und dessen leistung hoch ist, welchen grund gibt es dann, openai nicht zu ersetzen?

darüber hinaus hat die besondere governance-struktur von openai eine gewaltige zeitbombe in der zusammenarbeit zwischen den beiden parteien platziert: gemäß der vereinbarung endet die autorisierung von openai gegenüber microsoft mit der einführung von agi.

es ist bestrebt, geld und rechenleistung bereitzustellen, um openai zu fördern, um agi zu erreichen, aber es wirbt auch für sich selbst, um openai zu verlieren. dies ist ein paradoxon, mit dem microsoft konfrontiert ist.

die supercomputing-cluster, die microsoft und openai bereits aufbauen oder bauen wollen, sind mit enormen finanziellen investitionen verbunden. nehmen wir als beispiel das „stargate-projekt“. die projektkosten belaufen sich auf 100 milliarden us-dollar. das ist selbst für microsoft ein unerschwinglicher betrag. die investitionsausgaben von microsoft für das geschäftsjahr 2024 (ende 30. juni) belaufen sich auf 55,7 milliarden us-dollar.

auf dem weg zur erweiterung der rechenleistung muss openai entweder seine beziehung zu microsoft „abschließen“ oder so schnell wie möglich einen ausweg für sich selbst finden. andernfalls erwartet openai eine situation von „. erfolg und misserfolg“.

schließlich gibt es im rechenleistungswettbewerb zwischen musk und ultraman ein weiteres hindernis namens „energie“.

die information schätzt, dass gpus mehr strom benötigen als herkömmliche chips, wobei ein cluster von 100.000 chips möglicherweise 100 megawatt dedizierte leistung benötigt. das ist das zehnfache des stromverbrauchs herkömmlicher rechenzentren und kann 70.000 bis 100.000 haushalte mit strom versorgen.

die echtheit von musks supergroßem cluster colossus, der „bereits online“ ist, wurde daher in frage gestellt. der energieversorger sagte, dass xai bis august etwa 50 megawatt strom beziehen könne. ein im bau befindliches kraftwerk könne weitere 150 megawatt strom liefern, die realisierung werde aber erst 2025 erfolgen.

es gab auch spekulationen darüber, dass musk den energieversorger aufgibt und versucht, den cluster mit generatoren für fossile brennstoffe zu betreiben, was zu einer beschwerde einer umweltgruppe in memphis, tennessee, führte.

dies ist nicht nur ein problem für xai und openai. laut statistiken von the infomation sind in den usa derzeit 17 supercomputing-zentren in sieben bundesstaaten in betrieb oder im bau (ausgenommen projekte wie das „stargate-projekt“, deren realisierung fraglich ist). das energieministerium wird folgendes tun: wenn es zu viel ist, ist möglicherweise nicht genügend strom vorhanden.

es scheint, als wäre es erst gestern gewesen, als sich musk und altman verbal gestritten hätten, aber jetzt geraten sie in einen vorsichtigen nahkampf. die ausweitung der rechenleistung vollzieht sich oft in einer großen erzählung, bei der investitionen in milliarden- oder sogar zehnmilliarden-dollar-größen getätigt werden, um mauern aus zehntausenden oder sogar hunderttausenden chips zu errichten. aber auf dem weg dorthin müssen sie beide noch viele hürden überwinden.