nachricht

der preiskampf bei großen modellen hat zu einem negativen rohertrag geführt

2024-09-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


der inländische wettbewerb um die eliminierung großer modelle beschleunigt sich. diese ausscheidungsrunde wird ein oder zwei jahre dauern, und nur wenige grundlegende modellunternehmen mit wirklicher stärke können weiterhin überleben.

artikel |. wu junyu, sonderautor von „finance“

herausgeber |. xie lilong

der preiskampf um große modelle auf dem chinesischen markt dauert seit fast einem halben jahr an. dieser preiskampf hat zu negativen bruttogewinnen geführt und zeigt vorerst keine anzeichen für ein ende. führende cloud-anbieter planen immer noch eine neue runde von preissenkungen. diese preissenkungsrunde wird ende september dieses jahres umgesetzt.

im mai dieses jahres begannen chinesische cloud-anbieter einen preiskampf um die rechenleistung großer modellinferenzen. die cloud-dienste volcano engine, alibaba cloud, baidu smart cloud und tencent cloud von bytedance haben den preis für die rechenleistung großer modellinferenzen sukzessive um mehr als 90 % gesenkt.

um ein großes modell zu verwenden, müssen sie die eingabeaufforderungssprache eingeben und die inhaltsausgabe durch argumentation erhalten. dieser prozess ruft eine api (application programming interface, genau wie ein wasser- und stromschalter) auf und zahlt entsprechend der anzahl der verbrauchten token (token ist eine texteinheit eines großen modells, ein token kann ein wort, ein satzzeichen, eine zahl usw. sein). symbol usw.). es ist, als würde man eine nutzungsgebühr für wasser und strom zahlen.

nach der preissenkung steigt der verbrauch an inferenzrechenleistung tatsächlich rapide an. im august dieses jahres ergab die telefonkonferenz zu den ergebnissen des zweiten quartals, dass die durchschnittlichen täglichen api-aufrufe von baidu wenxin big model im mai 200 millionen betrugen, was im august auf 600 millionen anstieg, und dass der durchschnittliche tägliche token-verbrauch im mai 250 milliarden betrug august es ist auf 1 billion angewachsen. bytedance gab im august dieses jahres bekannt, dass die durchschnittliche tägliche token-nutzung des bytedance doubao-modells im juli 500 milliarden überstieg. im vergleich zum mai stieg die durchschnittliche tägliche token-nutzung pro unternehmen um das 22-fache.

die token-preise fielen um mehr als 90 %. dies wird kurzfristig die inferenzeinnahmen der cloud-anbieter verringern. cloud-anbieter hoffen jedoch, mit dieser methode die trial-and-error-schwelle für unternehmenskunden zu senken, was zu einem mehr als zehnfach exponentiellen rechenleistungsverbrauch führt und letztendlich ein langfristiges umsatzwachstum zu erzielen.

der preiskampf um inferenz-rechenleistung auf dem heimischen großmodellmarkt dauert derzeit drei grundlegende fakten:

erstens hat der vermutete preiskampf bei der rechenleistung bereits zu negativen bruttogewinnen geführt. kürzlich haben uns die leiter vieler cloud-anbieter, darunter alibaba cloud und baidu smart cloud, mitgeteilt, dass die bruttogewinnmarge der inländischen modellinferenz-rechenleistung im großen maßstab vor mai dieses jahres mehr als 60 % betrug, was im grunde gleich war das der internationalen kollegen. nachdem große hersteller im mai dieses jahres sukzessive die preise gesenkt hatten, sank die bruttogewinnspanne der inferenz-rechenleistung in den negativen bereich.

zweitens beträgt der preis inländischer modelle im vergleich zu openai-modellen mit denselben spezifikationen im allgemeinen nur 20–50 %. die bruttogewinnspanne inländischer großmodelle ist viel geringer als die von openai. in einem forschungsbericht von futuresearch, einer internationalen marktforschungsorganisation, vom august dieses jahres heißt es, dass die bruttogewinnmarge des flaggschiffmodells der gpt-4-serie von openai etwa 75 % und die bruttogewinnmarge des hauptmodells der gpt-4o-serie etwa 75 % beträgt 55 %. die gesamtbruttogewinnmarge von openai liegt bei mindestens über 40 %.

drittens sind unzureichende modellfähigkeiten eine wichtige ursache für preiskämpfe. ein zentraler verantwortlicher für das große modellgeschäft eines cloud-anbieters ist der ansicht, dass derzeit eine lücke zwischen den fähigkeiten inländischer flaggschiffmodelle und den flaggschiffmodellen der gpt-4-serie von openai besteht, sodass kunden durch preissenkungen dazu ermutigt werden sollten, fehler zu machen . da die modellpreise weiter sinken, ist der preis für unternehmenskunden nicht mehr das hauptanliegen. die möglichkeiten und wirkungen des modells stehen für firmenkunden im vordergrund.

es muss ein preiskampf geführt werden

wir haben die von alibaba cloud, volcano engine, baidu smart cloud, tencent cloud und der offiziellen website von openai angekündigten großen modellinferenzpreise überprüft. im vergleich zu openai-modellen derselben spezifikation beträgt der preis inländischer modelle im allgemeinen nur 20 bis 50 %.

nehmen sie als beispiele alibabas tongyi qianwen-max, baidus ernie-4.0-8k und tencents hunyuan-pro. die ausgabepreise der drei modelle pro million token betragen 120 yuan, 120 yuan bzw. 100 yuan. der ausgabepreis ihres benchmark-openai-flaggschiffmodells gpt-4-turbo beträgt 210 yuan pro million token (der auf der offiziellen website von openai aufgeführte preis beträgt 30 us-dollar, der auf der grundlage des us-dollar- und rmb-wechselkurses 1 umgerechnet wurde: 7). der preis dieser drei großen inländischen modelle beträgt nur etwa 50 % des gpt-4-turbo.

nehmen sie als beispiele alibabas qwen-long, baidus ernie-speed-pro-128k und tencents hunyuan-einbettung. die ausgabepreise der drei modelle pro million token betragen 2 yuan, 0,8 yuan bzw. 5 yuan. der ausgabepreis des günstigen modells openai gpt-4o-mini million tokens von openai beträgt 4,2 yuan (der auf der offiziellen website von openai angegebene preis beträgt 0,6 us-dollar, der auf der grundlage des wechselkurses von us-dollar und rmb 1:7 umgerechnet wurde ). die einstiegsmodelle von alibaba und baidu kosten nur 48 % bzw. 19 % des preises des einstiegsmodells von openai.

der preiskampf bei großen modellen hat zu negativen bruttomargen geführt, was verschiedene cloud-anbieter jedoch nicht davon abgehalten hat, die preise weiter zu senken.

die nachricht, die wir erhalten haben, ist, dass führende cloud-anbieter wie alibaba cloud immer noch eine neue runde von preissenkungen planen. diese preissenkungsrunde wird ende september dieses jahres umgesetzt. im mittelpunkt dieser preissenkungsrunde stehen leistungsstarke flaggschiffmodelle.

der kernverantwortliche für das großmodellgeschäft der oben genannten cloud-anbieter ist der ansicht, dass es derzeit kaum spielraum für preissenkungen bei günstigen kleinmodellen gibt und die letzte preissenkungsrunde auf das „psychologische endergebnis“ gesunken ist. von firmenkunden. der nächste schritt, auf den man sich konzentrieren sollte, ist, ob jedes flaggschiffmodell weiterhin die preise senken wird. das flaggschiffmodell wird zudem weiter unterteilt in kostengünstige versionen, die die meisten probleme lösen können, sowie hochwertige, hochpreisige versionen, die extrem schwierige probleme lösen.

die rechenleistung großer modellinferenzen hat einen negativen bruttogewinn erreicht. warum also die preise weiter senken?

große cloud-hersteller blicken auf den langfristigen markttrend – die rechenleistungsstruktur des cloud computing unterliegt drastischen veränderungen. um mehr inferenz-rechenleistung zu erobern, müssen mehr inkrementelle märkte erschlossen werden. die internationale marktforschungsorganisation idc prognostiziert, dass chinas allgemeine rechenleistung von 2022 bis 2027 eine durchschnittliche jährliche wachstumsrate von 16,6 % aufweisen wird, und die intelligente rechenleistung wird eine durchschnittliche jährliche wachstumsrate von 33,9 % aufweisen. von 2022 bis 2027 wird innerhalb der intelligenten rechenleistung der anteil der inferenz-rechenleistung auf 72,6 % steigen und der anteil der trainings-rechenleistung auf 27,4 % sinken.

cloud-anbieter sind bereit, für erwartetes langfristiges wachstum auf kurzfristige einnahmen zu verzichten. kurzfristig bringt inferenz-rechenleistung keine großen einnahmen. ein techniker eines chinesischen cloud-anbieters erklärte, dass der modellumsatz jedes unternehmens im jahr 2024 1 milliarde yuan nicht überschreiten wird, was in einem markt mit umsätzen in zweistelliger milliardenhöhe pro jahr begrenzt ist. cloud-anbieter sind bereit, kurzfristige umsatzeinbußen und geschäftseinbußen in den nächsten ein bis zwei jahren hinzunehmen. alle wetten, dass die zahl der großen modellaufrufe in den nächsten ein bis zwei jahren mindestens um das zehnfache ansteigen wird. letztendlich kann ein langfristiges umsatzwachstum kurzfristige umsatzverluste ausgleichen.

er erklärte weiter, dass in diesem prozess die kosten für rechenleistung mit zunehmender kundennachfrage schrittweise verwässert werden. das große modelgeschäft hat noch die chance, irgendwann positive gewinne zu erzielen. selbst wenn die wette nicht wahr wird, wird eine gruppe von modellherstellern im preiskampf sterben und die überlebenden hersteller werden die scherben aufsammeln.

verschiedene cloud-anbieter haben bei preiskämpfen auch unterschiedliche wettbewerbsüberlegungen – volcano engine, alibaba cloud und baidu smart cloud nehmen alle an einem preiskampf teil, den es auszufechten gilt.

volcano engine gehört derzeit nicht zu den top 5 im chinesischen markt für öffentliche clouds, aber sein umsatz wird im jahr 2023 um mehr als 150 % wachsen. große modelle sind für das unternehmen eine wichtige chance, im cloud-markt aufzuholen. tan dai, präsident von volcano engine, erwähnte uns im mai dieses jahres, dass er im märz dieses jahres im silicon valley entdeckte, dass das unternehmertum bei ki-anwendungen in den vereinigten staaten den trend der frühphase von chinas mobilem internet von 2012 bis 2014 aufzeige. „ein kleines startup-team für ki-anwendungen erzielte schnell umsatz und finanzierung. der chinesische markt könnte diesen trend in zukunft zeigen. die voraussetzung ist jedoch, dass der preis für schlussfolgerungen gesenkt und die schwelle für versuch und irrtum gesenkt werden muss.“

alibaba cloud steht auf dem chinesischen markt für öffentliche clouds an erster stelle. angesichts der preissenkungen der wettbewerber muss alibaba cloud nachziehen. liu weiguang, general manager der public cloud-abteilung von alibaba cloud, analysierte uns im juni dieses jahres, dass alibaba cloud mehrere runden interner schlussfolgerungen und berechnungen durchlaufen hat, und stellte zwei widersprüche fest:

  • erstens wird nach der preissenkung das bestehende einkommen sinken und das zusätzliche einkommen steigen. im idealfall kann der zusätzliche umsatz den bestehenden umsatz decken.

  • zweitens geht es darum, wie reagiert werden soll, wenn wettbewerber die preise aggressiver senken. die endgültige schlussfolgerung ist, dass größe heute wichtiger ist als gewinne. alibaba cloud möchte mit großen modellen die cloud-computing-durchdringung in der gesamten branche erhöhen.

baidu intelligent cloud betrachtet ki als seine kernstrategie. ein technischer direktor für große modelle bei baidu sagte uns im juli dieses jahres unverblümt, dass große modelle ein kampf seien, den man unbedingt gewinnen müsse und der preiskampf um jeden preis geführt werden müsse. diese strategie hat echte ergebnisse erzielt. die umsatzwachstumsrate von baidu smart cloud ist im zweiten quartal 2024 wieder auf 14 % gestiegen, den höchsten wert seit zwei jahren. das baidu-management gab in der gewinnmitteilung für das zweite quartal 2024 bekannt, dass der umsatzanteil der großen modelle von baidu intelligent cloud von 4,8 % im vierten quartal 2023 auf 9 % im zweiten quartal 2024 gestiegen ist.

ein ki-strategieplaner von chinas führendem technologieunternehmen analysierte, dass die volcano engine von bytedance unterstützt wird und das werbegeschäft der muttergesellschaft eine bluttransfusion sein könnte. volcano engine gehört nicht zu den top 5 im cloud-markt und hofft, durch preiskämpfe weitere marktanteile zu erobern. alibaba cloud basiert hauptsächlich auf den vier hauptkomponenten der öffentlichen cloud (computing, speicher, netzwerk, datenbank). das niedrigpreismodell wird den geschäftsdatenverbrauch der kunden fördern und so den verkauf der oben genannten basis-cloud-produkte vorantreiben. große modelle sind die kernstrategie von baidu. baidu war der erste, der ein großes modellgeschäft in china einführte. wenn andere wettbewerber beschließen, einen preiskampf zu beginnen, muss baidu diesem beispiel folgen.

der preis ist nicht der entscheidende faktor

die kehrseite von preiskämpfen bei großen modellen und negativen bruttomargen ist, dass der niedrige preis nicht der hauptfaktor dafür ist, ob unternehmenskunden große modelle verwenden.

der kernverantwortliche für das große modellgeschäft der oben genannten cloud-anbieter ist der ansicht, dass sich cloud-anbieter nicht auf eine langfristige geldverbrennung und verluste verlassen können, um die umsetzung der großen modellbranche voranzutreiben. ein modell mit geringer leistung und niedrigem preis macht wenig sinn. unzureichende modellfähigkeiten sind ein wichtiger grund für negative preiskämpfe. da die preise für inländische modellgespräche deutlich gesunken sind, ist der preis für firmenkunden nicht mehr der wichtigste faktor. die möglichkeiten und wirkungen des modells stehen für firmenkunden im vordergrund.

ein it-direktor einer versicherungsgesellschaft stimmte zu. er sagte unverblümt, dass der aktuelle anteil der it-ausgaben in der finanz- und versicherungsbranche am unternehmensumsatz etwa 3 bis 5 % beträgt. ohne 80 % der hardware-it-ausgaben werden nur 20 % der it-ausgaben tatsächlich für die digitale transformation verwendet. beim einsatz einer neuen technologie wie großen modellen muss das input-output-verhältnis berechnet werden. neben den expliziten modellkosten müssen auch implizite kosten berücksichtigt werden – große modelle müssen mit bestehenden it-systemen kompatibel sein, data governance ist erforderlich, um geschäftsdaten für große modelle aufzubereiten, und es muss eine gruppe von produktmanagern rekrutiert werden, die sich mit ki auskennen. dabei geht es ihm vor allem um modellfähigkeiten und praktische auswirkungen.

das center for research on fundamental models (crfm) der stanford university führt langfristige globale rankings zum testen großer modelle durch. das ranking der groß angelegten mmlu-tests (multi-task language understanding) vom 17. september zeigt, dass zu den zehn größten modellherstellern die claude 3.5-serie des ki-startups anthropic (investiert von amazon), die llama3.1-serie von meta und gehören openai (gpt-4-serie im besitz von microsoft investment) und gemini 1.5-serie im besitz von google. derzeit ist unter den chinesischen großmodellen nur tongyi qianwen 2 instruct (72b) im besitz von alibaba unter den top ten.

das technische personal vieler chinesischer cloud-anbieter für große modelle äußerte gegenüber caijing die gleiche ansicht: auf dem markt für große modelle sei die strategie der geringen leistung und des niedrigen preises nicht nachhaltig. die ideale situation besteht darin, einen gesunden und dauerhaften geschäftskreislauf aufzubauen, der auf hoher leistung und angemessenen preisen basiert.

ein wertvollerer benchmark ist openai. im september dieses jahres hat openai 1 milliarde monatlich aktive benutzer und 11 millionen zahlende benutzer (einschließlich 10 millionen zahlender einzelabonnenten und 1 million unternehmensabonnenten). im mai dieses jahres gab das openai-management bekannt, dass der jahresumsatz des unternehmens (der jahresumsatz ist der umsatz des aktuellen monats × 12. abonnementbasierte softwareunternehmen erhalten jeden monat eine verlängerung des benutzerabonnements und haben stabile umsatzerwartungen, daher verwenden sie häufig das kaliber des jahresumsatzes) erreicht 3,4 milliarden us-dollar (umgerechnet auf der grundlage des wechselkurses von us-dollar und rmb von 1:7, etwa 24,1 milliarden yuan).

der neueste forschungsbericht von futuresearch, einer internationalen marktforschungsorganisation, berechnet die umsatzstruktur des unternehmens auf der grundlage des von openai bekannt gegebenen jahresumsatzes und der bezahlten nutzerstruktur: 10 millionen einzelabonnenten brachten einen umsatz von 1,9 milliarden us-dollar, was 56 % entspricht; unternehmen brachten 710 millionen us-dollar umsatz ein, was einem anteil von 21 % entspricht; api-aufrufe brachten einen umsatz von 510 millionen us-dollar ein, was einem anteil von 15 % entspricht.

selbst nach mehreren preissenkungsrunden kann openai immer noch eine relativ gesunde bruttogewinnspanne aufrechterhalten. im april dieses jahres wurde der ausgabepreis des flaggschiffmodells gpt-4-turbo von openai um 67 % gesenkt. im august dieses jahres wurde der verkaufspreis des openai-hauptmodells gpt-4o um 30 % gesenkt. in einem im august dieses jahres von futuresearch veröffentlichten forschungsbericht heißt es, dass die bruttogewinnmarge des flaggschiffmodells der gpt-4-serie von openai etwa 75 % und die bruttogewinnmarge des hauptmodells der gpt-4o-serie etwa 55 % beträgt. die gesamtbruttogewinnspanne von openai beträgt mindestens 40 %.

openai verfügt über ein einzigartiges wachstumsumfeld. es verfügt nicht nur über eine ausreichende rechenleistung, sondern verfügt auch über eine große anzahl von to-c-benutzern (für privatkunden) und befindet sich außerdem auf dem weltweit größten markt für to-b-software (für unternehmenskunden).

die erfolgreiche erfahrung von openai in den letzten zwei jahren besteht darin, dass es auf große rechenleistung angewiesen ist, um „mit roher gewalt wunder zu schaffen“. chinesischen unternehmen fehlen die voraussetzungen für die rechenleistung und die finanzierungsumgebung wie bei openai. rechenleistung ist ein wesentliches manko chinesischer modellhersteller.

ein modelltechniker eines chinesischen cloud-anbieters erklärte, dass chinesische cloud-anbieter im vergangenen jahr mehr als das 1,5-fache der anschaffungskosten für die ki-chips von nvidia gezahlt hätten, wodurch die kosten für die modellrechenleistung hoch blieben. dies wirkt sich auf die leistungsobergrenze großer modelle aus und behindert auch die industrielle umsetzung großer modelle. nach angaben eines serverhändlers überstiegen im jahr 2023 achtkartenserver, die mit ki-chips der nvidia h100/h800-serie ausgestattet waren, auf dem chinesischen markt einmal 3 millionen yuan/einheit, was mehr als dem 1,5-fachen des offiziellen preises von nvidia entspricht.

wie können chinesische unternehmen einen für sie passenden entwicklungspfad finden, wenn die rechenressourcen begrenzt und die rechenkosten hoch sind? dies erfordert eine sorgfältige planung und anpassung.

in den letzten zwei jahren folgte die entwicklung großer modelle dem skalierungsgesetz (dem von openai im jahr 2020 vorgeschlagenen gesetz, wörtlich übersetzt als „skalierungsgesetz“) – die modellleistung hängt hauptsächlich mit dem rechenumfang, der menge der modellparameter usw. zusammen die menge der trainingsdaten.

der hauptverantwortliche für das große modellgeschäft der oben genannten cloud-anbieter erwähnte, dass das kernprinzip darin besteht, die datenqualität und -quantität unter den einschränkungen des skalierungsgesetzes zu verbessern und die modellparameter moe (mixture of experts), ein modell, angemessen zu reduzieren die designstrategie kann auch zum mischen mehrerer modelle verwendet werden (ein professionelles modell für eine bessere leistung). die architektur verbessert die modellleistung und reduziert die inferenzkosten. bei der umsetzung spezifischer geschäftsstrategien gibt es zwei möglichkeiten.

  • verbessern sie zunächst die modellleistung und reduzieren sie die modellgröße, indem sie die datenqualität/-quantität erhöhen und algorithmen und architektur optimieren. dies kann den rechenleistungsverbrauch effektiv reduzieren, die hauptanwendungseffekte verbessern und sich an die allgemeine marktnachfrage anpassen.

  • zweitens: verabschiedung einer präziseren und segmentierteren modellproduktstrategie. anstatt sich auf ein paar modelle zu verlassen, um alle probleme zu lösen, lassen sie unterschiedliche modelle unterschiedliche probleme lösen. lassen sie beispielsweise das kostengünstige modell den wirtschaftsmarkt erreichen und das hochwertige modell den high-end-markt erreichen.

die drei modelle von openai in diesem jahr, gpt-4, gpt-4turbo und gpt-4o, haben sich entlang dieser denkweise weiterentwickelt. die modellparameter von gpt-4o sind kleiner als die von gpt-4, können jedoch die meisten alltäglichen probleme genau lösen. gpt-4 turbo wird verwendet, um schwierigere probleme zu lösen. die neueste o1-vorschau von openai weist die stärkste leistung auf. sie wurde einem verstärkten lernen unterzogen und ist nicht einmal mehr ein einzelnes modell. sie denkt wiederholt nach, bevor sie die antwort ausgibt, um die fähigkeiten des modells zu verbessern. die ausgabepreise für eine million token für diese drei modelle betragen 70 yuan, 210 yuan bzw. 420 yuan (die auf der offiziellen openai-website aufgeführten preise betragen 10 us-dollar, 30 us-dollar und 60 us-dollar, die basierend auf der umrechnung ermittelt wurden). auf den us-dollar- und rmb-wechselkurs 1:7).

knockout-beschleunigung

der preiskampf mit negativem rohertrag beschleunigt den wegfall des großen modellmarktes. viele brancheninsider äußerten gegenüber caijing die gleiche ansicht. diese ausscheidungsrunde wird ein oder zwei jahre dauern, und nur drei bis fünf grundlegende modellunternehmen können weiterhin überleben.

an xiaopeng, geschäftsführendes mitglied des china informatization committee of 100 und direktor des alibaba cloud intelligent technology research center, sagte caijing im juli dieses jahres, dass große modelle kontinuierliche investitionen, die fähigkeit, 10.000 oder sogar 100.000 karten zu haben, und kommerzielle erträge erfordern. viele unternehmen verfügen nicht über solche fähigkeiten. künftig wird es auf dem chinesischen markt nur noch drei bis fünf basismodellhersteller geben.

die entwicklung großer modelle erfordert den kauf von chips und servern sowie die anmietung von grundstücken für den bau von rechenzentren. diese investition kann sogar mehrere zehn milliarden yuan pro jahr erreichen. diese kosten werden sich in den kapitalausgaben der technologieunternehmen widerspiegeln. die gewinnmitteilung von microsoft für das vierte quartal 2024 ergab, dass fast die gesamten 19 milliarden us-dollar an investitionsausgaben in diesem monat für rechenleistung ausgegeben wurden. im vergangenen jahr (vom dritten quartal 2023 bis zum zweiten quartal 2024) erreichten die investitionsausgaben von alibaba, tencent und baidu 23,2 milliarden yuan, 23,1 milliarden yuan bzw. 11,3 milliarden yuan, was einem anstieg von 77,1 % entspricht. 154,1 % bzw. 46,9 % sind das ergebnis von investitionen in rechenleistung.

zusätzlich zu den kontinuierlichen investitionen in rechenleistung in zweistelliger milliardenhöhe erfordert das große modellinferenzgeschäft auch subventionen in höhe von einer milliarde yuan pro jahr. eine führungskraft eines chinesischen cloud-anbieters analysierte, dass eine negative bruttogewinnmarge bei großen modellaufrufen bedeutet, dass die verluste umso größer ausfallen, je mehr aufrufe kurzfristig getätigt werden. entsprechend dem aktuellen verbrauch von inferenz-rechenleistung werden mehrere führende cloud-anbieter, die am preiskampf teilnehmen, den verbrauch von inferenz-rechenleistung für große modelle im jahr 2024 um mehr als eine milliarde yuan subventionieren.

alibaba cloud, volcano engine, baidu smart cloud und tencent cloud können sich bei der bekämpfung von preiskämpfen auf das große modell der gruppe verlassen, aber für große modell-startups ist es schwierig, durchzuhalten. die oben genannten ki-strategieplaner von chinas führenden technologieunternehmen glauben, dass alibaba cloud und volcano engine in dieser runde des preiskampfs das stärkste blut haben. alibaba kann mit der cloud geld verdienen und volcano engine hat das werbegeschäft von bytedance als bluttransfusion. im preiskampf ist baidu nicht so gut wie alibaba und bytedance. das große wenxin-modell von baidu verfügt jedoch über eine starke technologie und wird eine gruppe von kunden haben, die bereit sind, für die technologie zu zahlen. dies wird baidu helfen, den preiskampf zu überstehen.

große modell-startups sind auf große hersteller und finanzierung angewiesen, um kurzfristig zu überleben. ein techniker eines großen modell-start-up-unternehmens teilte caijing im september dieses jahres mit, dass zhipu ai, baichuan intelligence, dark side of the moon, zero one thing und minimax, die „fünf kleinen tiger“ der inländischen großmodelle, alle investiert seien von alibaba. eine der investitionsmethoden besteht darin, dass der investitionsbetrag in form von rechenleistung ausgezahlt wird und das investierte unternehmen die rechenleistung von alibaba cloud nutzt. ob die „five little tigers“ weiterhin überleben können, hängt in gewissem maße davon ab, ob ali weiterhin investieren wird.

das technische personal der oben genannten führenden cloud-anbieter und das technische personal der oben genannten großmodell-startup-unternehmen glauben ebenfalls, dass es für großmodell-startups auf dem chinesischen markt in den nächsten zwei jahren schwierig sein wird um auf dem basismodellmarkt durchzubrechen, gibt es in zukunft möglicherweise drei auswege: um ein unternehmen für die entwicklung von regierungs- und unternehmensprojektmodellen zu werden, müssen sie sich entweder dem vertikalen branchenmodell von to b oder dem anwendungsmarkt von to zuwenden c. tatsächlich hat die marktdifferenzierung bereits begonnen. zhipu ai gewinnt zahlreiche ausschreibungen für regierungs- und unternehmensprojekte, während sich dark side of the moon nur auf den to-c-markt konzentriert.

herausgeber |. qin lixin