nouvelles

la guerre des prix pour les grands modèles a entraîné une marge brute négative

2024-09-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


la concurrence nationale pour l'élimination des grands modèles s'accélère. ce cycle d'élimination durera un ou deux ans, et seules quelques entreprises modèles de base dotées d'une réelle force pourront continuer à survivre.

article | wu junyu, rédacteur spécial de « finance »

editeur | xie lilong

la guerre des prix pour les grands modèles sur le marché chinois dure depuis près de six mois. cette guerre des prix a généré des bénéfices bruts négatifs et ne montre pour l’instant aucun signe de fin. les principaux fournisseurs de cloud prévoient toujours une nouvelle série de baisses de prix. cette série de baisses de prix sera mise en œuvre fin septembre de cette année.

en mai de cette année, les fournisseurs de cloud chinois ont lancé une guerre des prix pour la puissance de calcul d'inférence de grands modèles. les services cloud de bytedance volcano engine, alibaba cloud, baidu smart cloud et tencent cloud ont successivement réduit le prix de la puissance de calcul d'inférence de grands modèles de plus de 90 %.

pour utiliser un grand modèle, vous devez saisir le langage d'invite et obtenir le contenu en sortie par raisonnement. ce processus fera appel à une api (application programming interface, tout comme un interrupteur d'eau et d'électricité) et paiera en fonction du nombre de tokens consommés (le token est une unité de texte d'un grand modèle, un token peut être un mot, une ponctuation, un chiffre, symbole, etc.). c’est comme payer des frais d’utilisation de l’eau et de l’électricité.

après la baisse des prix, la consommation de puissance de calcul d'inférence augmente en effet rapidement. en août de cette année, la conférence téléphonique sur les résultats du deuxième trimestre de baidu a révélé que le nombre quotidien moyen d'appels api du baidu wenxin big model en mai était de 200 millions, qui est passé à 600 millions en août, la consommation quotidienne moyenne de jetons en mai était de 250 milliards, et en août ; août il est passé à 1 000 milliards. bytedance a annoncé en août de cette année qu'en juillet, l'utilisation quotidienne moyenne des jetons du modèle bytedance doubao dépassait 500 milliards. par rapport au mois de mai, l’utilisation quotidienne moyenne des jetons par entreprise a été multipliée par 22.

les prix des jetons ont chuté de plus de 90 %. cela réduira les revenus d’inférence des fournisseurs de cloud à court terme. cependant, les fournisseurs de cloud espèrent utiliser cette méthode pour abaisser le seuil d'essais et d'erreurs pour les entreprises clientes, ce qui entraînerait une consommation d'énergie de calcul plus de 10 fois exponentielle et, à terme, réaliserait une croissance des revenus à long terme.

la guerre des prix pour la puissance de calcul d'inférence sur le marché national des grands modèles dure depuis six mois. il y a actuellement trois faits fondamentaux :

premièrement, la guerre des prix de la puissance de calcul qui en découle a déjà atteint des bénéfices bruts négatifs. récemment, les dirigeants de nombreux fournisseurs de cloud, dont alibaba cloud et baidu smart cloud, nous ont révélé qu'avant mai de cette année, la marge bénéficiaire brute de la puissance de calcul d'inférence de modèles nationaux à grande échelle était supérieure à 60 %, ce qui était fondamentalement le même que celui de ses pairs internationaux. après que les grands fabricants ont successivement réduit leurs prix en mai de cette année, la marge bénéficiaire brute de la puissance de calcul d'inférence est tombée à des chiffres négatifs.

deuxièmement, par rapport aux modèles openai présentant les mêmes spécifications, le prix des modèles nationaux n’est généralement que de 20 à 50 %. la marge bénéficiaire brute des grands modèles nationaux est bien inférieure à celle d'openai. un rapport de recherche de futuresearch, une organisation internationale d'études de marché, a déclaré en août de cette année que la marge bénéficiaire brute du modèle phare de la série gpt-4 d'openai est d'environ 75 % et que la marge bénéficiaire brute du modèle principal de la série gpt-4o est d'environ 55%. la marge bénéficiaire brute globale d’openai est d’au moins supérieure à 40 %.

troisièmement, les capacités insuffisantes des modèles sont une cause importante des guerres des prix. un responsable principal de l'activité de modélisation à grande échelle d'un fournisseur de cloud estime qu'il existe actuellement un écart entre les capacités des modèles phares nationaux et les modèles phares de la série gpt-4 d'openai. les clients devraient donc être encouragés à essayer de commettre des erreurs en réduisant les prix. . alors que les prix des modèles continuent de baisser, le prix n’est plus la principale préoccupation des entreprises clientes. les capacités et les effets du modèle sont ce qui intéresse le plus les entreprises clientes.

il faut mener une guerre des prix

nous avons vérifié les prix d'inférence des grands modèles annoncés par alibaba cloud, volcano engine, baidu smart cloud, tencent cloud et le site officiel d'openai. par rapport aux modèles openai de même spécification, le prix des modèles nationaux n'est généralement que de 20 à 50 %.

prenons comme exemples le tongyi qianwen-max d'alibaba, l'ernie-4.0-8k de baidu et le hunyuan-pro de tencent. les prix de sortie des trois modèles par million de jetons sont respectivement de 120 yuans, 120 yuans et 100 yuans. le prix de sortie de leur modèle phare d'openai de référence, le gpt-4-turbo, est de 210 yuans par million de jetons (le prix indiqué sur le site officiel d'openai est de 30 dollars américains, qui a été converti sur la base du taux de change du dollar américain et du rmb 1 : 7). le prix de ces trois grands modèles nationaux ne représente qu'environ 50 % de celui du gpt-4-turbo.

prenons comme exemples le qwen-long d'alibaba, l'ernie-speed-pro-128k de baidu et l'intégration hunyuan de tencent. les prix de sortie des trois modèles par million de jetons sont respectivement de 2 yuans, 0,8 yuans et 5 yuans. le prix de sortie du modèle bon marché d'openai openai gpt-4o-mini million tokens est de 4,2 yuans (le prix indiqué sur le site officiel d'openai est de 0,6 dollar américain, qui a été converti sur la base du taux de change du dollar américain et du rmb 1:7. ). les modèles d’entrée de gamme d’alibaba et baidu ne représentent que 48 % et 19 % du prix du modèle d’entrée de gamme d’openai.

la guerre des prix pour les grands modèles a abouti à des marges brutes négatives, mais cela n'a pas empêché divers fournisseurs de cloud de continuer à baisser leurs prix.

la nouvelle que nous avons reçue est que les principaux fournisseurs de cloud tels qu'alibaba cloud prévoient toujours une nouvelle série de baisses de prix. cette série de baisses de prix sera mise en œuvre fin septembre de cette année. les modèles phares hautes performances sont au centre de cette vague de baisses de prix.

le principal responsable de l'activité des grands modèles des fournisseurs de cloud mentionnés ci-dessus estime qu'il y a actuellement peu de place pour des réductions de prix pour les modèles de petite taille bon marché, et la dernière série de réductions de prix est tombée au « résultat psychologique ». de clients entreprises. la prochaine étape sur laquelle se concentrer est de savoir si chaque modèle phare continuera à baisser les prix. le modèle phare sera également subdivisé en versions économiques capables de résoudre la plupart des problèmes, ainsi qu'en versions de haute qualité et coûteuses qui résolvent des problèmes extrêmement difficiles.

la puissance de calcul de l'inférence de grands modèles a atteint un bénéfice brut négatif, alors pourquoi continuer à réduire les prix ?

les grands fabricants de cloud analysent la tendance du marché à long terme : la structure de la puissance de calcul du cloud computing subit des changements radicaux. exploiter davantage de puissance de calcul d’inférence, c’est s’emparer de marchés plus progressifs. l'organisation internationale d'études de marché idc prédit que la puissance de calcul générale de la chine connaîtra un taux de croissance annuel composé de 16,6 % entre 2022 et 2027, et que la puissance de calcul intelligente aura un taux de croissance annuel composé de 33,9 %. de 2022 à 2027, au sein de la puissance de calcul intelligente, la proportion de puissance de calcul d'inférence passera à 72,6 % et la proportion de puissance de calcul de formation chutera à 27,4 %.

les fournisseurs de cloud sont prêts à renoncer aux revenus à court terme pour une croissance attendue à long terme. à court terme, la puissance de calcul d’inférence ne rapporte pas beaucoup de revenus. un technicien d'un fournisseur chinois de cloud a expliqué que les revenus d'appels modèles de chaque entreprise ne dépasseront pas 1 milliard de yuans en 2024, ce qui est limité dans un marché avec des dizaines de milliards de revenus par an. les fournisseurs de cloud sont prêts à accepter des pertes de revenus et des pertes commerciales à court terme au cours des deux prochaines années. tout le monde parie que le nombre d’appels de grands modèles augmentera de façon exponentielle d’au moins 10 fois au cours des deux prochaines années. en fin de compte, la croissance des revenus à long terme peut compenser les pertes de revenus à court terme.

il a en outre expliqué que dans ce processus, le coût de la puissance de calcul sera progressivement dilué à mesure que la demande des clients augmente. les grandes entreprises de mannequins ont encore la possibilité de réaliser éventuellement des bénéfices positifs. même si le pari ne se réalise pas, un groupe de constructeurs de modèles mourra dans la guerre des prix et les constructeurs survivants ramasseront les morceaux.

les différents fournisseurs de cloud ont également des considérations concurrentielles différentes lorsqu'ils sont confrontés à des guerres de prix : volcano engine, alibaba cloud et baidu smart cloud participent tous à une guerre des prix qui doit être menée.

volcano engine ne figure actuellement pas parmi les cinq premiers sur le marché chinois du cloud public, mais ses revenus augmenteront de plus de 150 % en 2023. les grands modèles constituent pour elle une opportunité importante de rattraper son retard sur le marché du cloud. tan dai, président de volcano engine, nous a mentionné en mai de cette année qu'en mars de cette année, il avait découvert dans la silicon valley que l'entrepreneuriat en matière d'applications d'ia aux états-unis montrait la tendance des premiers stades de l'internet mobile en chine de 2012 à 2014. "une petite équipe de démarrage d'applications d'ia a rapidement généré des revenus et un financement. le marché chinois pourrait montrer cette tendance à l'avenir. mais le principe est que le prix de l'inférence doit être abaissé et le seuil des essais et erreurs doit être abaissé."

alibaba cloud se classe au premier rang sur le marché chinois du cloud public. face aux baisses de prix des concurrents, alibaba cloud doit donner suite. liu weiguang, directeur général de la division public cloud d'alibaba cloud, nous a analysé en juin de cette année qu'alibaba cloud avait procédé à plusieurs séries de déductions et de calculs internes et avait trouvé deux contradictions :

  • premièrement, après la réduction des prix, les revenus existants diminueront et les revenus supplémentaires augmenteront. idéalement, les revenus supplémentaires peuvent couvrir les revenus existants.

  • la seconde est de savoir comment réagir si les pairs réduisent les prix de manière plus agressive. la conclusion ultime est que l’échelle est désormais plus importante que les profits. alibaba cloud souhaite utiliser de grands modèles pour accroître la pénétration du cloud computing dans l'ensemble du secteur.

baidu intelligent cloud considère l'ia comme sa stratégie principale. un directeur technique des grands modèles de baidu nous a dit sans ambages en juillet de cette année que les grands modèles sont une bataille incontournable et que la guerre des prix doit être menée à tout prix. cette stratégie a donné de vrais résultats. le taux de croissance des revenus de baidu smart cloud au deuxième trimestre 2024 a rebondi à 14 %, le point le plus élevé des deux dernières années. la direction de baidu a révélé lors de l'appel aux résultats du deuxième trimestre 2024 que la proportion des revenus des grands modèles de baidu intelligent cloud est passée de 4,8 % au quatrième trimestre 2023 à 9 % au deuxième trimestre 2024.

un planificateur stratégique en ia de la principale entreprise technologique chinoise a analysé que le moteur volcano est soutenu par bytedance et que les activités publicitaires de la société mère peuvent être une transfusion sanguine. volcano engine ne figure pas parmi les cinq premiers sur le marché du cloud et espère conquérir davantage de parts de marché grâce à la guerre des prix. alibaba cloud provient principalement des quatre composants principaux du cloud public (informatique, stockage, réseau, base de données). le modèle à bas prix favorisera la consommation de données commerciales des clients, stimulant ainsi les ventes des produits cloud de base mentionnés ci-dessus. les grands modèles sont au cœur de la stratégie de baidu. baidu a été le premier à déployer une activité de grands modèles en chine. lorsque d'autres concurrents décident de déclencher une guerre des prix, baidu doit emboîter le pas.

le prix n'est pas le facteur décisif

le revers de la médaille des guerres de prix d’inférence de grands modèles et des marges brutes négatives est que le bas prix n’est pas le principal facteur déterminant si les entreprises clientes utilisent de grands modèles.

le principal responsable de l'activité des grands modèles des fournisseurs de cloud susmentionnés estime que les fournisseurs de cloud ne peuvent pas compter sur une dépense d'argent et des pertes à long terme pour promouvoir la mise en œuvre de l'industrie des grands modèles. un modèle peu performant et bon marché n’a pas de sens. les capacités insuffisantes des modèles sont une raison importante des guerres de prix avec des bénéfices bruts négatifs. étant donné que les prix des appels des modèles nationaux ont considérablement baissé, le prix n'est plus le facteur le plus important pour les entreprises clientes. les capacités et les effets du modèle sont ce qui intéresse le plus les entreprises clientes.

un directeur informatique d’une compagnie d’assurance a accepté. il a déclaré sans ambages que la part actuelle des dépenses informatiques dans le secteur de la finance et des assurances dans les revenus de l'entreprise est d'environ 3 à 5 %. en excluant 80 % des dépenses informatiques en matériel, seules 20 % des dépenses informatiques sont réellement utilisées pour la transformation numérique. lors de l’utilisation d’une nouvelle technologie comme les grands modèles, le rapport entrées-sorties doit être calculé. outre les coûts explicites des modèles, les coûts implicites doivent également être pris en compte : les grands modèles doivent être compatibles avec les systèmes informatiques existants, une gouvernance des données est nécessaire pour préparer les données commerciales pour les grands modèles et un groupe de chefs de produit comprenant l'ia doit être recruté. ce qui le préoccupe le plus, ce sont les capacités du modèle et ses effets pratiques.

le centre de recherche sur les modèles fondamentaux (crfm) de l'université de stanford effectue des classements mondiaux de tests sur grands modèles à long terme. le classement des tests de compréhension du langage multitâches à grande échelle (mmlu) du 17 septembre montre que les dix principaux fabricants de modèles incluent la série claude 3.5 de la startup d'ia anthropic (investie par amazon), la série llama3.1 de meta et openai (série gpt-4 appartenant à microsoft investment) et série gemini 1.5 appartenant à google. actuellement, seul le tongyi qianwen 2 instruct (72b) appartenant à alibaba parmi les grands modèles chinois figure dans le top dix.

le personnel technique de nombreux grands modèles de fournisseurs chinois de cloud a exprimé le même point de vue à caijing : sur le marché des grands modèles, la stratégie de faibles performances et de bas prix n'est pas viable. la situation idéale est d’établir une boucle commerciale saine et durable s’appuyant sur des performances élevées et des prix raisonnables.

openai est une référence plus précieuse. en septembre de cette année, openai comptait 1 milliard d'utilisateurs actifs mensuels et 11 millions d'utilisateurs payants (dont 10 millions d'abonnés individuels payants et 1 million d'abonnés entreprises). en mai de cette année, la direction d'openai a annoncé les revenus annualisés de l'entreprise (les revenus annualisés correspondent aux revenus du mois en cours × 12. les éditeurs de logiciels par abonnement reçoivent des renouvellements d'abonnements d'utilisateurs chaque mois et ont des attentes de revenus stables, ils utilisent donc souvent le calibre de revenus annualisés) atteint 3,4 milliards de dollars américains (convertis sur la base du taux de change du dollar américain et du rmb de 1:7, soit environ 24,1 milliards de yuans).

le dernier rapport de recherche de futuresearch, une organisation internationale d'études de marché, calcule la structure des revenus de l'entreprise sur la base des revenus annualisés et de la structure des utilisateurs payants annoncés par openai : 10 millions d'abonnés individuels ont généré 1,9 milliard de dollars de revenus, soit 56 % ; les abonnés des entreprises ont généré 710 millions de dollars de revenus, soit 21 % ; les appels api ont généré 510 millions de dollars de revenus, soit 15 % ;

même après plusieurs séries de baisses de prix, openai peut toujours maintenir une marge bénéficiaire brute relativement saine. en avril de cette année, le prix de sortie du modèle phare d’openai, le gpt-4-turbo, a été réduit de 67 %. en août de cette année, le prix de sortie du modèle principal d’openai, le gpt-4o, a été réduit de 30 %. un rapport de recherche publié par futuresearch en août de cette année indique que la marge bénéficiaire brute du modèle phare de la série gpt-4 d'openai est d'environ 75 % et que la marge bénéficiaire brute du modèle principal de la série gpt-4o est d'environ 55 %. la marge bénéficiaire brute globale d’openai est d’au moins 40 %.

openai dispose d'un environnement de croissance unique. il dispose non seulement d'une alimentation de calcul suffisante, mais compte également un énorme nombre d'utilisateurs to c (pour les clients grand public) et fait également partie du plus grand marché de logiciels to b (pour les clients entreprises) au monde.

l'expérience réussie d'openai au cours des deux dernières années est qu'elle s'appuie sur une grande puissance de calcul pour « faire des miracles par la force brute ». les entreprises chinoises ne disposent pas des conditions de puissance de calcul et d’un environnement de financement comme openai. la puissance de calcul est une lacune majeure des fabricants de modèles chinois.

un technicien modèle d'un fournisseur de cloud chinois a expliqué qu'au cours de la dernière année, les fournisseurs de cloud chinois ont payé plus de 1,5 fois le prix d'achat des puces ia de nvidia, ce qui a maintenu le coût de la puissance de calcul des modèles à un niveau élevé. cela affectera la limite supérieure de performance des grands modèles et entravera également la mise en œuvre industrielle des grands modèles. selon un revendeur de serveurs, les serveurs à huit cartes équipés de puces ia nvidia h100/h800 sur le marché chinois en 2023 dépassaient autrefois les 3 millions de yuans/unité, soit plus de 1,5 fois le prix officiel de nvidia.

comment les entreprises chinoises peuvent-elles trouver une voie de développement qui leur convient lorsque les ressources informatiques sont limitées et les coûts informatiques élevés ? cela nécessite une planification et une adaptation minutieuses.

au cours des deux dernières années, le développement des grands modèles a suivi la loi de mise à l'échelle (la loi proposée par openai en 2020, traduite littéralement par « loi de mise à l'échelle ») - les performances du modèle sont principalement liées à la quantité de calcul, à la quantité de paramètres du modèle et la quantité de données d'entraînement.

la personne principale en charge des grandes activités de modèles des fournisseurs de cloud mentionnés ci-dessus a mentionné que le principe de base est d'améliorer la qualité et la quantité des données sous les contraintes de la loi de mise à l'échelle et de réduire de manière appropriée les paramètres du modèle moe (mixture of experts). stratégie de conception, peut également être utilisée pour mélanger plusieurs modèles (un modèle professionnel pour de meilleures performances) l'architecture améliore les performances du modèle et réduit les coûts d'inférence. lorsqu’il s’agit de mettre en œuvre des stratégies commerciales spécifiques, il existe deux options.

  • tout d’abord, améliorez les performances du modèle et réduisez sa taille en augmentant la qualité/la quantité des données, en optimisant les algorithmes et l’architecture. cela peut réduire efficacement la consommation d'énergie de calcul, améliorer les principaux effets des applications et s'adapter à la demande générale du marché.

  • deuxièmement, adoptez une stratégie de produit modèle plus précise et segmentée. plutôt que de vous fier à quelques modèles pour résoudre tous les problèmes, laissez différents modèles résoudre différents problèmes. par exemple, laissez le modèle rentable atteindre le marché économique et laissez le modèle de haute qualité atteindre le marché haut de gamme.

les trois modèles d'openai cette année, gpt-4, gpt-4turbo et gpt-4o, ont évolué dans cette optique. les paramètres du modèle gpt-4o sont plus petits que ceux du gpt-4, mais il peut résoudre avec précision la plupart des problèmes quotidiens. gpt-4 turbo est utilisé pour résoudre des problèmes plus difficiles. la dernière version d'openai o1-preview a les performances les plus élevées. elle a subi un apprentissage par renforcement et n'est même plus un modèle unique. elle réfléchira à plusieurs reprises avant de produire la réponse pour améliorer les capacités du modèle. les prix de sortie d'un million de jetons pour ces trois modèles sont respectivement de 70 yuans, 210 yuans et 420 yuans (les prix indiqués sur le site officiel d'openai sont de 10 dollars américains, 30 dollars américains et 60 dollars américains, qui ont été convertis en fonction de sur le taux de change du dollar américain et du rmb 1:7).

accélération par élimination directe

la guerre des prix avec un bénéfice brut négatif accélère l’élimination du marché des grands modèles. de nombreux acteurs de l'industrie ont exprimé le même point de vue à l'égard de caijing. cette série d'éliminations durera un ou deux ans et seules trois à cinq entreprises modèles de base pourront continuer à survivre.

an xiaopeng, membre exécutif du comité chinois d'informatisation des 100 et directeur du centre de recherche sur les technologies intelligentes alibaba cloud, a déclaré à caijing en juillet de cette année que les grands modèles nécessitent un investissement continu, la capacité d'avoir 10 000, voire 100 000 cartes, et des retours commerciaux. de nombreuses entreprises ne disposent pas de telles capacités. à l'avenir, il n'y aura que trois ou cinq fabricants de modèles de base sur le marché chinois.

le développement de grands modèles nécessite l'achat de puces et de serveurs, ainsi que la location de terrains pour construire des centres de données. cet investissement peut même atteindre des dizaines de milliards de yuans par an. ces coûts se refléteront dans les dépenses en capital des entreprises technologiques. l'appel aux résultats du quatrième trimestre de l'exercice 2024 de microsoft a révélé que la quasi-totalité des 19 milliards de dollars de dépenses en capital pour ce mois ont été consacrées à la puissance de calcul. au cours de l'année écoulée (du troisième trimestre 2023 au deuxième trimestre 2024), les dépenses en capital d'alibaba, tencent et baidu ont atteint respectivement 23,2 milliards de yuans, 23,1 milliards de yuans et 11,3 milliards de yuans, soit une augmentation de 77,1 %. 154,1% et 46,9% respectivement. c'est le résultat d'un investissement en puissance de calcul.

en plus des dizaines de milliards de yuans d'investissement continu dans la puissance de calcul, l'activité d'inférence de grands modèles nécessite également des subventions d'un milliard de yuans par an. un cadre d’un fournisseur chinois de cloud a analysé que la marge bénéficiaire brute négative pour les appels de grands modèles signifie que plus les appels sont effectués à court terme, plus les pertes seront importantes. selon la consommation actuelle de puissance de calcul d'inférence, plusieurs principaux fournisseurs de cloud participant à la guerre des prix subventionneront la consommation de puissance de calcul d'inférence de grands modèles de plus d'un milliard de yuans en 2024.

alibaba cloud, volcano engine, baidu smart cloud et tencent cloud peuvent s'appuyer sur le grand modèle du groupe pour lutter contre la guerre des prix, mais il est difficile pour les startups de grand modèle de persister. les planificateurs stratégiques de l'ia des principales entreprises technologiques chinoises mentionnés ci-dessus estiment qu'alibaba cloud et volcano engine ont le sang le plus fort dans cette série de guerres des prix. alibaba peut gagner de l'argent grâce au cloud, et volcano engine exploite l'activité publicitaire de bytedance comme une transfusion sanguine. dans une guerre des prix, baidu n’est pas aussi bon qu’alibaba et bytedance. cependant, le grand modèle wenxin de baidu dispose d'une technologie solide et aura un groupe de clients prêts à payer pour cette technologie. cela aidera baidu à survivre à la guerre des prix.

les startups de grande envergure doivent s’appuyer sur de grands fabricants et des financements pour survivre à court terme. un technicien d'une grande start-up de mannequins a déclaré à caijing en septembre de cette année que zhipu ai, baichuan intelligence, dark side of the moon, zero one thing et minimax, les « cinq petits tigres » des grands modèles nationaux, étaient tous investis. par alibaba. l'une des méthodes d'investissement est que le montant de l'investissement est payé sous forme de puissance de calcul et que l'entreprise investie utilise la puissance de calcul d'alibaba cloud. la survie des « cinq petits tigres » dépend dans une certaine mesure de la volonté d'ali de continuer à investir.

le personnel technique des principaux fournisseurs de cloud mentionnés ci-dessus et le personnel technique des startups à grande échelle mentionnées ci-dessus estiment également que les startups à grande échelle sur le marché chinois seront confrontées à des tests au cours des deux prochaines années. pour percer sur le marché des modèles de base.il pourrait y avoir trois solutions à l'avenir : soit pour devenir une société de développement de modèles de projets gouvernementaux et d'entreprise, vous devez soit vous tourner vers le modèle industriel vertical de to b, soit vers le marché d'application de to. c. en fait, la différenciation du marché a déjà commencé. zhipu ai remporte un grand nombre d'appels d'offres pour des projets gouvernementaux et d'entreprises, tandis que dark side of the moon se concentre uniquement sur le marché to c.

editeur | qin lixin