notícias

a guerra de preços dos grandes modelos resultou em lucro bruto negativo

2024-09-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


a competição nacional de eliminação de grandes modelos está se acelerando. esta ronda de eliminação durará um ou dois anos e apenas algumas empresas modelo básicas com força real poderão continuar a sobreviver.

artigo | wu junyu, redator especial de "finanças"

editor | xie li long

a guerra de preços dos grandes modelos no mercado chinês já dura quase meio ano. esta ronda de guerra de preços atingiu lucros brutos negativos e não mostra sinais de parar por enquanto. os principais fornecedores de nuvem ainda estão planejando uma nova rodada de cortes de preços. esta ronda de cortes de preços será implementada no final de setembro deste ano.

em maio deste ano, os fornecedores de nuvem chineses iniciaram uma guerra de preços pelo poder de computação de inferência de grandes modelos. os serviços em nuvem da bytedance, volcano engine, alibaba cloud, baidu smart cloud e tencent cloud reduziram sucessivamente o preço do poder de computação de inferência de grandes modelos em mais de 90%.

para usar um modelo grande, você precisa inserir a linguagem do prompt e obter a saída do conteúdo por meio do raciocínio. este processo chamará uma api (interface de programação de aplicativo, assim como uma chave de água e luz) e pagará de acordo com a quantidade de tokens consumidos (token é uma unidade de texto de um modelo grande, um token pode ser uma palavra, pontuação, número, símbolo, etc.). é como pagar uma taxa de utilização de água e eletricidade.

após a redução de preços, o consumo de poder de computação de inferência está de facto a aumentar rapidamente. em agosto deste ano, a teleconferência de resultados do segundo trimestre do baidu revelou que a média diária de chamadas api do baidu wenxin big model em maio foi de 200 milhões, que aumentou para 600 milhões em agosto, o consumo médio diário de tokens em maio foi de 250 bilhões, e em agosto; agosto cresceu para 1 trilhão. a bytedance anunciou em agosto deste ano que, em julho, o uso médio diário de tokens do modelo bytedance doubao ultrapassou 500 bilhões. em comparação com maio, o uso médio diário de tokens por empresa aumentou 22 vezes.

os preços dos tokens caíram mais de 90%. isto reduzirá a receita de inferência dos fornecedores de nuvem no curto prazo. no entanto, os fornecedores de nuvem esperam usar esse método para reduzir o limite de tentativa e erro para clientes corporativos, resultando em um consumo de energia de computação exponencial mais de 10 vezes maior e, em última análise, alcançar um crescimento de receita no longo prazo.

a guerra de preços pelo poder de computação de inferência no mercado doméstico de grandes modelos já dura meio ano. atualmente, existem três fatos básicos:

primeiro, a guerra inferida de preços do poder de computação já atingiu lucros brutos negativos. recentemente, chefes de muitos fornecedores de nuvem, incluindo alibaba cloud e baidu smart cloud, revelaram-nos que antes de maio deste ano, a margem de lucro bruto do poder de computação de inferência de modelo doméstico em grande escala era superior a 60%, o que era basicamente o mesmo que o dos pares internacionais. depois que os principais fabricantes reduziram sucessivamente os preços em maio deste ano, a margem de lucro bruto do poder de computação de inferência caiu para números negativos.

em segundo lugar, em comparação com os modelos openai com as mesmas especificações, o preço dos modelos nacionais é geralmente de apenas 20% -50%. a margem de lucro bruto dos grandes modelos nacionais é muito inferior à do openai. um relatório de pesquisa da futuresearch, uma organização internacional de pesquisa de mercado, em agosto deste ano afirmou que a margem de lucro bruto do modelo carro-chefe da série gpt-4 da openai é de aproximadamente 75%, e a margem de lucro bruto do modelo principal da série gpt-4o é de aproximadamente 55%. a margem de lucro bruto abrangente da openai é de pelo menos mais de 40%.

terceiro, as capacidades insuficientes dos modelos são uma causa importante das guerras de preços. uma pessoa responsável pelo grande modelo de negócios de um fornecedor de nuvem acredita que atualmente existe uma lacuna entre as capacidades dos modelos principais domésticos e os modelos principais da série gpt-4 da openai, portanto, os clientes devem ser incentivados a tentar e cometer erros por meio de reduções de preços . à medida que os preços dos modelos continuam a cair, o preço já não é a principal preocupação dos clientes empresariais. as capacidades e os efeitos do modelo são o que mais preocupa os clientes corporativos.

uma guerra de preços tem que ser travada

verificamos os preços de inferência de modelos grandes anunciados pelo site oficial alibaba cloud, volcano engine, baidu smart cloud, tencent cloud e openai. comparado com os modelos openai com a mesma especificação, o preço dos modelos domésticos é geralmente de apenas 20% -50%.

veja o tongyi qianwen-max do alibaba, o ernie-4.0-8k do baidu e o hunyuan-pro da tencent como exemplos. os preços de produção dos três modelos por milhão de tokens são 120 yuans, 120 yuans e 100 yuans, respectivamente. o preço de saída de seu modelo carro-chefe de referência da openai, gpt-4-turbo, é de 210 yuans por milhão de tokens (o preço listado no site oficial da openai é de 30 dólares americanos, que foi convertido com base na taxa de câmbio do dólar americano e do rmb 1: 7). o preço desses três grandes modelos domésticos é apenas cerca de 50% do preço do gpt-4-turbo.

veja o qwen-long do alibaba, o ernie-speed-pro-128k do baidu e a incorporação de hunyuan da tencent como exemplos. os preços de produção dos três modelos por milhão de tokens são 2 yuans, 0,8 yuans e 5 yuans, respectivamente. o preço de saída do modelo barato openai gpt-4o-mini milhões de tokens da openai é de 4,2 yuans (o preço listado no site oficial da openai é de 0,6 dólares americanos, que foi convertido com base na taxa de câmbio de dólares americanos e rmb 1:7 ). os modelos básicos do alibaba e baidu custam apenas 48% e 19% do preço do modelo básico da openai.

a guerra de preços para modelos grandes atingiu margens brutas negativas, mas isso não impediu que vários fornecedores de nuvens continuassem a reduzir os preços.

a notícia que recebemos é que os principais fornecedores de nuvem, como o alibaba cloud, ainda estão planejando uma nova rodada de cortes de preços. esta ronda de cortes de preços será implementada no final de setembro deste ano. os principais modelos de alto desempenho são o foco desta rodada de cortes de preços.

a principal pessoa responsável pelo negócio de modelos de grande porte dos fornecedores de nuvem mencionados acima acredita que atualmente há pouco espaço para reduções de preços para modelos baratos de pequeno porte, e a última rodada de reduções de preços caiu para o "resultado psicológico" de clientes corporativos. o próximo passo a focar é se cada modelo principal continuará a reduzir os preços. o modelo principal também será subdividido em versões econômicas que podem resolver a maioria dos problemas, bem como versões de alta qualidade e preços elevados que resolvem problemas extremamente difíceis.

o poder computacional da inferência de grandes modelos atingiu o lucro bruto negativo, então por que continuar a reduzir os preços?

os grandes fabricantes de nuvem observam a tendência do mercado de longo prazo - a estrutura de poder computacional da computação em nuvem está passando por mudanças drásticas. aproveitar mais poder de computação de inferência é conquistar mais mercados incrementais. a organização internacional de pesquisa de mercado idc prevê que o poder computacional geral da china terá uma taxa composta de crescimento anual de 16,6% de 2022 a 2027, e o poder computacional inteligente terá uma taxa composta de crescimento anual de 33,9%. de 2022 a 2027, dentro do poder de computação inteligente, a proporção do poder de computação de inferência aumentará para 72,6% e a proporção do poder de computação de treinamento cairá para 27,4%.

os fornecedores de nuvem estão dispostos a abrir mão de receitas de curto prazo em prol do crescimento esperado de longo prazo. no curto prazo, o poder da computação de inferência não traz muitas receitas. um técnico de um fornecedor de nuvem chinês explicou que a receita de chamada de modelo de cada empresa não excederá 1 bilhão de yuans em 2024, o que é limitado em um mercado com dezenas de bilhões de receitas por ano. os fornecedores de nuvem estão dispostos a aceitar perdas de receita e de negócios no curto prazo nos próximos um a dois anos. todos apostam que o número de grandes chamadas de modelos aumentará exponencialmente em pelo menos 10 vezes nos próximos um a dois anos. em última análise, o crescimento das receitas a longo prazo pode compensar as perdas de receitas a curto prazo.

ele explicou ainda que, neste processo, o custo do poder computacional será gradualmente diluído à medida que a demanda dos clientes crescer. o grande modelo de negócio ainda tem a oportunidade de obter lucros positivos eventualmente. mesmo que a aposta não se concretize, um grupo de fabricantes de modelos morrerá na guerra de preços e os fabricantes sobreviventes juntarão os cacos.

diferentes fornecedores de nuvem também têm diferentes considerações competitivas quando enfrentam guerras de preços – volcano engine, alibaba cloud e baidu smart cloud estão todos participando de uma guerra de preços que deve ser travada.

atualmente, o volcano engine não está entre os cinco primeiros no mercado de nuvem pública da china, mas sua receita crescerá mais de 150% em 2023. modelos grandes são uma oportunidade importante para se atualizar no mercado de nuvem. tan dai, presidente da volcano engine, mencionou-nos em maio deste ano que em março deste ano descobriu no vale do silício que o empreendedorismo de aplicações de ia nos estados unidos mostrava a tendência do estágio inicial da internet móvel na china de 2012 a 2014. "uma pequena equipe de inicialização de aplicativos de ia obteve rapidamente receita e financiamento. o mercado chinês pode mostrar essa tendência no futuro. mas a premissa é que o preço da inferência deve ser reduzido e o limite para tentativa e erro deve ser reduzido."

alibaba cloud ocupa o primeiro lugar no mercado de nuvem pública da china. diante dos cortes de preços por parte dos concorrentes, o alibaba cloud deve acompanhar. liu weiguang, gerente geral da divisão de nuvem pública do alibaba cloud, analisou-nos em junho deste ano que o alibaba cloud passou por várias rodadas de deduções e cálculos internos e encontrou duas contradições:

  • primeiro, após a redução dos preços, o rendimento existente diminuirá e o rendimento incremental aumentará. idealmente, a receita incremental pode cobrir a receita existente.

  • a segunda é como reagir se os pares reduzirem os preços de forma mais agressiva. a conclusão final é que a escala é agora mais importante que os lucros. alibaba cloud quer usar modelos grandes para aumentar a penetração da computação em nuvem em toda a indústria.

o baidu intelligent cloud considera a ia como sua estratégia central. um diretor técnico de grandes modelos do baidu nos disse sem rodeios em julho deste ano que os grandes modelos são uma batalha que deve ser vencida e que a guerra de preços deve ser travada a todo custo. esta estratégia alcançou resultados reais. a taxa de crescimento da receita do baidu smart cloud no segundo trimestre de 2024 se recuperou para 14%, o ponto mais alto dos últimos dois anos. a administração do baidu divulgou na estimativa de lucros do segundo trimestre de 2024 que a proporção de receita do grande modelo do baidu intelligent cloud aumentou de 4,8% no quarto trimestre de 2023 para 9% no segundo trimestre de 2024.

um planejador estratégico de ia da principal empresa de tecnologia da china analisou que o volcano engine é apoiado pela bytedance e que o negócio de publicidade da empresa-mãe pode ser uma transfusão de sangue. o volcano engine não está entre os cinco primeiros no mercado de nuvem e espera conquistar mais participação de mercado por meio de guerras de preços. alibaba cloud vem principalmente dos quatro principais componentes da nuvem pública (computação, armazenamento, rede, banco de dados). o modelo de baixo preço promoverá o consumo de dados de negócios dos clientes, impulsionando assim as vendas dos produtos básicos de nuvem mencionados acima. grandes modelos são a estratégia central do baidu. o baidu foi o primeiro a implantar negócios de grandes modelos na china. quando outros concorrentes decidem iniciar uma guerra de preços, o baidu deve seguir o exemplo.

o preço não é o fator decisivo

o outro lado das guerras de preços de inferência de grandes modelos e das margens brutas negativas é que o preço baixo não é o principal fator para que os clientes empresariais utilizem grandes modelos.

a principal pessoa responsável pelo negócio de modelos de grande porte dos fornecedores de nuvem mencionados acima acredita que os fornecedores de nuvem não podem contar com a queima de dinheiro e perdas a longo prazo para promover a implementação da indústria de modelos de grande porte. um modelo de baixo desempenho e preço baixo faz pouco sentido. as capacidades insuficientes do modelo são uma razão importante para guerras negativas de preços no lucro bruto. como os preços dos modelos domésticos de chamadas caíram significativamente, o preço deixou de ser o factor mais importante para os clientes empresariais. as capacidades e os efeitos do modelo são o que mais preocupa os clientes corporativos.

um diretor de ti de uma seguradora concordou. ele disse sem rodeios que a proporção atual das despesas de ti no setor financeiro e de seguros nas receitas das empresas é de cerca de 3% a 5%. excluindo 80% das despesas de ti com hardware, apenas 20% das despesas de ti são realmente utilizadas para a transformação digital. ao usar uma nova tecnologia, como modelos grandes, a relação insumo-produto deve ser calculada. além dos custos explícitos do modelo, os custos implícitos também devem ser considerados - os grandes modelos devem ser compatíveis com os sistemas de ti existentes, a governação de dados é necessária para preparar os dados empresariais para os grandes modelos e deve ser recrutado um grupo de gestores de produto que compreendam a ia. o que mais o preocupa são as capacidades do modelo e os efeitos práticos.

o centro de pesquisa em modelos fundamentais (crfm) da universidade de stanford conduz classificações globais de testes de grandes modelos de longo prazo. a classificação de testes de compreensão de linguagem multitarefa em larga escala (mmlu) em 17 de setembro mostra que os dez principais fabricantes de modelos incluem a série claude 3.5 da startup de ia anthropic (investida pela amazon), a série llama3.1 da meta e openai (série gpt-4 de propriedade da microsoft investment) e série gemini 1.5 de propriedade do google. atualmente, apenas o tongyi qianwen 2 instruct (72b) de propriedade da alibaba entre os grandes modelos chineses está entre os dez primeiros.

o pessoal técnico de modelos de grande porte de muitos fornecedores de nuvem chineses expressou a mesma opinião a caijing: no mercado de modelos de grande porte, a estratégia de baixo desempenho e preço baixo é insustentável. o ideal é estabelecer um ciclo fechado de negócios saudável e duradouro, baseado em alto desempenho e preços razoáveis.

um benchmark mais valioso é o openai. em setembro deste ano, a openai tinha 1 bilhão de usuários ativos mensais e 11 milhões de usuários pagos (incluindo 10 milhões de assinantes individuais pagos e 1 milhão de assinantes empresariais). em maio deste ano, a administração da openai anunciou a receita anual da empresa (a receita anual é a receita do mês atual × 12. as empresas de software baseadas em assinatura recebem renovações de assinatura dos usuários todos os meses e têm expectativas de receita estáveis, por isso muitas vezes usam o calibre de receita anualizada). 3,4 bilhões de dólares americanos (convertidos com base na taxa de câmbio do dólar americano e do rmb de 1:7, aproximadamente 24,1 bilhões de yuans).

o último relatório de pesquisa da futuresearch, uma organização internacional de pesquisa de mercado, calcula a estrutura de receita da empresa com base na receita anualizada e na estrutura de usuários pagos anunciada pela openai - 10 milhões de assinantes individuais geraram us$ 1,9 bilhão em receita, representando 56%; empresas os assinantes geraram us$ 710 milhões em receitas, representando 21%; as chamadas de api geraram us$ 510 milhões em receitas, representando 15%.

mesmo após várias rodadas de cortes de preços, a openai ainda consegue manter uma margem de lucro bruto relativamente saudável. em abril deste ano, o preço de saída do modelo principal gpt-4-turbo da openai foi reduzido em 67%. em agosto deste ano, o preço de produção do principal modelo gpt-4o da openai foi reduzido em 30%. um relatório de pesquisa divulgado pela futuresearch em agosto deste ano afirmou que a margem de lucro bruto do modelo carro-chefe da série gpt-4 da openai é de aproximadamente 75%, e a margem de lucro bruto do modelo principal da série gpt-4o é de aproximadamente 55%. a margem de lucro bruto abrangente da openai é de pelo menos 40%.

openai tem um ambiente de crescimento único. ele não apenas possui fonte de poder de computação suficiente, mas também possui um grande número de usuários to c (para clientes consumidores) e também está no maior mercado de software to b (para clientes corporativos) do mundo.

a experiência bem-sucedida da openai nos últimos dois anos é que ela depende de grande poder computacional para "força bruta para criar milagres". as empresas chinesas carecem de condições de poder computacional e de ambiente de financiamento como o openai. o poder computacional é uma das principais deficiências dos fabricantes de modelos chineses.

um técnico modelo de um fornecedor de nuvem chinês explicou que, no último ano, os fornecedores de nuvem chineses pagaram mais de 1,5 vezes o custo de compra dos chips de ia da nvidia, o que manteve alto o custo do poder de computação do modelo. isto afetará o limite superior de desempenho de modelos grandes e também dificultará a implementação industrial de modelos grandes. de acordo com um revendedor de servidores, servidores de oito placas equipados com chips ai da série nvidia h100/h800 no mercado chinês em 2023 já ultrapassaram 3 milhões de yuans/unidade, o que é mais de 1,5 vezes o preço oficial da nvidia.

como podem as empresas chinesas encontrar um caminho de desenvolvimento que lhes seja adequado quando os recursos informáticos são limitados e os custos informáticos são elevados? isso requer planejamento cuidadoso e adaptação.

nos últimos dois anos, o desenvolvimento de grandes modelos seguiu a lei de escala (a lei proposta pela openai em 2020, traduzida literalmente como "lei de escala") - o desempenho do modelo está principalmente relacionado à quantidade de cálculo, à quantidade de parâmetros do modelo e a quantidade de dados de treinamento.

a principal pessoa responsável pelo grande modelo de negócios dos fornecedores de nuvem mencionados acima mencionou que o princípio fundamental é melhorar a qualidade e a quantidade dos dados sob as restrições da lei de escalabilidade e reduzir adequadamente os parâmetros do modelo (mixture of experts), um modelo. estratégia de design, também pode ser usada para misturar vários modelos (um modelo profissional para melhor desempenho). a arquitetura melhora o desempenho do modelo e reduz os custos de inferência. quando se trata de implementar estratégias de negócios específicas, existem duas opções.

  • primeiro, melhore o desempenho do modelo e reduza o tamanho do modelo, aumentando a qualidade/quantidade dos dados, otimizando algoritmos e arquitetura. isso pode efetivamente reduzir o consumo de energia computacional, melhorar os principais efeitos dos aplicativos e se adaptar à demanda do mercado convencional.

  • em segundo lugar, adote uma estratégia de produto modelo mais precisa e segmentada. em vez de depender de alguns modelos para resolver todos os problemas, deixe que modelos diferentes resolvam problemas diferentes. por exemplo, deixe o modelo rentável chegar ao mercado económico e deixe o modelo de alta qualidade chegar ao mercado topo de gama.

os três modelos da openai este ano, gpt-4, gpt-4turbo e gpt-4o, evoluíram ao longo desta linha de pensamento. os parâmetros do modelo do gpt-4o são menores que os do gpt-4, mas podem resolver com precisão a maioria dos problemas diários. gpt-4 turbo é usado para resolver problemas mais difíceis. a última visualização o1 da openai tem o desempenho mais forte. ele passou por aprendizado de reforço e não é mais um único modelo. ele pensará repetidamente antes de gerar a resposta para aprimorar os recursos do modelo. os preços de saída de um milhão de tokens para esses três modelos são respectivamente 70 yuans, 210 yuans e 420 yuans (os preços listados no site oficial da openai são 10 dólares americanos, 30 dólares americanos e 60 dólares americanos, que foram convertidos com base sobre o dólar americano e a taxa de câmbio do rmb 1:7).

aceleração de nocaute

a guerra de preços com lucro bruto negativo está acelerando a eliminação do grande mercado de modelos. muitos membros da indústria expressaram a mesma opinião à caijing. esta rodada de eliminação durará um ou dois anos e apenas 3 a 5 empresas do modelo básico poderão continuar a sobreviver.

an xiaopeng, membro executivo do comitê de informatização da china dos 100 e diretor do centro de pesquisa de tecnologia inteligente em nuvem alibaba, disse a caijing em julho deste ano que grandes modelos exigem investimento contínuo, capacidade de ter 10.000 ou até 100.000 cartões e retornos comerciais. muitas empresas não possuem tais capacidades. no futuro, haverá apenas três ou cinco fabricantes de modelos básicos no mercado chinês.

o desenvolvimento de grandes modelos requer a compra de chips e servidores e o aluguel de terrenos para a construção de data centers. este investimento pode até atingir dezenas de bilhões de yuans por ano. estes custos serão reflectidos nas despesas de capital das empresas tecnológicas. a teleconferência de resultados do quarto trimestre fiscal de 2024 da microsoft revelou que quase todos os us$ 19 bilhões em despesas de capital daquele mês foram gastos em capacidade de computação. no ano passado (do terceiro trimestre de 2023 ao segundo trimestre de 2024), as despesas de capital do alibaba, tencent e baidu atingiram 23,2 bilhões de yuans, 23,1 bilhões de yuans e 11,3 bilhões de yuans, respectivamente, um aumento de 77,1%, 154,1% e 46,9% respectivamente. é o resultado do investimento em capacidade computacional.

além das dezenas de bilhões de yuans em investimento contínuo em poder de computação, o grande negócio de inferência de modelos também exige subsídios de um bilhão de yuans por ano. um executivo de um fornecedor de nuvem chinês analisou que a margem de lucro bruto negativa para grandes chamadas de modelos significa que quanto mais chamadas forem feitas no curto prazo, maiores serão as perdas. de acordo com o consumo atual de poder de computação de inferência, vários fornecedores líderes de nuvem que participam da guerra de preços subsidiarão o consumo de poder de computação de inferência de grandes modelos em mais de um bilhão de yuans em 2024.

alibaba cloud, volcano engine, baidu smart cloud e tencent cloud podem contar com o grande modelo do grupo para combater a guerra de preços, mas é difícil para as startups de grandes modelos persistirem. os planejadores estratégicos de ia das principais empresas de tecnologia da china acima mencionados acreditam que alibaba cloud e volcano engine têm o sangue mais forte nesta rodada de guerra de preços. o alibaba pode ganhar dinheiro com a nuvem, e a volcano engine tem o negócio de publicidade da bytedance como uma transfusão de sangue. numa guerra de preços, o baidu não é tão bom quanto o alibaba e o bytedance. no entanto, o grande modelo wenxin do baidu possui tecnologia forte e terá um grupo de clientes dispostos a pagar pela tecnologia. isso ajudará o baidu a sobreviver à guerra de preços.

as grandes startups de modelos devem contar com grandes fabricantes e financiamento para sobreviver no curto prazo. um técnico de uma grande empresa start-up de modelos disse a caijing em setembro deste ano que zhipu ai, baichuan intelligence, dark side of the moon, zero one thing e minimax, os "cinco pequenos tigres" dos grandes modelos domésticos, estão todos investidos por alibaba. um dos métodos de investimento é que o montante do investimento seja pago sob a forma de poder computacional, e a empresa investida utilize o poder computacional da alibaba cloud. se os "cinco pequenos tigres" poderão continuar a sobreviver depende, em certa medida, de ali continuar a investir.

o pessoal técnico dos principais fornecedores de nuvem mencionados acima e o pessoal técnico das empresas startup de grande porte mencionadas também acreditam que as startups de grande porte no mercado chinês enfrentarão testes nos próximos dois anos. para avançar no mercado de modelos básicos. pode haver três saídas no futuro - ou para se tornar uma empresa de desenvolvimento de modelos de projetos governamentais e empresariais, você deve recorrer ao modelo de indústria vertical de to b ou ao mercado de aplicativos de to. c. na verdade, a diferenciação do mercado já começou. a zhipu ai está ganhando um grande número de licitações para projetos governamentais e empresariais, enquanto dark side of the moon se concentra apenas no mercado to c.

editor |qin lixin