notícias

Cerco e supressão da NVIDIA |

2024-08-01

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Texto|Qiu Xiaofen

Entrevista|Qiu Xiaofen e Yang Xiao

Editor|Su Jianxun Yang Xuan

resistir

Um grupo secreto do WeChat é divulgado boca a boca entre pessoas de empresas de chips de IA em Zhangjiang, Xangai. O nome do grupo é "Domestic Chip Group Warming Group". até mesmo os concorrentes trocarão informações e recursos de negócios.

O “grupo de chips domésticos para o calor” delineou uma zona de trégua, onde os colegas podem fazer tréguas temporárias e ajudar uns aos outros, só porque todos têm um inimigo comum: a NVIDIA.

Devido à existência da Nvidia, as vendas das empresas nacionais de chips têm sofrido um pouco de humilhação.

Li Ming (pseudônimo) é vendedor de uma empresa nacional de GPU. Quando o boom da IA ​​começou, ele foi ao encontro dos clientes com confiança, mas não teve tempo de dizer olá.

"Comparado com o chip A100 da NVIDIA, qual é a diferença entre as suas coisas? NVIDIA tem NVLink, o que você tem?" (Nota do autor: NVLink conecta vários chips GPU para evitar que os dados da GPU sejam movidos para a CPU para cálculos para melhorar a eficiência da computação)

Vendo que não conseguiriam impressionar os clientes com seus produtos e tecnologias, a equipe de Li Ming começou a pensar em maneiras de confiar nas conexões e encontrar "pessoas mais poderosas" para fazer lobby, mas os clientes ainda acenaram e disseram: "Ainda queremos usar NVIDIA."

NVIDIA A100, com 54 bilhões de transistores embalados em uma área de 826 milímetros quadrados, é a chave para abrir a caixa mágica dos grandes modelos de IA.

O treinamento de grandes modelos é como “refinar elixires” em dados massivos, com o objetivo de descobrir os padrões de alterações de dados;Usar chips NVIDIA para treinar grandes modelos é como pedir a centenas de milhões de pessoas com QI de 200 que façam contas, enquanto o efeito de outros chips é apenas equivalente a pedir a milhares de pessoas com QI de 100 que façam cálculos.


Imagens da NVIDIA A100 do site oficial da NVIDIA

As principais empresas de tecnologia estão correndo para comprar a Nvidia. Quem tiver mais GPUs NVIDIA topo de linha terá a oportunidade de treinar modelos grandes e mais inteligentes.

Informações públicas mostram que a OpenAI controla atualmente o maior número de GPUs de ponta da NVIDIA no mundo, pelo menos 50.000 peças Google e Meta também são proprietárias de clusters Wanka (cerca de 26.000 e é raro que haja Internet); rede com clusters GPU Wanka de última geração da Nvidia. O maior deles é o ByteDance (13.000).

A NVIDIA monopoliza os melhores recursos na cadeia industrial global - possui a mais abundante capacidade de fabricação de chips avançados da TSMC, possui o maior grupo de usuários de engenheiros do mundo e controla a força vital da computação de muitas empresas de IA.

O monopólio absoluto muitas vezes gera insatisfação, raiva e fuga.

"Todo mundo que fabrica modelos grandes hoje está basicamente perdendo dinheiro seriamente! Apenas um está ganhando dinheiro! NVIDIA", disse um membro da indústria com raiva——“A margem de lucro da NVIDIA deixa todos os clientes desconfortáveis ​​e prejudica a indústria de IA!”.

O relatório financeiro mostra que a margem de lucro bruto da Nvidia atingiu 71%, entre os quais os produtos populares das séries A100 e H100 têm margens de lucro bruto de até 90%. Como empresa de hardware, a Nvidia desfruta de margens de lucro bruto mais altas do que as empresas de software de Internet.

Os preços elevados e os enormes lucros fizeram com que os grandes clientes da Nvidia começassem a fugir. Em 30 de julho, a Apple anunciou que seu modelo de IA foi treinado com 8.000 Google TPUs, enquanto o conteúdo da NVIDIA era 0. Assim que a notícia foi divulgada, o preço das ações da NVIDIA caiu mais de 7% em 31 de julho, a maior queda do passado três meses, e seu valor de mercado evaporou em US$ 193 bilhões,Quase perdi um Pinduoduo.


Gráfico de queda do preço das ações da NVIDIA no ano passado

Para todas as empresas nacionais de GPU que desejam arrancar um pedaço de carne da Nvidia, 2022 é um ano de virada. Várias rodadas de proibições foram emitidas nos Estados Unidos. A Nvidia, forçada a ganhar a vida, continua a lançar versões castradas de chips. na China, mas são rapidamente banidos novamente:

  • Em setembro de 2022, A100/H00 foi proibido de ser exportado para a China, e a NVIDIA lançou a versão castrada A800/H800 em outubro de 2023, A800/H800/L40/L40S/RTX4090 foi proibida de ser exportada para a China; O fundador da NVIDIA, Huang Jenxun, disse que enviará versões castradas dos chips L20 e H20 para a China.

Porém, a versão castrada desencadeou condenações mais intensas por parte da indústria. O próximo H20 da Nvidia custa metade do preço do H100 da Nvidia, mas seu desempenho é apenas 1/3 do anterior. Uma pessoa da indústria de IA denunciou com raiva - " Isso não é apenas roubar dinheiro? Imposto de QI puro! "

Quando os clientes da Nvidia ficaram insatisfeitos e irritados, as empresas nacionais de chips que queriam substituir a Nvidia foram “nutridas” por essa emoção.

No passado, eles só podiam seguir o traseiro da Nvidia e comer um pedacinho do bolo. De acordo com dados da empresa de análise de semicondutores TechInsights, a participação de mercado da Nvidia em remessas de GPU para data centers chegará a 98% em 2023. Chips domésticos e todos os gigantes de chips combinados,Apenas uns escassos 2%.

Agora que a proibição chegou, a Nvidia perfeita foi destruída no mercado chinês. Quem pode substituir a Nvidia? Os fabricantes nacionais de chips de IA veem esperança.

“Este ano, 90% do mercado da NVIDIA na China foi liberado.Se você pode agarrá-lo ou não, depende da sua habilidade.", disse o fundador de uma empresa nacional de GPU.

36 Krypton publicou uma vez "Deep Krypton | CATL: Cracks in the Trillion Battery Empire" em 2021. Na indústria de baterias de energia, CATL é incomparável e está de olho nos concorrentes.

Hoje, a Nvidia, que é o player dominante no campo dos chips de IA, também é considerada um espinho na carne por muitos pares. No entanto, a diferença entre a Nvidia e a Nvidia é que suas barreiras são mais altas e a diferença com seus oponentes é maior. ainda mais amplo.

Tentamos encontrar as "rachaduras na NVIDIA" através da resistência dos oponentes da NVIDIA. Olhando para a indústria de GPU, embora os fabricantes nacionais de GPU e chips AI sejam fracos, eles entendem melhor o mercado chinês e seus métodos de jogo são mais localizados; Intel, AMD, etc. Os gigantes de chips estabelecidos têm munição mais suficiente para enfrentar a Nvidia de frente.

No curto prazo, a Nvidia não será derrotada, mas não permanecerá ilesa. Esta está destinada a ser uma guerra sangrenta.

Saia

Se quiser avançar, você deve encontrar os pontos fracos do seu oponente.Um dos pontos fracos da Nvidia: arrogância.

A indústria de chips é essencialmente uma indústria de software To B. Os clientes precisam de serviços de "acompanhamento" dos fabricantes de chips, como depuração de hardware e compatibilidade de software e hardware. Somente quando a companhia estiver estabelecida os clientes poderão ser persistentes e os produtos de chips não serão facilmente substituídos.

No entanto, muitos especialistas em chips nacionais disseram à 36Kr que no mercado chinês, exceto para grandes compradores com escala de bilhões, como BAT e Byte, é quase difícil para a maioria das outras empresas obter investimento da Nvidia, mesmo que seu volume de transações atinja dezenas de milhões . Serviço pós-venda.

Em outras palavras, quando os engenheiros chineses que usam chips NVIDIA têm dúvidas, eles só podem confiar em si mesmos para pesquisar documentos no site oficial da NVIDIA ou ir à comunidade para aprender por conta própria.

Ao cooperar com a NVIDIA, as diversas necessidades dos clientes chineses muitas vezes não são atendidas.Uma pessoa da indústria de chips disse ao 36Kr que a Nvidia geralmente promove as soluções completas mais sofisticadas e caras na China. Quando os clientes fazem solicitações personalizadas para cenários específicos, eles geralmente são rejeitados. sobre isso você mesmo ou encontre uma empresa de algoritmos poderosa para fazer isso."

Esta abordagem da Nvidia tem acumulado muitas reclamações de clientes de pequeno e médio porte. “A Nvidia, como grande fabricante agora, não presta mais tanta atenção aos pequenos clientes como fazia no passado. Seus produtos não têm concorrentes e eles não precisam trabalhar duro para agradar os clientes”, disse a pessoa mencionada acima.

Mas no passado, a ascensão do ecossistema NVIDIA na verdade confirmou a importância dos serviços para a indústria de chips: em 2006, quando o ecossistema CUDA começou, os produtos NVIDIA não eram tão bons quanto os chips domésticos de hoje. Mas a equipe da NVIDIA começou primeiro com as equipes de pesquisa científica das universidades e depois penetrou nas empresas iniciantes de cada subsetor para adaptar software e hardware, e só então se tornou um grande país hoje.


Fonte NVIDIA H100: Site oficial da NVIDIA

Os fabricantes chineses de chips também perceberam isso e estão tentando começar com o atendimento ao cliente.

Uma certa empresa nacional de chips de IA que deseja permanecer anônima tem tentado desde 2023 trazer pessoal de P&D de back-end para a linha de frente para fornecer serviços pessoais - não apenas para estar no local para treinamento conjunto, mas também para fornecer aos clientes um equipe dedicada de pessoal de P&D após o pedido de vendas ser feito. Os preços unitários do cliente variam de alguns milhões a centenas de milhares, e você pode desfrutar de consultas 24 horas por dia, 7 dias por semana.

Simplesmente fornecer serviços localizados e atenciosos está longe de ser suficiente. Após a retirada da NVIDIA da China,A indústria de chips não é mais simplesmente uma batalha entre os próprios produtos de chips. , mas também testa a respectiva compreensão da janela de tempo. Os fabricantes chineses de chips atacaram-nos como uma matilha de lobos, e a licitação vigorosa começou.

A Huawei está vindo com mais força. A Huawei já se associou à iFlytek para lançar o dispositivo “Spark All-in-One”, que foi equipado com o “Ascend 910B”.

Já foi dito que este chip é “comparável ao NVIDIA A100” em termos de recursos de placa única. O que não se sabe é o lado difícil por trás do caso glorioso - 36 Krypton descobriu que a Huawei não hesitou em pagar os custos trabalhistas e mobilizou centenas de engenheiros para ajudar a iFlytek a ajustar os parâmetros.


Huawei e iFlytek lançam máquina multifuncional Spark, fonte: iFlytek

Embora isso seja chamado de "feito à mão" pela indústria, assim que o caso de referência foi divulgado, muitas grandes empresas de modelos e empresas de Internet estenderam um ramo de oliveira à Huawei para testes.

Uma empresa nacional de vendas de chips ficou surpresa ao descobrir que, desde julho do ano passado, a gestão de alto nível da Huawei pode ser vista em qualquer projeto de centro de computação inteligente que tenha sido licitado publicamente. “A Huawei agora pode enviar centenas de pessoas para um projeto. subir para servir e até perder dinheiro em alguns projetos importantes para obter renda de outros projetos."

A empresa de chips sem nome acima mencionada também tem 200 vendedores dedicados – uma configuração muito rara na indústria nacional de chips. Sua equipe de vendas começou nos três campos mais importantes para implementação de grandes modelos, finanças, direito e indústria, e apareceu em quase todas as exposições relacionadas ao poder da computação "Na indústria de chips, os recursos vêm em primeiro lugar. Se você correr devagar, morrerá. ." Perdido".

Uma guerra oculta de preços para chips nacionais também começou.

Uma pessoa da indústria de chips disse à 36Kr que seu objetivo é ganhar mais pedidos de centros de computação inteligentes de referência, independentemente do preço unitário. 36 Krypton observou que, para reduzir custos, algumas empresas nacionais não hesitam em remover o caro HBM (memória de alta largura de banda) dos seus cartões de inferência, e até mesmoEnviado a um preço 50% inferior ao preço de custo.

“Não importa o que aconteça, todos ainda esperam romper vários pontos de entrada e cada um pegar um pequeno pedaço do bolo da NVIDIA, para que a NVIDIA não seja mais a única.”

Mas a realidade é cruel. Quando se trata de produtos, os chips domésticos de IA inevitavelmente terão vários problemas.

Um especialista em chips deu um exemplo para 36Kr: pode levar apenas dez dias para processar o mesmo conjunto de dados usando o cluster A100 da NVIDIA, mas pode levar vários meses para usar alguns produtos de chips domésticos.O tempo de acumulação de hardware de chip doméstico é muito curto e há falta de processos avançados e lacunas de hardware, resultando em baixa eficiência.

As deficiências de software também são óbvias. Outra pessoa da indústria testou e descobriu que ao usar chips domésticos para rodar modelos grandes, se você quiser fazer mais aplicativos interessantes nele, uma vez que o modelo básico grande é alterado, os chips domésticos estão sujeitos a travamentos "Em muitos casos, usamos. chips domésticos." Basicamente, você tapa o nariz e usa."

Agora, cada empresa viu claramente a estratégia de “cerco e supressão” em questão e gradualmente se diferenciou em caminhos mais realistas:

Embora ainda existam algumas facções que continuam a migrar para o cluster Wanka, focando em cenários de treinamento, e sendo duras com a NVIDIA, representada por Moore Threads e Huawei, mas a maioria das facções opta por focar mais no uso de modelos grandes/; pequenos modelos em diversas indústrias A implementação de diversas indústrias começa a partir de cenários de raciocínio que não requerem hardware e software elevados, representados por Suiyuan, Tianshu Zhixin, etc.

(Nota 36Kr: Modelos grandes têm dois links: treinamento e inferência: treinamento é o processo de encontrar padrões em bilhões de bancos de dados."fazer"Modelo grande; a inferência está disponível;"usar"O processo de modelos grandes é menos difícil eMenores requisitos de hardware e software, conexão mais próxima com a indústria)


Moore Thread lança cluster Kua'e Wanka na Conferência de Inteligência Artificial de 2024 com 36 tiros de criptônio

"Não estamos perseguindo cegamente a Nvidia agora. Não podemos nos dar ao luxo de alcançá-los e não ousamos fabricar cegamente chips com poder de computação extremamente grande", disse sem rodeios um funcionário da indústria de chips.

Uma consideração realista para os fabricantes nacionais de chips é que o da NvidiaO foco principal não está aqui, e os fabricantes nacionais evitaram a guerra frontal da Nvidia.

Anteriormente, a maioria das empresas usava placas gráficas de jogos NVIDIA 4090 para executar inferências com base em considerações de custo. Essas placas apresentavam muitos problemas: consumo excessivo de energia, memória insuficiente e desativação. Os funcionários da Nvidia também não permitem que essas placas gráficas de consumo sejam usadas para inferência de modelos grandes.

As empresas nacionais de chips entraram na lacuna da NVIDIA. Tianshu Zhixin e Suiyuan estão promovendo cartões de inferência que competem com o 4090 este ano, com os pontos de venda de grande memória, baixo consumo de energia e fornecimento estável.

Os fabricantes nacionais de chips também deixaram clara a importância de identificar segmentos de mercado. Por exemplo, para alguns cenários sensíveis ao consumo de energia, nos concentramos em pequenos chips de baixo consumo de energia ou podemos mergulhar em cenários de nicho, como otimização de vídeo, para fazer negócios pequenos, mas bonitos;

O campo de batalha dos gigantes é tenso.

Quando as empresas nacionais de GPU escrevem “superando a NVIDIA” no PPT, é mais como uma bela visão. Este grupo de empresas não está estabelecido há muito tempo e acompanhou a tendência de substituição doméstica, mesmo que apenas supere um pouco. , é considerado um feito. A Nvidia é ao mesmo tempo uma rival e uma referência para eles.

Mas quando se trata de Intel e AMD, que são comparáveis ​​em antiguidade à Nvidia, a atmosfera é ainda mais tensa.

Vemos internamente a Nvidia como nossa inimiga mortal", disse um desenvolvedor da linha de produtos da série MI da AMD ao 36Kr.

No Taipei Computer Show (Computex 2024) em junho deste ano, a fundadora da AMD, Su Zifeng (ela também é prima do fundador da Nvidia, Huang Jen-Hsun), também esclareceu pela primeira vez o futuro ritmo do produto AMD na iteração de GPU de um novo todos os anos, os produtos GPU são consistentes com o ritmo de atualização da Nvidia.

Quase sempre que a Nvidia lança uma GPU, a AMD a compra no mercado e a desmonta imediatamente para compará-la com produtos que ainda não foram lançados.

“Precisamos adicionar alguns recursos (indicadores) aqui e aumentar os parâmetros ali.” O que eles estão buscando é que “o hardware não pode ficar atrás da NVIDIA e os parâmetros são um pouco melhores”, disse a pessoa mencionada a 36 Krypton.


Su Zifeng lançou o Instinct MI325X na Taipei Computex deste ano

Desde 2023, os parceiros do ecossistema chinês da AMD receberão novas demandas de otimização de software da AMD quase a cada dois dias. Para promover suas GPUs, os executivos da AMD às vezes exigem que o departamento de CPU mais vantajoso combine GPUs para fazer pedidos, arriscando que as CPUs não sejam vendidas.

O pessoal da AMD queima incenso e adora Buda todos os dias, esperando que possamos melhorar a ecologia”, disse um executivo de uma empresa ecológica que segundo ele, atualmenteJá existem mais de 10 fornecedores de nuvem e clientes To B na China, na adaptação e verificação de efeitos relacionados aos chips AMD.

Em comparação com os ansiosos fabricantes nacionais de chips, a vantagem dos gigantes estrangeiros de chips no nível de hardware é que eles possuem processos avançados e capacidade de produção HBM. Portanto, não há uma grande lacuna entre os produtos AMD e Intel em comparação com os produtos Nvidia, melhor ainda. até certo ponto.

Dados oficiais mostram que o produto da AMD (MI300X lançado em dezembro de 2023) afirmava anteriormente que o poder de computação é 1,2 vezes maior que o do Nvidia H100;

O produto da Intel (Gaudi 3 lançado em abril de 2024) também excede em muito o H100 em eficiência energética e desempenho de inferência. Claro, também é mais barato. O preço da GPU da AMD é cerca de 70 a 80% dos produtos de referência da Nvidia.

Mas todos os fabricantes agressivos com a Nvidia enfrentam um problema comum:Não importa quão forte seja o nosso hardware, ele é ofuscado pelo software fraco, assim como as deficiências de um barril.

Numa época em que as GPUs só podiam ser usadas para computação gráfica, a plataforma de software CUDA lançada pela NVIDIA equivalia a fornecer aos desenvolvedores um conjunto de interfaces de programação, permitindo-lhes escrever livremente programas de computação na GPU usando a linguagem de programação que estão mais familiarizados. com.

"Deixe-me fazer uma analogia. Por que o CUDA não pode superá-lo? É como se você aprendesse um idioma e trabalhasse nesse idioma há tantos anos. Se eu pedir para você mudar de idioma, você se sentirá desconfortável? você não está disposto?" Um funcionário de uma empresa de chips deu um exemplo à 36Kr.

CUDA é a barreira mais profunda ao ecossistema de software da Nvidia.Mesmo a Intel e a AMD, que são grandes empresas, não conseguem ultrapassar as outras num curto espaço de tempo.

Um ex-funcionário da equipe de GPU da Intel disse ao 36Kr que eles implantaram mais de 3.000 engenheiros em todo o mundo e investiram três ou quatro anos, mas apenas melhoraram a precisão de 0% para 4% - eles usaram chips Intel para converter um retrato e esperaram Depois de muito tempo, a informação se perdeu a ponto de “não ser mais um rosto humano”.


Kissinger, CEO da Intel, lança série de chips Gaudi

A falácia do “ovo e da galinha” reaparece. É precisamente porque poucas pessoas usam GPUs AMD e Intel, e ainda menos pessoas usam suas plataformas de software correspondentes (ROCm, oneAPI), por isso é difícil para qualquer um utilizar plenamente suas verdadeiras capacidades de hardware.

"O CUDA da NVIDIA sempre teve muitos desenvolvedores iterando em algoritmos, ajudando a NVIDIA a tornar a inferência e o treinamento muito eficientes. Como resultado, a NVIDIA sempre teve poder de barganha e sempre sabe o que seu próximo chip deve fazer, mas esta é a AMD. É uma dor de cabeça para a Intel e para a Intel”, disse sem rodeios o CEO de uma empresa do ecossistema AMD.A ferramenta de software ROCm da AMD é “exatamente como o CUDA da NVIDIA há 20 anos”.

Mas para os clientes a jusante, é aqui que surge o risco.

Verificar um modelo grande é inerentemente um experimento com incerteza. Se você ainda quiser executá-lo em um chip que não foi verificado, é equivalente a juntar duas variáveis ​​​​incontroláveis ​​– abandonar a Nvidia significa ter que pagar uma quantia enorme de custos de migração. incerteza.

Apesar disso, o cerco e a supressão da Nvidia ainda é uma batalha que deve ser travada pela AMD e pela Intel.

A arquitetura global de chips é dividida em três partes: a arquitetura X86 orienta o campo de PC e é dominada pela Intel e AMD; o mercado móvel é dominado pela Arm e a NVIDIA domina o mercado de inteligência artificial;

Em quase um ano e meio desde que a nova revolução da IA ​​​​inaugurou a era, a Nvidia uma vez ultrapassou a marca de valor de mercado de US$ 3 trilhões, que agora equivale ao valor de mercado combinado de 7 Intel + AMD.

Depois de 20 anos, o “cerco e supressão” da Nvidia pelos gigantes dos chips,Foi mais uma batalha ansiosa e também um contra-ataque tardio.

crack de verdade

Quando as empresas nacionais de chips de IA formam um exército de formigas, a AMD e a Intel dão tudo de si. A Nvidia está realmente abalada diante de tal cerco?

As fissuras no império da NVIDIA estão se espalhando silenciosamente.

Um sinal sobre o qual a Nvidia deve estar vigilante é que OpenAI, Google, Microsoft... esses grandes clientes que recarregaram a Nvidia por causa de sua crença na IA estão dando o primeiro passo para "anti-Nvidia".

As fichas de desenvolvimento próprio são um jogo de xadrez planejado por várias empresas há muito tempo. Um ex-funcionário principal da equipe de TPU do Google disse a 36Kr que o Google, que usa 1/4 do poder de computação mundial,“Podemos não comprar chips externos até o final do ano.”

No passado, o TPU desenvolvido pelo próprio Google era mais baseado em considerações de custo. Por exemplo, temia-se que a Nvidia aumentasse os preços à vontade ou o fornecimento não fosse estável o suficiente.“Quase independentemente do custo e custo.”

OpenAI tem inúmeros preparativos. Eles planejam arrecadar até 7 trilhões de dólares para construir um novo império de chips de IA.

Internamente, 36Kr também aprendeu com muitas fontes——Atualmente, os maiores compradores domésticos da Nvidia, Alibaba, Byte e Baidu, estão basicamente pesquisando secretamente chips para treinamento de grandes modelos.

Progresso do produto de fabricantes de nuvem estrangeiros, fabricantes de grandes modelos e fabricantes de chips estrela, coleta e mapeamento abrangente de informações de 36 Kr

No entanto, afinal, os chips de desenvolvimento próprio são uma solução de longo prazo. Outro plano de curto prazo para esses grandes clientes é experimentar os produtos dos concorrentes da Nvidia e reduzir sua dependência da Nvidia.

AMD é este Plano B. Um membro da AMD disse a 36Kr,Os produtos GPU da AMD já abriram grandes mercados de clientes na Europa, nos Estados Unidos, na Coreia do Sul e em outros lugares——A Microsoft comprou dezenas de milhares de produtos AMD, e Tesla, Midjourney, o Laboratório Nacional dos EUA e a Korea Telecom também receberam os produtos em lotes.

Na China, Chen Wen, funcionário do ecossistema AMD, disse que centenas de placas aceleradoras AMD de um determinado modelo serão enviadas em 2023. Embora não sejam muitas, “mas este produto AMD quase nunca foi encontrado na China antes”.

De acordo com estimativas otimistas anteriores da AMD, as GPUs de data center trarão até US$ 2 bilhões em receitas para a AMD até o final de 2024.

Embora o exército de formigas dos fabricantes chineses de chips ainda não represente uma ameaça substancial para a Nvidia, suas faíscas estão gradualmente ganhando força.

36Kr aprendeu que agora as vendas de chips domésticos de treinamento e inferência saltaram para um novo nível - um sinal gratificante e positivo é que as empresas de Internet e grandes empresas modelo, que são reconhecidas como as mais difíceis de obter pedidos na China, começaram a investir em chips nacionais O fabricante abriu a boca.

De acordo com 36Kr, atualmente,A Ascend Chip tem lutado para entrar no sistema de empresas de Internet, incluindo o Baidu.

Além disso, empresas nacionais de IA, como Zhipu AI, MiniMax e Step Star, estão treinando grandes modelos com trilhões de parâmetros. No entanto, quando os chips de última geração da NVIDIA são limitados, as grandes empresas de modelos geralmente escolhem “treinamento misto” (ou seja, NVIDIA +). outros chips), como,O cluster da Zhipu AI reserva quase metade dos chips Shengteng.

Além disso, os produtos de chip de inferência de Tianshu Zhixin e Suiyuan enviaram dezenas de milhares de peças desde o ano passado. Os canais de remessa incluem grandes centros domésticos de computação inteligente. Chip Kunlun Aqui, as remessas cumulativas das duas últimas gerações de chips de inferência são de 30.000 a 50.000 peças, com as remessas do Baidu e de canais externos representando metade cada.

“Os atuais níveis de preços e fornecimento da Nvidia estão no limite de testar se e como todos podem fazer isso.”, disse um membro da indústria sem rodeios.


Fundador da NVIDIA, Huang Jenxun Picture Source Visual China

Se você olhar mais adiante nos próximos três a cinco anos, novas ameaças à Nvidia surgirão gradualmente.

Novas arquiteturas de chips AI além de GPUs também apareceram na indústria - por exemplo, a empresa de chips do Vale do Silício Groq, que lançou anteriormente a arquitetura LPU, afirma rodar grandes modelos de linguagem “dez vezes mais rápido” do que as GPUs da Nvidia;

Há também o chip Etched do Vale do Silício, que lançou um chip ASIC de modelo grande, alegando ser “uma ordem de magnitude mais rápida” que as GPUs Nvidia. Essas startups de chips são apoiadas por linhas de investimentos estelares como OpenAI.

36Kr aprendeu que novas startups de chips de IA surgiram na China este ano. Por exemplo, Xangai recentemente apoiou secretamente duas novas empresas de chips de IA.

Yang Gongyifan, CEO da Zhonghao Xinying, uma empresa doméstica de TPU, disse que a taxa geral de utilização do transistor da GPU é de apenas 20%. Na verdade, as deficiências são óbvias, embora novas arquiteturas como TPU e ASIC não sejam muito versáteis. , seus transistores A taxa de utilização pode chegar a 60% -100%. "Nos próximos três a cinco anos, definitivamente haverá um grande número de chips de IA fora da arquitetura GPU no país e no exterior."

Um pouquinho é suficiente para abalar a gigante NVIDIA.

“Você acha que a NVIDIA parece não ter rivais externos? Realmente não é o caso”, disse um funcionário da NVIDIA ao 36Kr. Como Huang Renxun costuma dizer: “Temos apenas 30 dias antes da falência”.

A NVIDIA vem se preparando há mais de dez anos e então esbarrou em uma empresa genial como a OpenAI, e eles catalisaram conjuntamente o milagre da NVIDIA. No passado, não faltavam à indústria de semicondutores histórias sobre ultrapassagens de gigantes nas curvas.

A fumaça da batalha para cercar e suprimir a Nvidia já foi acesa.

fim

fim