notícias

uma análise direta do status atual dos chips domésticos de ia: produção de sangue de gpu, ataques de tpu, chips se tornando uma tendência e gargalos de rede

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

autor |

a xinxi informou em 6 de setembro que o global ai chip summit (gacs 2024) anual foi inaugurado hoje em pequim. o local estava lotado e o número de espectadores da transmissão ao vivo na nuvem atingiu 1,2 milhão.

▲havia uma grande multidão dentro e fora do local.

a conferência foi patrocinada pelo core east west e intelligent orangutan da zhiyi technology. com o tema "construindo estradas centrais juntos na era da computação inteligente", a conferência convidou mais de 50 convidados das áreas de chips de ia, chiplets, risc-v, inteligentes. clusters de computação, ia infra e outros campos os convidados compartilharão informações úteis na reunião.

é o quinto aniversário da fundação do unicórnio gpgpu biren technology na conferência, a biren technology anunciou que alcançou um avanço na tecnologia de núcleo de treinamento misto multi-core e criou uma solução de treinamento colaborativo de gpu heterogênea hgct. na indústria, ele pode suportar 3 ou mais tipos heterogêneos de treinamento de gpu no mesmo modelo grande.

▲biren technology lança solução doméstica de treinamento colaborativo de gpu heterogênea hgct

gong lunchang, cofundador e ceo da zhiyi technology, fez um discurso como organizador. este é o sétimo ano em que o global ai chip summit é realizado. a cúpula se tornou a conferência da indústria mais influente neste campo na china e. é um bom lugar para entender o desenvolvimento de chips de ia no país e no exterior. janelas importantes dinâmicas.

▲ gong lunchang, cofundador e ceo da zhiyi technology

o global ai chip summit dura dois dias. o local principal inclui a cerimônia de abertura e três sessões principais (arquitetura de chip de ia, chip de ia de data center, chip de ia de ponta. os sublocais incluem chiplet technology forum, intelligent computing cluster technology forum). e fórum de inovação risc-v.

na cerimônia de abertura, yin shouyi, professor da universidade de tsinghua e vice-reitor da escola de circuitos integrados, fez um discurso intitulado "discussão sobre o caminho de desenvolvimento de chips de alta potência computacional: da arquitetura de computação à arquitetura integrada", revisando sistematicamente chips de alto poder de computação. desafios técnicos existentes e analisar de forma abrangente cinco caminhos tecnológicos inovadores: chips de fluxo de dados, chips integrados de armazenamento e computação, chips reconfiguráveis, chips integrados tridimensionais e chips de nível wafer.

hoje, 21 especialistas, empresários e executivos das principais universidades, institutos de pesquisa e empresas de chips de ia irão compartilhar. entre eles, a sessão de diálogo de alto nível convidou representantes de três startups de chips de ia para debater apaixonadamente, nomeadamente biren technology, um unicórnio de chips domésticos de alta potência, aixin yuanzhi, um unicórnio de chips de ia do lado do dispositivo e do lado da borda, e uma empresa que apenas a lingchuan technology, uma jovem startup de chips de ia fundada há meio ano. eles se concentraram em discutir o status atual, as práticas mais recentes e as direções avançadas da indústria de chips de ia.

1. resolver os desafios de oferta e demanda do poder de computação de modelos em grande escala e da arquitetura inovadora para superar os gargalos de desempenho

yin shouyi, professor da universidade tsinghua e vice-reitor da escola de circuitos integrados, explicou as dificuldades entre a oferta e a demanda de poder de computação na era dos grandes modelos: a tecnologia de chips enfrenta limites de redução, fazendo com que o poder de computação aumente trazido por os dividendos do processo são insustentáveis; o sistema enfrenta gargalos de redução de escala, largura de banda de comunicação insuficiente leva à perda de desempenho do sistema.

a oportunidade de resolver esses dois problemas principais reside na inovação conjunta da arquitetura de computação de chips e da arquitetura integrada: a inovação na arquitetura de computação permite que cada transistor seja totalmente utilizado e exerça um poder de computação mais forte. a inovação na arquitetura integrada permite que a escala do chip se desenvolva; os limites.

existem atualmente cinco novos caminhos tecnológicos para o desenvolvimento de chips de alto poder computacional: chips de fluxo de dados, chips reconfiguráveis, chips integrados de armazenamento e computação, chips integrados tridimensionais e chips de nível wafer. nenhum desses caminhos depende completamente dos processos de fabricação mais avançados, o que ajudará a abrir novo espaço para a indústria nacional de chips melhorar o poder computacional.

▲ yin shouyi, professor da universidade tsinghua e vice-reitor da escola de circuitos integrados

a amd criou uma linha de produtos abrangente no campo de infraestrutura de ia ponta a ponta, abrangendo desde servidores de data center, pcs de ia até dispositivos inteligentes integrados e de borda, e fornece software de código aberto de ia líder e um ecossistema aberto. a plataforma de processador cpu da amd projetada com base na arquitetura avançada zen4 e os aceleradores da série mi baseados na arquitetura cdna3 para raciocínio e treinamento de ia foram adotados por gigantes como a microsoft.

de acordo com wang hongqiang, diretor sênior da divisão de inteligência artificial da amd, a amd também está promovendo infraestrutura de rede de alto desempenho (ualink, ultra ethernet) em data centers, o que é crucial para que as estruturas de rede de ia suportem comutação rápida e latência extremamente baixa, e para expandir o desempenho do data center de ia é importante.

a amd está prestes a lançar a próxima geração de pcs ai de alto desempenho. seu ryzen ai npu baseado na arquitetura xdna de segunda geração pode fornecer potência de computação 50tops e aumentar a taxa de eficiência energética em 35 vezes a da arquitetura de uso geral. impulsionadas pelo esforço da ai pc por privacidade, segurança e autonomia de dados, importantes cargas de trabalho de ia estão começando a ser implantadas em pcs. como um dos principais fornecedores mundiais de infraestrutura de ia, a amd está disposta a trabalhar com clientes e desenvolvedores para construir um futuro transformador.

▲wang hongqiang, diretor sênior da divisão de inteligência artificial da amd

desde 2015, a qualcomm vem inovando continuamente o design de hardware npu com base em mudanças nos casos de uso de aplicativos de ia. representado pelo snapdragon 8 de terceira geração, o qualcomm ai engine adota uma arquitetura de computação heterogênea que integra vários processadores, como cpu, gpu e npu. entre eles, o qualcomm hexagon npu otimiza o desempenho e a eficiência energética por meio de memória em grande escala, fonte de alimentação dedicada para aceleradores, atualizações de microarquitetura e outros designs. a ia tem casos de uso ricos e requisitos variados de poder de computação. portanto, a demanda por computação heterogênea e integração de processador existirá por um longo tempo, o que também trará uma série de melhorias no desempenho máximo, eficiência energética, custo, etc.

a linha de produtos da qualcomm cobre uma ampla gama de cenários de aplicativos de ponta, como telefones celulares, pcs, xr, automóveis e iot. ela pode ajudar os desenvolvedores a usar as soluções de software e hardware de ia da qualcomm para aceleração de algoritmos em diferentes formas de produtos, trazendo riqueza. de benefícios para os consumidores. finalmente, wan weixing, chefe da qualcomm ai product technology china, também anunciou que a plataforma móvel snapdragon de próxima geração equipada com a mais recente cpu qualcomm oryon será lançada no snapdragon summit que será realizado de 21 a 23 de outubro deste ano.

▲ wan weixing, chefe de tecnologia de produtos de ia da qualcomm na china

yang yue, cofundador e ceo da pingxin technology, analisou o processo de avanço da tecnologia integrada de armazenamento e computação. o surgimento e o crescimento dos chips convencionais na indústria estão intimamente relacionados às características das necessidades atuais de computação. por volta de 2015, o gargalo computacional na arquitetura computacional migrou do lado do processador para o lado do armazenamento, especialmente o surgimento das redes neurais, que acelerou. a eficiência computacional dos chips de ia com o ritmo de melhoria, a tecnologia de armazenamento e computação atraiu a atenção.

yang yue acredita que na era dos grandes modelos, a oportunidade para armazenamento integrado e tecnologia de computação é adicionar computação onde quer que haja armazenamento de dados. com o desenvolvimento contínuo de software, os chips finais baseados em armazenamento e computação amadureceram gradualmente este ano. no futuro, resolver gargalos de largura de banda de dados na nuvem pode se tornar o próximo aplicativo matador para armazenamento e chips de computação.

▲yang yue, cofundador e ceo da pingxin technology

tan zhanhong, cto da arctic xiongxin, disse que no campo da computação de alto desempenho, existem dois paradigmas diferentes no design de servidores: formato de servidor padrão e arquitetura de servidor personalizada. na forma de servidores padrão, o arctic xiongxin se concentra em alcançar um desempenho de custo mais alto por meio de soluções apropriadas de divisão e empacotamento de chips dentro da área restrita padrão na forma de servidores não padrão, oferecendo oportunidades para integração em nível de wafer, com foco na integração; de design de chips e sistemas, e co-projeto de servidores e chips, visando atingir o objetivo de "servidor como chip".

em particular, tan zhanhong enfatizou que diferentes designs de chips têm diferentes requisitos de largura de banda. por exemplo, em processos acima de 7 nm, combinados com a otimização da comunicação de implantação, muitas vezes não é necessária alta densidade de largura de banda de interconexão, portanto, o pacote avançado baseado em 2d não é necessário. pode atender aos requisitos de desempenho e alcançar uma solução econômica. o ip pb-link da arctic xiongxin baseado no "core chip interconnect interface standard" realizou oficialmente interconexão de baixo custo de embalagem e agora começou a autorizar partes externas.

▲ cto do ártico xiongxin, tan zhanhong

2. diálogo de ponta: os chips domésticos de ia melhoraram as capacidades hematopoiéticas e os produtos da start-up mais jovem foram lançados em kuaishou

zhang guoren, cofundador e editor-chefe da zhiyi technology, e ding yunfan, vice-presidente e arquiteto-chefe de software de ia da biren technology, liu li, cofundador e vice-presidente da lingchuan technology, e liu jianwei, co -fundador e vice-presidente da aixin yuanzhi, iniciou a discussão uma mesa redonda com o tema "consenso, co-criação e win-win para a implementação de chips de ia domésticos".

zhang guoren disse no início da mesa redonda que o sexto ai chip summit, iniciado por zhidongxi, coredongxi e zhiangzhi, é a conferência profissional mais antiga neste campo na china. nos últimos anos, testemunhou o boom. de chips de ia e grandes modelos o desenvolvimento também testemunhou o surgimento de uma série de "novas forças" de fabricação de núcleos domésticos.

▲zhang guoren, cofundador e editor-chefe da zhiyi technology

ding yunfan disse que os grandes chips de poder de computação são uma indústria de uso intensivo de tecnologia, talento e capital. como o unicórnio de chips com o maior financiamento público do mercado, a biren technology possui os melhores talentos. seus produtos de primeira geração foram produzidos em massa e vários clusters de cartões gpu domésticos foram lançados, que podem gerar sangue de forma independente. no entanto, a situação geral da indústria nacional de chips ainda não é fácil e ainda existe uma lacuna entre os aspectos ecológicos e os países estrangeiros.

muitos chips domésticos de ia começaram a ser implantados em data centers e centros de computação inteligentes. na opinião de ding yunfan, os produtos domésticos da nvidia não são muito econômicos. enquanto os chips domésticos puderem oferecer alto desempenho e economia, haverá um mercado. atualmente, há cada vez mais notícias sobre o lançamento da indústria nacional de chips e o aprimoramento das capacidades hematopoiéticas. a lacuna com a nvidia diminuirá gradualmente.

▲ ding yunfan, vice-presidente de tecnologia biren e arquiteto-chefe de software de ia

liu jianwei acredita que o baixo custo é uma parte muito importante e que as empresas acabarão por ter de acertar contas e o seu investimento em infra-estruturas terá de ser recuperado. liu li acredita que no futuro, em áreas segmentadas como inteligência incorporada e vídeo inteligente, a entrada de mais empresas trará maior valor do que produtos gerais, o que comprimirá as receitas e os lucros da nvidia.

lingchuan technology é uma das mais jovens startups domésticas de chips de ia. foi fundada em março deste ano e concluiu uma rodada de financiamento. os chips de processamento de vídeo inteligentes atualmente à venda foram lançados em kuaishou, representando 99% do uso em kuaishou. campo de processamento de vídeo. espera-se que o chip de inferência de poder de computação seja gravado no início do próximo ano.

na opinião de liu li, a janela do mercado de chips de ia ainda está longe de fechar. diante das vantagens dos gigantes em recursos, fundos e ecologia, as startups precisam fazer esforços em campos verticais e segmentados. a tecnologia lingchuan combina processamento de vídeo inteligente e poder de computação de inferência de ia, com o objetivo de reduzir seu custo de inferência por token para 10% do nvidia h800.

▲liu li, cofundador e vice-presidente da lingchuan technology

a aixin yuanzhi, que tem como alvo tanto os lados finais quanto os laterais, alcançou resultados notáveis ​​em participação de mercado. liu jianwei acredita que esses dois campos realizarão um circuito comercial fechado mais rapidamente. ele acrescentou que fabricar chips de ia acabará por gerar dinheiro, mas o cronograma de lucro real será afetado por fatores como os custos de implantação de ia, e as empresas devem alcançar a autogeração e o circuito fechado o mais rápido possível. no futuro, aixin yuanzhi explorará os cenários de implementação de grandes modelos no lado final e no lado da borda.

as remessas de produtos da aixin yuanzhi na área automotiva são muito impressionantes. liu jianwei disse que isso ocorre porque a tecnologia de chip subjacente de cidades e carros inteligentes é semelhante. aixin yuanzhi acumulou tecnologias maduras em cidades inteligentes e então entrou na produção em massa. alcançado em breve. ao mesmo tempo, a guerra de preços no sector automóvel promoverá a divisão industrial do trabalho, o que constitui um período de oportunidades.

▲liu jianwei, cofundador e vice-presidente da aixin yuanzhi

quanto à forma como os chips domésticos de ia podem encontrar rapidamente um nicho ecológico, liu jianwei tomou como exemplo o cenário de desenvolvimento profundo de aixin yuanzhi. basicamente, não há empresas estrangeiras em cidades inteligentes. no campo da direção inteligente, a nvidia está desenvolvendo de 0 a. 1, e de 1 a 100, o estágio que dá mais atenção aos custos é o doméstico. ding yunfan mencionou quatro elementos: garantia de fornecimento estável e confiável, economia, serviços de suporte eficientes baseados nas necessidades do cliente e eficiência e facilidade de uso. liu li acredita que devemos nos aprofundar nos campos verticais e criar soluções mais eficientes e otimizadas do que os chips de uso geral.

olhando para o futuro, liu jianwei prevê que nos próximos 4-5 anos, haverá grandes oportunidades de desenvolvimento tanto no lado do dispositivo quanto no lado da nuvem. depois que o custo de implementação na indústria for reduzido, os dados poderão obter maior valor. . liu li acredita que, à medida que os aplicativos de ia inauguram um período explosivo, haverá uma grande demanda de raciocínio no lado da nuvem. ding yunfan disse que o poder da computação de ponta ainda é escasso na china, mas a colaboração da cadeia industrial pode alcançar um desenvolvimento constante.

3. a construção de centros de computação inteligentes está em ascensão: novos avanços em gpu, tpu doméstico, chiplet estão ganhando

na sessão de chips de ia do data center realizada à tarde, yu mingyang, chefe da habana china, disse que nos últimos três anos, cerca de 50 centros de computação inteligentes liderados pelo governo foram construídos e mais de 60 estão em planejamento e construção. a construção de centros de computação inteligentes tem gradualmente de cidades de primeiro nível para cidades de segundo e terceiro níveis, e de cidades lideradas pelo governo para lideradas por empresas, os requisitos para redução de custos e ciclo de retorno do investimento também estão aumentando gradualmente.

de acordo com sua observação, o desenvolvimento de grandes modelos está se tornando cada vez mais maduro e a demanda por inferência continua a crescer. a taxa de crescimento de chips de inferência autodesenvolvidos pelos csps principais aumentará no futuro, várias empresas de chips heterogêneos poderão ser cultivadas. o lado da inferência.

a demanda por treinamento de modelos de grande porte no exterior ainda será forte, e a demanda por poder computacional para treinamento de modelos nacionais está basicamente saturada, principalmente de negócios de ajuste fino. para apoiar o desenvolvimento futuro da ia, a integração de chips, memória de alta velocidade e grande capacidade e tecnologias de interconexão privada/geral de alta velocidade desempenharão um papel fundamental.

▲ yu mingyang, chefe de havana china

a fim de resolver o problema de silos de poder de computação heterogêneos para modelos grandes, ding yunfan, vice-presidente da biren technology e arquiteto-chefe de software de ia, anunciou o lançamento da solução original de treinamento colaborativo de gpu heterogêneo da biren, hgct. esta é a primeira vez na indústria que suporta três ou mais gpus heterogêneas para treinar colaborativamente o mesmo modelo grande, ou seja, suporta treinamento misto com “nvidia + biren + gpus de outras marcas. a eficiência de comunicação é superior a 98%, e a eficiência do treinamento ponta a ponta chega a 90~95%.

bi ren está trabalhando com clientes e parceiros para promover conjuntamente o ecossistema heterogêneo de treinamento colaborativo de gpu, incluindo china telecom, zte, sensetime, state grid intelligence research institute, shanghai intelligent computing technology co., ltd., shanghai artificial intelligence laboratory, china institute of tecnologia da informação e comunicação, etc.

seus produtos foram implantados comercialmente em clusters de gpu de vários quilogramas. biren desenvolveu uma solução geral de grande modelo que integra software e hardware, otimização full-stack, colaboração heterogênea e código aberto. pela primeira vez, biren realizou a expansão e contração elástica automática de tarefas paralelas 3d de modelos grandes, mantendo a taxa de utilização do cluster em quase 100%. alcançou a recuperação automática de 100 bilhões de modelos de parâmetros em clusters de 1.000 cartões em 10 minutos. , sem falhas por 4 dias e sem interrupção por 15 dias.

▲ ding yunfan, vice-presidente de tecnologia biren e arquiteto-chefe de software de ia

zheng hanxun, cofundador e cto da zhonghao xinying, disse que os grandes modelos de ia atuais excedem em muito a complexidade computacional e os requisitos de poder de computação em qualquer momento da história da computação e exigem chips especializados que sejam melhores em cálculos de ia. comparado com a gpu, que foi originalmente projetada para renderização e processamento de imagens em tempo real, a tpu é projetada principalmente para aprendizado de máquina, modelos de aprendizado profundo e cálculos de rede neural. é altamente otimizada para operações de tensor. a eficiência do processamento foi bastante melhorada em comparação com a gpu.

o chip "snap" desenvolvido por zhonghao xinying é o primeiro chip ai de arquitetura tpu de alto desempenho produzido em massa na china. após cálculo abrangente de desempenho de computação, custo e consumo de energia, o custo unitário de computação é de apenas 50% do das principais gpus no exterior. . zheng hanxun acredita que nos estágios posteriores do desenvolvimento do modelo em grande escala, a melhor relação custo-benefício de clusters de quilo e 10.000 ka será crucial. a interconexão direta de alta velocidade entre até 1.024 chips em chips setsana será um problema. fator crítico na construção de clusters de computação em grande escala o desempenho pode exceder em muito o da gpu tradicional em várias vezes.

▲zheng hanxun, cofundador e cto da zhonghao xinying

de acordo com stephen feng, chefe de produtos de computação acelerada aberta da inspur information, à medida que a escala de parâmetros de grandes modelos aumenta, o desenvolvimento de ia generativa enfrenta quatro desafios principais: escalabilidade insuficiente do cluster, alto consumo de energia do chip, difícil implantação do cluster e baixa capacidade do sistema. confiabilidade. grande desafio. a inspur information sempre foi orientada para aplicações e centrada no sistema, estimulando a vitalidade da inovação generativa de ia por meio do sistema aberto de kaiyuan.

em termos de abertura de hardware, estabelecemos especificações oam (open acceleration module) para acelerar a implantação online de poder de computação avançado e apoiar a aceleração iterativa de grandes modelos e aplicações de ia. em termos de abertura de software, por meio da grande plataforma de desenvolvimento de modelos "yuannao qizhi" epai, criamos uma plataforma de suporte ao desenvolvimento de aplicativos de processo completo para empresas. por meio de soluções ponta a ponta, resolvemos os problemas de ilusão existentes no campo básico. modelos grandes e resolver problemas de desenvolvimento de aplicativos, como processos complexos, limites elevados, dificuldade de adaptação de vários modelos e custos elevados, acelerarão a inovação e a implementação de aplicativos de modelos grandes empresariais.

▲ stephen feng, chefe de produtos de computação acelerada aberta da inspur information

qingcheng jizhi foi fundada em 2023, com foco na área de ai infra. a equipe foi incubada no departamento de ciência da computação da universidade de tsinghua e acumulou mais de dez anos de experiência em otimização de poder de computação inteligente.

shi tianhui, cofundador da qingcheng jizhi, compartilhou que os sistemas domésticos de computação de alto desempenho estão enfrentando desafios como dificuldade de recuperação de falhas e desempenho insuficiente. eles exigem a cooperação de 10 sistemas de software básicos principais, e qingcheng jizhi já está entre eles. deles. mais da metade dos campos possuem produtos autodesenvolvidos.

atualmente, qingcheng jizhi dominou o acúmulo de tecnologia full-stack desde o compilador de nível inferior até o sistema de computação paralela de nível superior, alcançou cobertura full-stack da ecologia da indústria de grandes modelos e completou várias otimizações de inferência de alto rendimento de chips domésticos e mainstream em grande escala o modelo é rapidamente transplantado e otimizado, e o efeito de cálculo é significativamente melhorado. entre eles, o grande sistema de treinamento de modelos "bagua furnace" desenvolvido para clusters de potência computacional doméstica de ultragrande escala pode ser expandido para a escala de 100.000 servidores e é usado para treinar modelos com 174 trilhões de parâmetros.

▲shi tianhui, cofundador da qingcheng jizhi

huang xiaobo, diretor de marketing de tecnologia da xinhe semiconductor, disse que a demanda por poder de computação aumentou 60.000 vezes nos últimos 20 anos e pode chegar a 100.000 vezes nos próximos 10 anos. o armazenamento e a largura de banda de interconexão tornaram-se grandes gargalos de desenvolvimento. os sistemas integrados de chips tornaram-se uma direção importante para avanços em limitações de processos avançados e melhorias no poder de computação de alto desempenho na era pós-moore. eles têm sido amplamente utilizados em chips de grande poder de computação de ia e chips de comutação de rede de cluster de poder de computação de ia.

nesse sentido, a xinhe semiconductor fornece uma plataforma eda de simulação multifísica completa para o projeto e desenvolvimento de sistemas integrados de chiplet. a plataforma suporta modelagem paramétrica de estruturas de interconexão em projetos de processos convencionais. seus recursos de simulação são 10 vezes mais rápidos do que outras plataformas. ela também possui análise de protocolo hbm/ucie integrada para melhorar a eficiência da simulação. ele ganhou muitos prêmios de líderes nacionais e estrangeiros. os fabricantes de design de chips de poder de computação de ia o usam para ajudar a acelerar a implementação de produtos de sistema integrado de chiplet de grande poder de computação.

▲ huang xiaobo, diretor de marketing de tecnologia da xinhe semiconductor

durante o treinamento de grandes modelos, a infraestrutura de rede representa 30% do custo, destacando a importância do desempenho da rede. de acordo com zhu jundong, cofundador da qimo e vice-presidente de produtos e soluções, a rede tornou-se o gargalo do desempenho da computação inteligente. a construção de uma rede de ia requer a integração de três redes, nomeadamente interconexão entre redes de cluster, interconexão dentro de gabinetes. e interconexão dentro de chips.

grandes clusters de computação inteligente exigem interconexão de alto desempenho, e modernizar rdma e chiplets tornaram-se tecnologias-chave. para otimizar o rdma, a série de núcleos de aceleração de rede ndsa da qimo é baseada em uma arquitetura de streaming programável de vários núcleos e usa um mecanismo de dados de alto desempenho para obter fluxo de dados de alto desempenho e aceleração de dados flexível. o gpu link chiplet "ndsa-g2g" lançado pela ge é baseado em infraestrutura ethernet e por meio de mecanismo de dados de alto desempenho e tecnologia de interface d2d, ele pode atingir alta largura de banda de rede scale-up de nível terabyte, e seu desempenho é comparável ao referência em tecnologia de interconexão global.

▲zhu jundong, cofundador da qimo e vice-presidente de produtos e soluções

alphawave é uma empresa que fornece soluções de design ip, chiplet e asic para aplicações de hpc, ia e redes de alta velocidade. guo dawei, seu diretor de negócios sênior na região ásia-pacífico, compartilhou que, em resposta aos problemas enfrentados durante a transmissão de dados, os produtos alphawave ip têm uma taxa de erro de bits 2 ordens de magnitude menor que os produtos concorrentes. integração e verificação, e estão profundamente integrados ao ecossistema arm. eles também podem fornecer suporte completo ao ciclo de vida dos socs dos clientes.

em termos de chips, a alphawave ajuda os clientes a encurtar o ciclo, reduzir custos e melhorar o rendimento e a velocidade de iteração. ela agora fabricou o primeiro chiplet de conexão io multiprotocolo do setor, que foi lançado este ano. em termos de chips customizados, a alphawave concentra-se principalmente em processos abaixo de 7nm e pode completar todo o processo, desde as especificações até a saída de fita, de acordo com as necessidades do cliente. atualmente, alcançou mais de 375 saídas de fita bem-sucedidas, com um dppm inferior a. 25.

▲guo dawei, diretor sênior de negócios da alphawave região ásia-pacífico

conclusão: a inteligência downstream está aumentando e os chips de ia estão enfrentando oportunidades históricas

no caminho para o tópico final da inteligência artificial geral, a forma dos algoritmos de ia continua a mudar e os chips de ia seguem o exemplo. quando o cascalho antigo encontra a inteligência das máquinas do futuro, a tecnologia e a sabedoria da engenharia se fundem e colidem. chips de ia com design requintado entram em clusters de computação e entram em milhares de lares, apoiando a evolução da vida baseada em silício.

de centros de computação inteligentes e direção inteligente a pcs com ia, telefones celulares com ia e novos hardwares de ia, a tendência da inteligência downstream trouxe uma nova onda de oportunidades históricas para chips de ia ancorando diferentes cenários. algoritmos e aplicações de ia generativos em rápido desenvolvimento continuam a desbloquear novos desafios de poder de computação. a inovação tecnológica e a demanda do mercado estão promovendo duplamente a expansão do mercado de chips de ia e diversificando o cenário competitivo de chips de ia.

em 7 de setembro, o 2024 global ai chip summit continuará a fornecer informações intensivas: uma sessão especial sobre inovação na arquitetura de chips de ia e uma sessão especial sobre chips de ia de ponta/final serão realizadas no local principal, e o "2024 china's as 20 principais empresas de soluções de cluster de computação inteligente" e "2024 existem duas listas das "10 principais empresas emergentes de chips de ia da china"; o fórum de tecnologia de cluster de computação inteligente e o fórum de inovação de chip de computação risc-v da china serão realizados no sublocal; .