notícias

dpu "o terceiro chip principal": os próximos três anos são o período de janela para implementação comercial

2024-09-11

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

como o terceiro chip principal em data centers depois da cpu e da gpu, o dpu continuou a ganhar popularidade nos últimos anos.
dpu, ou seja, processador de dados, possui poderosos recursos de processamento de rede, bem como funções de segurança, armazenamento e descarregamento de rede, que podem liberar o poder de computação da cpu e completar tarefas de processamento de dados, como processamento de protocolo de rede, criptografia e descriptografia de dados, e compactação de dados nas quais a cpu não é boa. ele também gerencia, expande e agenda vários recursos separadamente, ou seja, lida com tarefas que "a cpu não consegue executar bem e a gpu não consegue executar" para obter redução de custos e eficiência do data center. melhoria.
na era da ia, a quantidade de dados que os centros de computação inteligentes precisam processar explodiu, podendo liberar o poder computacional efetivo dos centros de computação inteligentes e resolver o problema de redução de custos e melhoria da eficiência da infraestrutura. estão aumentando gradativamente.
três nós em um, uma solução mais adequada para a era da computação inteligente
"o conceito de dpu foi divulgado pela nvidia há quatro anos. depois de adquirir a empresa israelense mellanox, a nvidia se tornou a primeira fornecedora do setor de soluções completas para data centers que incluem cpu, gpu e dpu em entrevista exclusiva ao china business news." , lu sheng, fundador da yuan, disse que xinqiyuan foi um dos primeiros fabricantes nacionais envolvidos em pesquisa e desenvolvimento de dpu, que remonta a 2018. naquela época, também era chamado de smartnic.
"no passado, as placas de rede tradicionais carregavam funções de transmissão de rede. mais tarde, nasceram as placas de rede inteligentes, que gradualmente evoluíram para dpu há quatro anos, vice-presidente sênior da zhongke yushu (beijing) technology co., ltd.." que se concentra na pesquisa, desenvolvimento e design de chips de computação inteligentes, disse à first finance.
em 2020, a estratégia de produto dpu lançada pela nvidia posicionou-o como o “terceiro chip principal” no data center depois da cpu e gpu, que desde então detonou o conceito dpu.
hoje, o dpu se tornou um processador especializado emergente no data center, especialmente projetado para acelerar tarefas de segurança, rede e armazenamento no data center, fornecendo energia para cenários de computação de alta largura de banda e baixa latência com uso intensivo de dados. a função principal da dpu é assumir tarefas de rede, armazenamento, segurança e gerenciamento originalmente executadas pela cpu, liberando assim recursos da cpu e melhorando a segurança dos dados e a proteção da privacidade.
"as soluções de centro de computação inteligente da nvidia são, na verdade, integradas em três u. o servidor dgx a100 da nvidia há três anos e a série dgx gh200 subsequente incluem cpu, gpu e dpu. claro, também existem outros componentes na dpu. existem redes inteligentes placas como rdma, que na verdade podem ser classificadas como dpus, são essencialmente a mesma coisa. portanto, dessa perspectiva, o atual líder do setor, ou a direção geralmente aceita, é adicionar cpus em centros de computação inteligentes. ." zhang yu disse que as soluções gerais de data center são mais cpu mais armazenamento mais rede. em alguns cenários nativos da nuvem, o processamento de rede de dados de baixa latência e alto rendimento também é necessário, e os cenários de computação inteligente exigem rede. os requisitos de desempenho de processamento são mais alto.
“se a cpu for comparada a um cérebro, usado para controle geral, então a gpu é mais como um músculo, usado para fornecer poder de computação paralelo sólido e abundante, enquanto a dpu é mais como vasos sanguíneos e nervos, que transferem os dados que a gpu precisa calcular, transportada para o servidor através da dpu para completar a troca de instruções de controle e conversão de protocolo", disse zhang yu.
"a cooperação de múltiplas pus é, na verdade, uma atualização da arquitetura de computação geral. da arquitetura de uso geral baseada em cpu do passado à arquitetura de computação baseada em acelerador, a relação custo-benefício da solução de computação geral é melhorada através da cooperação de cpu, gpu, dpu, npu, etc." zhang yu disse: "atualmente, em termos de tecnologia, dpu tornou-se gradualmente maduro e seus limites também são relativamente maduros. criptografia e descriptografia de segurança de rede, confiança zero e rede. o descarregamento tornou-se basicamente as funções que a dpu pode realizar de forma estável."
reduzir o investimento capex e o consumo de energia, com um certo desempenho de custos
como mecanismo de descarregamento da cpu, a função mais direta da dpu é assumir os serviços da camada de infraestrutura, como virtualização de rede e pool de recursos de hardware, e liberar o poder de computação da cpu para aplicativos da camada superior. liberar o poder de computação do centro de computação inteligente e melhorar o índice de eficiência energética.
"a nvidia admitiu anteriormente que a eficiência do chip de poder de computação de seu servidor de ia generativo da geração anterior era de apenas 40% da capacidade projetada. medimos que era apenas mais de 30%. isso significa que a maior parte do poder de computação está ociosa. o principal a razão é que no cluster leva tempo para esperar que as variáveis ​​intermediárias geradas pelo cálculo concluam a sincronização dos dados. a capacidade do canal de rede limita o limite superior da base de poder computacional, e é justamente aí que está o valor real de. a dpu mente. isso empurrou a dpu novamente para a linha de frente.
na era da ia, onde a quantidade de dados está explodindo, a dpu pode não apenas ajudar a construir uma nova base de poder de computação com baixa latência, grande largura de banda e caminhos de dados de alta velocidade, mas também pode agendar, gerenciar e gerenciar com segurança e eficiência. conecte esses recursos distribuídos de cpu e gpu, liberando assim o poder de computação efetivo do centro de computação inteligente. portanto, a implantação de dpu pode reduzir o investimento único de capex (despesas de capital) do data center. dados da cisco mostram que através da tecnologia de virtualização, as empresas podem reduzir o número de servidores em até 40% e, ao mesmo tempo, melhorar a utilização de recursos.
as dpus, por outro lado, melhoram a eficiência energética do data center, acelerando as tarefas de rede, segurança e armazenamento por meio de hardware dedicado.
lu sheng apresentou que tomando como exemplo o cenário de aplicação do sd-wan da china mobile na província de zhejiang, "a solução integrada de software e hardware criada pela placa de rede xinqiyuan dpu realiza a transferência de serviços de segurança de rede. em comparação com o sd de software puro tradicional - solução de rede wan, a eficiência de uma única máquina aumentou de 6 a 8 vezes, e o projeto geral também economizou 80% do investimento na implantação de servidores e dos custos anuais de software, reduzindo significativamente o investimento em capex, além disso, devido à redução da implantação da máquina, a capacidade do data center; reduz o consumo de energia e estima-se que economize mais de 3 milhões de quilowatts-hora de eletricidade por ano, ao mesmo tempo que reduz significativamente os custos operacionais do data center.”
em termos de custo, o china business news aprendeu que os custos de p&d e produção de dpu são relativamente altos, especialmente quando se utilizam processos avançados, por isso o preço é mais alto. no entanto, devido à implantação de soluções de dpu, não só pode reduzir o número. do equipamento do servidor, mas também permite operações subsequentes. o consumo de energia é economizado durante o processo de cálculo, de modo que o custo geral do sistema ainda é econômico, mas também deve ser discutido com base em cenários e aplicações específicas.
os próximos três anos serão um período crítico para a implementação comercial
no entanto, o atual aumento na penetração de dpu ainda enfrenta resistência.
uma pessoa relevante da china science and technology star, uma instituição de capital de risco que se concentra no investimento inicial na área de tecnologia pesada, disse ao china business news que a dpu, como arquitetura de virtualização para colaboração de software e hardware, precisa estar efetivamente conectada com o pilha de software de virtualização em execução na cpu ao mesmo tempo, o design de hardware da dpu deve levar em consideração a compatibilidade e integração com os sistemas existentes; em segundo lugar, a arquitetura e as interfaces da dpu ainda não formaram um padrão unificado e há diferenças nos produtos; diferentes fabricantes, o que traz desafios aos usuários no uso, manutenção e atualizações, além disso, o ecossistema de software ainda não está maduro e carece de ferramentas completas de desenvolvimento, drivers e suporte ao sistema operacional, “mas já existem empresas fazendo isso”.
lu sheng disse que a dpu requer um conjunto de instruções dedicado e eficiente, que também é a sua principal competitividade. os dois terços restantes do trabalho consistem em construir um ecossistema em torno do conjunto de instruções. maturidade da construção ecológica determina a velocidade de comercialização do produto.
no geral, a indústria de dpu ainda é dominada por empresas estrangeiras. as três gigantes nvidia, broadcom e intel têm uma participação relativamente elevada. empresas de tecnologia como amazon e microsoft também estão seguindo o exemplo. internamente, grandes empresas como a china mobile e a alibaba também estão a desenvolver dpus dedicadas, e start-ups como xinqiyuan, zhongke yushu, dayu zhixin, etc., também alcançaram resultados ou progressos correspondentes.
"o desenvolvimento da tecnologia dpu no país e no exterior está no mesmo estágio, mas as empresas estrangeiras têm uma acumulação mais profunda. na minha opinião, a indústria dpu na verdade avançou gradualmente em direção ao estágio de maturidade e rápida implementação. os países estrangeiros podem ir mais cedo e mais rápido do que os domésticos ", disse zhang yu.
em termos de comercialização de dpu, atualmente apenas grandes fabricantes nacionais de nuvem, como huawei, alibaba e zte, bem como algumas novas forças de dpu, como xinqiyuan e zhongke yushu, conseguiram uso comercial. a academia de tecnologia da informação e comunicação prevê que a taxa de penetração de dpu nos data centers do meu país atingirá 12,7% em 2025.
zhang yu acredita que no estágio atual da dpu, o mais importante é a profunda integração com a nuvem na camada iaas, especialmente como fornecer aos clientes soluções iaas de software puro abrangentes, convenientes e transparentes, para que eles possam migrar sem problemas para usuários dpu para oferecer suporte a esta solução em nuvem altamente eficiente em termos energéticos.
"a migração desta área requer os esforços conjuntos da indústria e durará muito tempo, mesmo em anos." zhang yu disse: "a amazon cloud está se movendo mais rapidamente. eles têm fortes capacidades de p&d e concluíram iaas em dpu. mas para a maioria das empresas nacionais, o ritmo não será muito grande e poderão ser usados ​​​​de forma transparente desde os pontos mais dolorosos, como desinstalação do ovs, atualizações de rede, etc. "
"a comercialização de dpu não depende apenas do campo iaas dos data centers tradicionais, mas também inclui segurança de rede, armazenamento de alto desempenho, comunicações de cluster e muitas outras indústrias e campos." para segurança" por muitos anos. direção, o dpu é aplicado a produtos como firewalls e gateways de segurança. ele agora entrou na linha de produtos de segurança de rede sangfor e se tornou uma placa de expansão padrão, resolvendo problemas da indústria, como a falta de cpu intel capacidades de processamento de fluxo de elefante.
"a julgar pela tendência atual de desenvolvimento da indústria, se o desenvolvimento da tecnologia atender às expectativas, haverá uma explosão de 2025 a 2027." a pessoa relevante de zhongke chuangxing mencionada acima disse que a razão é que, com o desenvolvimento da economia digital, a ia, e indústria de computação em nuvem com o desenvolvimento, o mercado de servidores dará início a um crescimento, especialmente nas áreas de finanças, governo e usuários avançados, que não apenas exigem um grande número de dpus para processar dados e melhorar a eficiência da computação, mas também exigem dpus para aproveitar a segurança.
"os chips dpu têm sido realmente usados ​​em grande escala e a taxa de crescimento atual é de 20% a 30% ao ano. no entanto, a característica da indústria do dpu é que ele precisa manter a estabilidade e funcionar de forma estável no cluster por vários meses antes de expandir o cluster." zhang yu disse, e mais importante, com base no desenvolvimento da indústria nacional de informação e inovação, estes dois ou três anos serão um período muito crítico, e é uma janela de tempo crítica que cada o fabricante de dpu precisa entender.
"o dpu ainda não é um produto padronizado. o processo de comercialização e expansão de volume requer um polimento profundo com base na demanda do mercado e em diferentes cenários de aplicação. requer a colaboração de fabricantes upstream e downstream, desde projetos piloto de pequena escala de algumas centenas peças para implantação em larga escala de dezenas de milhares de peças "milhares de milhas são alcançadas através de pequenos passos." avançar juntos no caminho da comercialização da cpu + gpu + dpu doméstica integrada 3u.
(este artigo vem do china business news)
relatório/comentários