notícias

2024 Open Computing China Summit: A abertura acelera o desenvolvimento da IA ​​e são lançadas especificações de módulos de poder de computação aberta

2024-08-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

China News Service, Pequim, 12 de agosto (Yuan Jiawei Xia Bin) A Cúpula de Computação Aberta da China de 2024 foi realizada recentemente em Pequim. Como a computação aberta acelera o desenvolvimento da inteligência artificial tornou-se o foco da conferência. Na reunião, a especificação "Open Computing Module (OCM)" foi lançada oficialmente. O primeiro grupo de membros inclui China Electronics Standards Institute, Baidu, Xiaohongshu, Inspur Information, Lenovo, Super Fusion, Intel, AMD e outras instituições e empresas. Esta é a primeira especificação de design de módulo de computação de servidor doméstico. As indústrias upstream e downstream esperam estabelecer conjuntamente unidades de módulo de computação padronizadas, construir um ecossistema industrial de cooperação aberta, inovação integrada e estimular o desenvolvimento inovador de tecnologia de inteligência artificial.

Legenda: A especificação "Open Computing Module (OCM)" foi lançada oficialmente. Fotografia: Foto cedida pela organizadora.

Esta cúpula é organizada conjuntamente pela comunidade de computação aberta OCP e pela organização de padrões abertos OCTC (Comitê de Trabalho de Padrões de Computação Aberta da Associação de Tecnologia de Padronização da Indústria Eletrônica da China). Com o tema "Colaboração Aberta: Colaboração, Inteligência, Inovação", ela se concentra em dados. infraestrutura central, inteligência artificial, inovação inteligente, ecologia de computação aberta, desenvolvimento de computação verde, sistemas abertos e CXL e outros tópicos, incluindo Baidu, Alibaba Cloud, Banco Industrial e Comercial da China, ByteDance, Samsung, Inspur Information, NVIDIA, Flextronics, Solidigm, Intel, 21Vianet, etc. Empresas, bem como mais de mil engenheiros de TI e profissionais de data center participaram da conferência.

O rápido desenvolvimento da inteligência artificial generativa trouxe cenários de aplicativos inteligentes mais ricos, e a prosperidade dos aplicativos inteligentes exigirá inevitavelmente mais poder de computação para apoiar o raciocínio. Como um poder de computação mais comum e mais fácil de obter, o poder de computação geral Assim que tiver. o poder da computação de IA, obviamente acelerará enormemente o processo de inteligência.

Zhao Shuai, gerente geral da Inspur Information Server Product Line, disse sem rodeios: “Não apenas chips de IA, todos os cálculos são de IA, e o poder de computação geral também deve ter recursos de computação de IA. No entanto, a iteração atual dos processadores de CPU também é muito rápida. e as rotas técnicas de diferentes plataformas são Os requisitos são diferentes. Com mais de dez tipos de chips, pode ser necessário desenvolver centenas de servidores.

No entanto, os atuais padrões de protocolo de CPU para diferentes arquiteturas, como x86, ARM, RISC-V, etc. não são unificados, resultando em enormes esforços demorados no desenvolvimento de hardware, adaptação de firmware, teste de componentes, etc. para se adaptar melhor às características de computação altamente paralelas da inferência de IA, a largura de banda de interconexão do barramento da CPU, a largura de banda da memória e a capacidade também precisam ser especialmente otimizadas, fazendo com que o consumo de energia do sistema, a velocidade do barramento e a densidade de corrente continuem a aumentar... O a superposição de múltiplos fatores torna o ciclo de projeto e desenvolvimento de sistemas de potência computacional longo e caro.

Sob a tendência de diversificação da CPU, como concluir rapidamente a inovação da CPU no sistema de computação para que possa ser aplicada à carga de inferência de IA tornou-se um elo fundamental para aliviar a atual escassez de poder de computação de IA e promover o desenvolvimento da inteligência artificial.

Para tanto, a especificação Open Computing Module (OCM) foi lançada oficialmente no encontro. Ela visa construir a menor unidade de computação com CPU e memória como núcleo, e é compatível com processadores de multigeração de chips multiarquitetura, como. x86 e ARM para facilitar os usuários de acordo com suas aplicações. Os cenários são flexíveis e rápidos de combinar.

O lançamento da especificação OCM visa estabelecer uma unidade de módulo de potência de computação padronizada baseada no processador. Ao unificar a interconexão externa de alta velocidade, protocolo de gerenciamento, interface de fonte de alimentação, etc. das unidades de potência de computação de diferentes processadores, pode-se alcançar. compatibilidade de chips de processador de diferentes arquiteturas e construção de uma CPU A base de poder de computação unificada resolve os desafios ecológicos da CPU e facilita aos clientes combinar de forma flexível e rápida a plataforma de poder de computação mais adequada com base em diversos cenários de aplicativos, como inteligência artificial, computação em nuvem e grandes. dados e promove o desenvolvimento rápido e de alta qualidade da indústria de energia de computação. A formulação de padrões abertos OCM pode fornecer aos usuários opções de poder de computação mais versáteis, verdes, eficientes, seguras e confiáveis.

Além disso, a inteligência artificial generativa está reconstruindo a infraestrutura do data center, apresentando requisitos mais elevados para eficiência computacional, capacidade e desempenho de armazenamento, soluções de rede, gerenciamento de agendamento de recursos, controle e gerenciamento de eficiência energética e escala omnidirecional (melhoria e extensão de desempenho). capacidades tornaram-se o núcleo da construção de infraestrutura avançada de IA. Nesta cúpula, um grande número de tecnologias e soluções de produtos inovadoras, incluindo tecnologia CXL, arquitetura de rede orientada para IA e a primeira unidade de estado sólido PCIe5.0 TLC de 16 canais, irão aprimorar ainda mais as capacidades de escala do data center.

Zhao Shuai acredita que a computação aberta é de grande importância e valor para a era da computação inteligente. A abertura deve ser usada para enfrentar os desafios do poder computacional diversificado, e a abertura também deve ser usada para promover a escala do poder computacional atual. A escala computacional é um processo de desenvolvimento iterativo e rápido de expansão (melhoria do desempenho do sistema único) e expansão (expansão da escala de cluster) coexistindo. Nesta fase, os módulos de aceleração abertos e as redes abertas percebem a escala do poder da computação, as soluções de firmware abertas percebem a escala do gerenciamento e os padrões abertos e a ecologia aberta percebem a escala da infraestrutura. sistema de potência de computação em todas as direções Escala, lidando com lei de escala de modelo grande.

A conferência também divulgou dez grandes inovações em computação aberta, incluindo diretrizes de implantação de centros de dados em escala ultralarga, requisitos técnicos de design de placas aceleradoras de inteligência artificial refrigeradas a líquido, etc., refletindo ainda mais a vitalidade inovadora da computação aberta no campo de centros de dados.

Na era da inteligência, grandes modelos estão a reconstruir a infra-estrutura de IA. Os centros de dados enfrentam desafios de inovação em escala omnidireccional em termos de poder de computação, rede, armazenamento, gestão e eficiência energética. os principais problemas acima mencionados A otimização abrangente da infraestrutura de inteligência artificial oferece possibilidades ilimitadas para o desenvolvimento da IA. (sobre)

[Editor: Cao Zijian]
Relatório/Comentários