notícias

16 meses após a sua criação, arrecadou 1 bilhão de yuans em financiamento. wuwen core qiong pretende ser a primeira escolha de "operador de energia computacional" na era dos grandes modelos.

2024-09-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

fotos e informações deste jornal
a infinigence ai, uma startup de infraestrutura de grande porte, anunciou hoje que concluiu quase 500 milhões de yuans em financiamento da série a. até agora, wuwen xinqiong, que foi estabelecido há apenas 16 meses, concluiu quase 1 bilhão de yuans em financiamento.
xia lixue, cofundador e ceo da wuwen xinqiong, acredita que a nova "oitava oitava lei" trazida pela onda ai 2.0 só precisa resolver 20% dos principais problemas técnicos para apoiar 80% da generalização do cenário vertical, e ecossistema de poder de computação da china enfrentamos desequilíbrios na oferta e na procura e uma distribuição desigual de recursos, o que sem dúvida cria oportunidades para wuwenxinqiong trabalhar em conjunto a montante e a jusante para alcançar a integração eficiente de poder de computação diversificado e heterogéneo.
wuwen xinqiong disse que os fundos arrecadados com este financiamento serão usados ​​para fortalecer o recrutamento de talentos técnicos e pesquisa e desenvolvimento tecnológico, manter a liderança tecnológica da colaboração de software e hardware e promover ainda mais a comercialização de produtos e a heterogeneidade; nuvem heterogênea infini-ai estreita integração entre os produtos da plataforma e o mercado; fortalecer a cooperação ecológica, ativar recursos de computação em cluster heterogêneos, construir uma base de poder de computação de ia que suporte "m tipos de modelos" e "n tipos de chips" e servir como uma base de poder de computação de ia que suporte "m tipos de modelos" e "n tipos de chips" e sirva como uma base de poder de computação de ia que suporte "m tipos de modelos" e "n tipos de chips". "super amplificador de poder de computação de modelo de ia" "...wuwen xinqiong estará empenhada em se tornar a primeira escolha de" operador de poder de computação "na era dos grandes modelos.
seja um "super amplificador" para o poder de computação do modelo ai
a escala industrial real que os grandes modelos podem suportar depende do poder de computação real disponível do modelo de ia. wuwen core qiong acredita que o poder de computação real disponível de um modelo grande não depende apenas do poder de computação teórico do chip, mas também pode amplificar a eficiência de utilização do poder de computação por meio de coeficientes de otimização e amplificar a escala geral de poder de computação por meio do tamanho do cluster portanto, wuwen core qiong propôs a fórmula "poder de computação do chip × coeficiente de otimização (colaboração de software e hardware) × tamanho do cluster (múltiplo heterogêneo) = poder de computação do modelo de ia". seguindo esta fórmula, wuwen core qiong continuará a melhorar a utilização do poder de computação de chip em grandes tarefas de modelo por meio de tecnologia de otimização conjunta de software e hardware, e melhorará a utilização do poder de computação em cluster e expandirá a utilização do poder de computação em cluster por meio de múltiplas computação heterogênea tecnologia de adaptação de energia a fonte geral de energia de computação da indústria.
em termos de otimização conjunta de software e hardware, wuwen xinqiong melhorou muito a utilização de hardware convencional e heterogêneo por meio de sua tecnologia de aceleração de inferência autodesenvolvida flashdecoding++, superando o sota anterior e completou vários grandes modelos de código aberto convencionais na amd, huawei ascend , foi adaptado para mais de 10 tipos de placas de computação, como biren, cambrian, suiyuan, haiguang, tianshu zhixin, muxi, moore thread, nvidia, etc., e alcançou resultados de aceleração de inferência líderes do setor em algumas placas de computação. atenda com eficiência à crescente demanda por raciocínio de modelos grandes em vários setores. com base nos resultados de otimização alcançados por esta solução, wuwen core dome assinou uma cooperação estratégica com a amd para promover conjuntamente a melhoria do desempenho de aplicações comerciais de ia.
em termos de adaptação de poder de computação multi-heterogêneo, wuwen xinqiong também possui recursos de adaptação e cluster heterogêneos que são escassos na indústria. o sistema de treinamento híbrido distribuído heterogêneo em grande escala hethub lançado em julho é a primeira vez na indústria que foi lançado. promovido pela huawei. um total de seis combinações "4 + 2" de chips, incluindo tianshu zhixin, muxi, moore threads, amd e nvidia, foram usadas para atingir o treinamento misto de potência de computação heterogênea em escala de quilocalorias. atinge um máximo de 97,6%, com uma média alta a solução de benchmark é cerca de 30% melhor, o que significa que sob as mesmas condições de sala de computadores multi-chip ou condições de cluster, o wuwen core dome pode comprimir o tempo total de treinamento em 30%.
fornece recursos full-stack, desde a utilização heterogênea do poder de computação até o desenvolvimento de aplicativos de grandes modelos
nos últimos anos, a camada modelo e a camada de chip formaram gradualmente um padrão de "convergência dupla" internacionalmente, enquanto a camada modelo e a camada de chip da china continuam a apresentar um padrão "m × n" que consiste em "tipos m de modelos" e " n tipos de chips" . no entanto, diferentes plataformas de hardware precisam se adaptar a diferentes pilhas de software e cadeias de ferramentas, e há muito tempo existe um fenômeno de "silo ecológico" entre chips heterogêneos que é difícil de usar simultaneamente. à medida que mais e mais chips domésticos de poder de computação heterogêneo são usados ​​em clusters locais de poder de computação em todo o país, o problema da dificuldade de utilização eficaz do poder de computação heterogêneo está se tornando cada vez mais sério e gradualmente se tornando um gargalo no desenvolvimento da grande indústria modelo da china.
contando com as vantagens da colaboração de software e hardware e da tecnologia multi-heterogênea, wuwen core dome criou a plataforma de nuvem heterogênea infini-ai baseada na base de poder de computação multi-chip. a plataforma é compatível com versões anteriores de vários chips de poder de computação heterogêneo e pode efetivamente ativar o poder de computação heterogêneo inativo em todo o país. o poder de computação atualmente em operação cobre 15 cidades em todo o país. além disso, a plataforma de nuvem heterogênea infini-ai também inclui uma plataforma de ia completa (aistudio) e uma plataforma de serviço de modelo grande (genstudio). desde o lançamento da plataforma, muitos clientes líderes em grandes indústrias de modelos, como kimi, liblibai, liepin, shengshu technology e zhipu ai, usaram de forma estável o poder de computação heterogêneo na plataforma de nuvem heterogênea infini-ai e desfrutaram do desenvolvimento de grandes modelos sem complicações serviço de cadeia de ferramentas fornecido pela core dome.
a plataforma de nuvem heterogênea infini-ai pode não apenas ajudar os clientes downstream a proteger facilmente as diferenças de hardware e usar o poder de computação heterogêneo subjacente de maneira contínua e eficiente, mas também quebrará efetivamente o dilema ecológico do poder de computação heterogêneo doméstico e acelerará a transformação gradual da camada superior aplicações para computação heterogênea. a migração da base de poder de computação integra e expande efetivamente a escala de poder de computação disponível na indústria de modelos domésticos em grande escala, realmente transforma o poder de computação heterogêneo em grande poder de computação utilizável, suficiente e fácil de usar. e ajuda a construir poder de computação localizado com características chinesas.
autor: shen qiusha
texto: shen qiusha fotos: fornecidas pelo entrevistado editor: shen qiusha editor: ren quan
por favor indique a fonte ao reimprimir este artigo.
relatório/comentários