notícias

wuwen xinqiong concluiu quase 500 milhões de yuans em financiamento da série a e levantou um total de 1 bilhão de yuans em 16 meses desde a sua criação.

2024-09-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

fonte da imagem: visual china

autor |

editor丨ye jinyan

produzido por shenwang·tencent news xiaoman studio

em 2 de setembro de 2024, a infinigence ai anunciou a conclusão de quase 500 milhões de yuans em financiamento da série a. até agora, em apenas um ano e quatro meses desde sua criação, a infinigence ai concluiu quase 1 bilhão de yuans em financiamento.

os co-investidores principais da atual rodada de financiamento do wuwen core dome são o fundo especial de inovação independente de zhongguancun do fundo de segurança social, qiming venture partners e hongtai fund. os seguintes investidores incluem lenovo ventures, xiaomi, isoftstone e outros investidores estratégicos, cdb science. e tecnologia, fundo de investimento da indústria de inteligência artificial de xangai, xuhuike venture capital e outros fundos estatais, bem como instituições financeiras como shunwei capital, dachen financial intelligence, detong capital, shangshi capital, senruo yukun, shenwan hongyuan e zhengjing capital.

a esse respeito, o cofundador e ceo da wuwen xinqiong, xia lixue, disse: "a nova 'regra 80/20' trazida pela onda ai 2.0, a arquitetura transformer unifica o novo paradigma técnico, o que significa que apenas 20% dos principais problemas técnicos precisam ser resolvidos. pode apoiar a generalização de 80% dos cenários verticais, proporcionando uma rara oportunidade para a padronização e escala da tecnologia de otimização conjunta de software e hardware. o ecossistema de poder de computação da china enfrenta a contradição entre oferta e demanda e o distribuição desigual de recursos, o que estimulou a colaboração upstream e downstream para nós. alcançar a integração eficiente de diversos poderes de computação heterogêneos cria as oportunidades da época.”

a equipe fundadora do wuwen core dome vem do departamento de engenharia eletrônica da universidade de tsinghua. a equipe inicialmente determinou que o poder de computação real disponível do grande modelo não depende apenas do poder de computação teórico do chip, mas também pode amplificar a computação. eficiência de utilização de energia por meio de coeficientes de otimização e amplificar o poder de computação geral por meio da escala de cluster. portanto, wuwen core qiong propôs a fórmula “poder de computação do chip × coeficiente de otimização (colaboração de hardware e software) × tamanho do cluster (múltiplo heterogêneo) = poder de computação do modelo de ia”.

seguindo esta fórmula, wuwen core qiong continuará a melhorar a utilização do poder de computação do chip em grandes tarefas de modelo por meio de tecnologia de otimização conjunta de software e hardware e a melhorar a utilização do poder de computação em cluster por meio de múltiplas tecnologias de adaptação de poder de computação heterogênea para expandir o poder de computação geral abastecimento da indústria.

deve-se ressaltar que diferentes plataformas de hardware precisam se adaptar a diferentes pilhas de software e cadeias de ferramentas, e há muito tempo existe um fenômeno de "silo ecológico" entre chips heterogêneos que é difícil de usar simultaneamente.

em termos de otimização conjunta de software e hardware, wuwen xinqiong melhorou muito a taxa de utilização de hardware convencional e heterogêneo por meio de sua tecnologia de aceleração de inferência autodesenvolvida flashdecoding++, superando o sota anterior e completou vários grandes modelos de código aberto convencionais na amd, huawei ascend, adaptação em mais de 10 tipos de placas de computação, incluindo biren, cambrian, suiyuan, haiguang, tianshu zhixin, muxi, moore thread, nvidia, etc.

em termos de colaboração de software e hardware e múltiplas tecnologias heterogêneas, wuwen xinqiong criou a plataforma de nuvem heterogênea infini-ai baseada em uma base de poder de computação de múltiplos chips. a plataforma de nuvem heterogênea infini-ai também inclui uma plataforma de ia completa (aistudio) e uma plataforma de serviço de modelo grande (genstudio).

entre eles, a plataforma completa de ia aistudio fornece aos desenvolvedores de aprendizado de máquina desenvolvimento e depuração econômicos, treinamento distribuído e ferramentas de inferência de alto desempenho, cobrindo todo o ciclo de vida, desde hospedagem de dados, desenvolvimento de código, treinamento de modelo e implantação de modelo.

a plataforma de serviço de modelo grande genstudio fornece serviços de modelo grande em vários cenários de alto desempenho, fáceis de usar, seguros e confiáveis ​​para desenvolvedores de aplicativos de modelo grande. ela cobre de forma abrangente todo o processo, desde o desenvolvimento de modelo grande até a implantação orientada a serviços, reduzindo efetivamente. custos e limiares de desenvolvimento.

wuwen core dome declarou oficialmente que, ao ativar o poder de computação multi-heterogêneo e a otimização conjunta de software e hardware, o wuwen core dome visa reduzir o custo de implementação de grandes modelos em 10.000 vezes, assim como "água, eletricidade e carvão", tornando-o dentro alcançar e beneficiar amplamente a nova produtividade e acelerar o processo inclusivo da agi.