notícias

NVIDIA lança novo modelo de IA de 8 bilhões de parâmetros: altamente preciso, eficiente e pode ser implantado em estações de trabalho RTX

2024-08-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

A IT House informou em 23 de agosto que a Nvidia publicou uma postagem no blog em 21 de agosto, lançando o modelo de IA de linguagem pequena Mistral-NeMo-Minitron 8B, que tem as vantagens de alta precisão e alta eficiência computacional, e pode ser usado em dados acelerados por GPU centros, nuvem e execute o modelo na estação de trabalho.

NVIDIA e Mistral AI lançaram o modelo Mistral NeMo 12B de código aberto no mês passado. Com base nisso, a NVIDIA lançou mais uma vez o modelo menor Mistral-NeMo-Minitron 8B, com um total de 8 bilhões de parâmetros, que pode ser executado em estações de trabalho equipadas com NVIDIA. Placas gráficas RTX.

A Nvidia afirmou que obteve Mistral-NeMo-Minitron 8B por meio de poda de largura (poda de largura) Mistral NeMo 12B e retreinamento leve por meio de destilação de conhecimento (destilação de conhecimento). Os resultados relevantes foram publicados no artigo "Compact Language Models via Pruning and Knowledge". Destilação" meio.

A poda reduz uma rede neural, removendo os pesos do modelo que menos contribuem para a precisão. Durante o processo de “destilação”, a equipe treinou novamente o modelo podado em um pequeno conjunto de dados para melhorar significativamente a precisão que havia sido reduzida pelo processo de poda.

Por seu tamanho, o Mistral-NeMo-Minitron 8B lidera por ampla margem em nove benchmarks populares para modelos de linguagem. Esses benchmarks cobrem uma variedade de tarefas, incluindo compreensão da linguagem, raciocínio de bom senso, raciocínio matemático, resumo, codificação e a capacidade de gerar respostas autênticas. A IT Home anexa os resultados dos testes relevantes da seguinte forma: