notícias

modelo de linguagem pequena nemotron-mini-4b-instruct de código aberto nvidia

2024-09-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house news em 15 de setembro, a mídia de tecnologia marktechpost publicou uma postagem no blog ontem (14 de setembro),é relatado que a nvidia abriu o código do modelo nemotron-mini-4b-instruct ai, marcando um novo capítulo na inovação da empresa no campo da ia.

grande potencial para modelos de linguagem pequena

o modelo nemotron-mini-4b-instruct ai é projetado para tarefas como role-playing, geração aumentada de recuperação (rag) e chamada de função. é um modelo de linguagem pequena (slm) que é destilado e otimizado pelo nemotron maior. -4 15b obtido.

a nvidia usa tecnologias avançadas de ia, como poda, quantização e destilação, para tornar o modelo menor e mais eficiente, especialmente adequado para implantação no dispositivo.

essa redução não afeta o desempenho do modelo em cenários específicos, como role-playing e invocação de funções, tornando-o uma escolha prática para aplicações que exigem resposta rápida sob demanda.

este modelo é ajustado no modelo minitron-4b-base e usa tecnologia de compressão llm. um dos recursos mais significativos é que ele pode lidar com 4.096 tokens de janela de contexto e gerar respostas mais longas e coerentes.

arquitetura e especificações técnicas

nemotron-mini-4b-instruct é conhecido por sua arquitetura poderosa, garantindo eficiência e escalabilidade.

o tamanho de incorporação do modelo (que determina a dimensão do vetor transformado) é 3072, a atenção multicabeça é 32 e a dimensão intermediária do mlp é 9216. ao processar conjuntos de dados de entrada em grande escala, ele ainda pode responder com alta precisão e relevância.

além disso, o modelo também usa tecnologias group query attention (gqa) e rotated position embedding (rope) para melhorar ainda mais sua capacidade de processar e compreender texto.

este modelo é baseado na arquitetura do decodificador transformer e é um modelo de linguagem autorregressivo. isto significa que gera cada token com base nos tokens anteriores, tornando-o ideal para tarefas como a geração de diálogo, onde o fluxo coerente do diálogo é crucial.

aplicativos de role-playing e chamada de função

o nemotron-mini-4b-instruct é excelente em aplicações de rpg. com sua enorme capacidade de marcação e recursos otimizados de geração de linguagem, ele pode ser incorporado em assistentes virtuais, videogames ou qualquer outro ambiente interativo onde a ia seja necessária para gerar respostas críticas.

a nvidia fornece um formato de prompt específico para garantir que o modelo produza os melhores resultados nesses cenários, especialmente em conversas únicas ou múltiplas.

o modelo também é otimizado para chamadas de função, o que é cada vez mais importante em ambientes onde os sistemas de ia devem interagir com apis ou outros processos automatizados. a capacidade de gerar respostas funcionais e precisas torna este modelo adequado para cenários rag onde o modelo precisa criar texto e recuperar e fornecer informações de uma base de conhecimento.