nouvelles

modèle open source nvidia nemotron-mini-4b-instruct en petit langage

2024-09-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house news le 15 septembre, le média technologique marktechpost a publié un article de blog hier (14 septembre),il est rapporté que nvidia a ouvert le modèle d'ia nemotron-mini-4b-instruct, marquant ainsi un nouveau chapitre dans l'innovation de l'entreprise dans le domaine de l'ia.

gros potentiel pour les petits modèles de langage

le modèle d'ia nemotron-mini-4b-instruct est conçu pour des tâches telles que le jeu de rôle, la génération augmentée par récupération (rag) et l'appel de fonctions. il s'agit d'un petit modèle de langage (slm) distillé et optimisé par le plus grand nemotron. -4 15b obtenir.

nvidia utilise des technologies d'ia avancées telles que l'élagage, la quantification et la distillation pour rendre le modèle plus petit et plus efficace, particulièrement adapté au déploiement côté appareil.

cette réduction des effectifs n'affecte pas les performances du modèle dans des scénarios spécifiques tels que le jeu de rôle et l'invocation de fonctions, ce qui en fait un choix pratique pour les applications nécessitant une réponse rapide à la demande.

ce modèle est affiné sur le modèle minitron-4b-base et utilise la technologie de compression llm. l'une des caractéristiques les plus importantes est qu'il peut gérer 4096 jetons de fenêtre contextuelle et générer des réponses plus longues et plus cohérentes.

architecture et spécifications techniques

nemotron-mini-4b-instruct est connu pour son architecture puissante, garantissant efficacité et évolutivité.

la taille d'intégration du modèle (qui détermine la dimension du vecteur transformé) est de 3072, l'attention multi-têtes est de 32 et la dimension intermédiaire mlp est de 9216. lors du traitement d'ensembles de données d'entrée à grande échelle, il peut toujours répondre avec une grande précision et pertinence.

en outre, le modèle utilise également les technologies group query attention (gqa) et rotated position embedding (rope) pour améliorer encore sa capacité à traiter et à comprendre le texte.

ce modèle est basé sur l'architecture du décodeur transformer et est un modèle de langage autorégressif. cela signifie qu'il génère chaque jeton sur la base des jetons précédents, ce qui le rend idéal pour des tâches telles que la génération de dialogues, où le flux cohérent du dialogue est crucial.

applications de jeux de rôle et d'appel de fonctions

le nemotron-mini-4b-instruct excelle dans les applications de jeux de rôle. grâce à sa capacité de balisage massive et à ses capacités de génération de langage optimisées, il peut être intégré dans des assistants virtuels, des jeux vidéo ou tout autre environnement interactif où l'ia est nécessaire pour générer des réponses critiques.

nvidia fournit un format d'invite spécifique pour garantir que le modèle génère les meilleurs résultats dans ces scénarios, en particulier dans les conversations à un ou plusieurs tours.

le modèle est également optimisé pour les appels de fonctions, ce qui est de plus en plus important dans les environnements où les systèmes d'ia doivent interagir avec des api ou d'autres processus automatisés. la capacité à générer des réponses précises et fonctionnelles rend ce modèle bien adapté aux scénarios rag dans lesquels le modèle doit créer du texte et récupérer et fournir des informations à partir d'une base de connaissances.