nouvelles

NVIDIA lance un nouveau modèle d'IA à 8 milliards de paramètres : très précis, efficace et pouvant être déployé sur les stations de travail RTX

2024-08-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

IT House a rapporté le 23 août que NVIDIA avait publié un article de blog le 21 août, publiant le modèle d'IA en petit langage Mistral-NeMo-Minitron 8B, qui présente les avantages d'une grande précision et d'une grande efficacité de calcul, et peut être utilisé dans les données accélérées par GPU. centres, cloud et exécutez le modèle sur le poste de travail.

NVIDIA et Mistral AI ont publié le mois dernier le modèle open source Mistral NeMo 12B. Sur cette base, NVIDIA a de nouveau lancé le plus petit modèle Mistral-NeMo-Minitron 8B, avec un total de 8 milliards de paramètres, qui peut être exécuté sur des postes de travail équipés de NVIDIA. Cartes graphiques RTX.

Nvidia a déclaré avoir obtenu le Mistral-NeMo-Minitron 8B grâce à l'élagage en largeur (élagage en largeur) du Mistral NeMo 12B et au recyclage léger par distillation des connaissances (distillation des connaissances). Les résultats pertinents ont été publiés dans l'article « Modèles de langage compacts via l'élagage et la connaissance). Distillation" milieu.

L'élagage réduit un réseau neuronal en supprimant les poids du modèle qui contribuent le moins à la précision. Au cours du processus de « distillation », l’équipe a recyclé le modèle élagué sur un petit ensemble de données afin d’améliorer considérablement la précision qui avait été réduite par le processus d’élagage.

Pour sa taille, le Mistral-NeMo-Minitron 8B est largement en tête sur neuf benchmarks populaires pour les modèles de langage. Ces tests couvrent une variété de tâches, notamment la compréhension du langage, le raisonnement de bon sens, le raisonnement mathématique, la synthèse, le codage et la capacité à générer des réponses authentiques. IT Home joint les résultats des tests pertinents comme suit :