2024-09-06
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
it house a rapporté le 6 septembre que le compte public officiel de face wall intelligence avait publié hier (5 septembre) un article de blog annonçant le lancement du modèle d'ia open source minicpm3-4b, affirmant que « le moment du chatgpt côté client arrive ». ".
minicpm3-4b est le produit de troisième génération de la série minicpm. ses performances globales dépassent celles du phi-3.5-mini-instruct et du gpt-3.5-turbo-0125 et sont comparables à de nombreux modèles d'ia avec 7 à 9 milliards de paramètres.
comparé au minicpm1.0/minicpm2.0, le minicpm3-4b possède un ensemble de compétences plus puissantes et plus polyvalentes qui peuvent être utilisées à des fins plus larges. minicpm3-4b prend en charge les appels de fonction et les interpréteurs de code.
voici les différences entre les trois versions de la structure du modèle (1->2->3) :
taille de la liste de mots : 123 ko->73 ko->73 ko
nombre de couches de modèle : 40->52->62
nœuds de couche masqués : 2304->1536->2560
durée maximale : 4k->4k->32k
mots d'invite du système : non pris en charge -> non pris en charge -> pris en charge
appels d'outils et interpréteurs de code : non pris en charge -> non pris en charge -> pris en charge
minicpm3-4b a une fenêtre contextuelle de 32 ko. avec l'aide de llmxmapreduce, minicpm3-4b n'a pas besoin d'occuper trop de mémoire et peut gérer des contextes théoriquement infinis.
facewall intelligence a également publié le modèle minicpm-embedding et le modèle minicpm-reranker de la suite rag, ainsi qu'une version affinée du modèle minicpm3-rag-lora pour les scénarios rag.