le mie informazioni di contatto
posta[email protected]
2024-09-06
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
secondo le notizie di it house del 6 settembre, l'account pubblico ufficiale di face wall intelligence ha pubblicato ieri (5 settembre) un post sul blog, annunciando il lancio del modello ai open source minicpm3-4b, sostenendo che "il momento per chatgpt lato client sta arrivando."
minicpm3-4b è il prodotto di terza generazione della serie minicpm. le sue prestazioni complessive superano phi-3.5-mini-instruct e gpt-3.5-turbo-0125 ed è paragonabile a molti modelli ai con da 7 a 9 miliardi di parametri.
rispetto a minicpm1.0 / minicpm2.0, minicpm3-4b ha un set di competenze più potente e versatile che può essere utilizzato per una gamma più ampia di scopi. minicpm3-4b supporta chiamate di funzioni e interpreti di codice.
di seguito sono riportate le differenze tra le tre versioni della struttura del modello (1->2->3):
dimensioni elenco parole: 123k->73k->73k
numero di strati del modello: 40->52->62
nodi di livello nascosti: 2304->1536->2560
lunghezza massima: 4k->4k->32k
parole del prompt del sistema: non supportato -> non supportato -> supportato
chiamate di strumenti e interpreti di codice: non supportato -> non supportato -> supportato
minicpm3-4b ha una finestra di contesto da 32k. con l'aiuto di llmxmapreduce, minicpm3-4b non ha bisogno di occupare troppa memoria e può gestire contesti teoricamente infiniti.
face wall intelligence ha inoltre rilasciato il modello minicpm-embedding e il modello minicpm-reranker della suite rag, nonché una versione ottimizzata del modello minicpm3-rag-lora per gli scenari rag.