notizia

"è arrivato il momento per chatgpt lato client", face wall intelligence lancia il modello ai minicpm3-4b open source xiaogangpao

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

secondo le notizie di it house del 6 settembre, l'account pubblico ufficiale di face wall intelligence ha pubblicato ieri (5 settembre) un post sul blog, annunciando il lancio del modello ai open source minicpm3-4b, sostenendo che "il momento per chatgpt lato client sta arrivando."

minicpm3-4b è il prodotto di terza generazione della serie minicpm. le sue prestazioni complessive superano phi-3.5-mini-instruct e gpt-3.5-turbo-0125 ed è paragonabile a molti modelli ai con da 7 a 9 miliardi di parametri.

rispetto a minicpm1.0 / minicpm2.0, minicpm3-4b ha un set di competenze più potente e versatile che può essere utilizzato per una gamma più ampia di scopi. minicpm3-4b supporta chiamate di funzioni e interpreti di codice.

di seguito sono riportate le differenze tra le tre versioni della struttura del modello (1->2->3):

dimensioni elenco parole: 123k->73k->73k

numero di strati del modello: 40->52->62

nodi di livello nascosti: 2304->1536->2560

lunghezza massima: 4k->4k->32k

parole del prompt del sistema: non supportato -> non supportato -> supportato

chiamate di strumenti e interpreti di codice: non supportato -> non supportato -> supportato

minicpm3-4b ha una finestra di contesto da 32k. con l'aiuto di llmxmapreduce, minicpm3-4b non ha bisogno di occupare troppa memoria e può gestire contesti teoricamente infiniti.

face wall intelligence ha inoltre rilasciato il modello minicpm-embedding e il modello minicpm-reranker della suite rag, nonché una versione ottimizzata del modello minicpm3-rag-lora per gli scenari rag.