2024-09-06
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
it house berichtete am 6. september, dass der offizielle öffentliche account von face wall intelligence gestern (5. september) einen blogbeitrag veröffentlicht habe, in dem er die einführung des open-source-ki-modells minicpm3-4b ankündigte und behauptete, dass „der moment für clientseitiges chatgpt naht“. ."
minicpm3-4b ist das produkt der dritten generation der minicpm-serie. seine gesamtleistung übertrifft die von phi-3.5-mini-instruct und gpt-3.5-turbo-0125 und ist mit 7 bis 9 milliarden parametern mit vielen ki-modellen vergleichbar.
im vergleich zu minicpm1.0/minicpm2.0 verfügt minicpm3-4b über leistungsfähigere und vielseitigere fähigkeiten, die für ein breiteres spektrum von zwecken eingesetzt werden können. minicpm3-4b unterstützt funktionsaufrufe und code-interpreter.
im folgenden sind die unterschiede zwischen den drei versionen der modellstruktur (1->2->3) aufgeführt:
größe der wortliste: 123 kb -> 73 kb -> 73 kb
anzahl der modellschichten: 40->52->62
versteckte layer-knoten: 2304->1536->2560
maximale länge: 4k->4k->32k
systemaufforderungswörter: nicht unterstützt -> nicht unterstützt -> unterstützt
toolaufrufe und codeinterpreter: nicht unterstützt -> nicht unterstützt -> unterstützt
minicpm3-4b verfügt über ein 32-kb-kontextfenster. mit hilfe von llmxmapreduce muss minicpm3-4b nicht zu viel speicher belegen und kann theoretisch unendliche kontexte verarbeiten.
facewall intelligence veröffentlichte außerdem das minicpm-embedding-modell und das minicpm-reranker-modell der rag-suite sowie eine fein abgestimmte version des minicpm3-rag-lora-modells für rag-szenarien.