nachricht

wuwen xinqiong hat eine serie-a-finanzierung in höhe von fast 500 millionen yuan abgeschlossen und in 16 monaten seit seiner gründung insgesamt 1 milliarde yuan eingesammelt.

2024-09-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

bildquelle: visual china

autor |. ein ran

herausgeber: ye jinyan

produziert von shenwang·tencent news xiaoman studio

am 2. september 2024 gab infinigence ai den abschluss einer serie-a-finanzierung in höhe von fast 500 millionen yuan bekannt. bisher hat infinigence ai in nur einem jahr und vier monaten seit seiner gründung eine finanzierung in höhe von fast 1 milliarde yuan abgeschlossen.

die co-hauptinvestoren der aktuellen finanzierungsrunde von wuwen core dome sind der zhongguancun independent innovation special fund des social security fund, qiming venture partners und hongtai fund. zu den folgenden investoren gehören lenovo ventures, xiaomi, isoftstone und andere strategische investoren, cdb science und technologie, shanghai artificial intelligence industry investment fund, xuhuike venture capital und andere staatliche fonds sowie finanzinstitute wie shunwei capital, dachen financial intelligence, detong capital, shangshi capital, senruo yukun, shenwan hongyuan und zhengjing capital.

in diesem zusammenhang sagte xia lixue, mitbegründer und ceo von wuwen xinqiong: „die neue ‚80/20-regel‘, die durch die ai 2.0-welle eingeführt wurde, vereinheitlicht die transformer-architektur das neue technische paradigma, was bedeutet, dass nur 20 % des schlüssels.“ es müssen technische probleme gelöst werden, die die verallgemeinerung von 80 % der vertikalen szenarien unterstützen und eine seltene gelegenheit für die standardisierung und skalierung von software- und hardware-kooperationsoptimierungstechnologien bieten die ungleiche verteilung der ressourcen hat für uns die vor- und nachgelagerte zusammenarbeit angeregt. die effiziente integration unterschiedlicher heterogener rechenleistung schafft chancen der zeit.“

das gründerteam von wuwen core dome stammt aus der abteilung für elektrotechnik der tsinghua-universität. das team stellte zunächst fest, dass die tatsächlich verfügbare rechenleistung des großen modells nicht nur von der theoretischen rechenleistung des chips abhängt, sondern auch die rechenleistung verstärken kann leistungsausnutzungseffizienz durch optimierungskoeffizienten und verstärkung der gesamtrechenleistung durch die clusterskala. daher schlug wuwen core qiong die formel „chip-rechenleistung × optimierungskoeffizient (hardware- und software-zusammenarbeit) × clustergröße (mehrfach heterogen) = ki-modell-rechenleistung“ vor.

nach dieser formel wird wuwen core qiong die nutzung der chip-rechenleistung bei großen modellaufgaben durch gemeinsame software- und hardware-optimierungstechnologie weiter verbessern und die nutzung der cluster-rechenleistung durch mehrere heterogene rechenleistungsanpassungstechnologien verbessern, um die gesamtrechenleistung zu erweitern versorgung der industrie.

es sollte darauf hingewiesen werden, dass unterschiedliche hardwareplattformen sich an unterschiedliche software-stacks und toolketten anpassen müssen und es seit langem ein „ökologisches silo“-phänomen zwischen heterogenen chips gibt, das schwer gleichzeitig zu verwenden ist.

im hinblick auf die gemeinsame optimierung von software und hardware hat wuwen xinqiong durch seine selbst entwickelte inferenzbeschleunigungstechnologie flashdecoding++ die auslastungsrate von mainstream- und heterogener hardware erheblich verbessert, die bisherige sota übertroffen und mehrere mainstream-open-source-großmodelle in amd und huawei fertiggestellt ascend, anpassung an mehr als 10 arten von computerkarten, darunter biren, cambrian, suiyuan, haiguang, tianshu zhixin, muxi, moore thread, nvidia usw.

im hinblick auf software- und hardware-zusammenarbeit und mehrere heterogene technologien hat wuwen xinqiong die heterogene cloud-plattform infini-ai geschaffen, die auf einer basis mit mehreren chip-rechenleistungen basiert. die heterogene cloud-plattform infini-ai umfasst außerdem eine one-stop-ki-plattform (aistudio) und eine große modelldienstplattform (genstudio).

unter anderem bietet die aistudio-ki-plattform aus einer hand entwicklern von maschinellem lernen kostengünstige entwicklung und debugging, verteiltes training und leistungsstarke inferenztools, die den gesamten lebenszyklus vom datenhosting über die codeentwicklung bis hin zum modelltraining und der modellbereitstellung abdecken.

die genstudio-serviceplattform für große modelle bietet leistungsstarke, benutzerfreundliche, sichere und zuverlässige multi-szenario-services für große modellanwendungen. sie deckt den gesamten prozess von der entwicklung großer modelle bis zur serviceorientierten bereitstellung umfassend ab und reduziert so effektiv entwicklungskosten und schwellenwerte.

wuwen core dome gab offiziell bekannt, dass wuwen core dome durch die aktivierung multi-heterogener rechenleistung und die gemeinsame optimierung von software und hardware darauf abzielt, die implementierungskosten großer modelle um das 10.000-fache zu senken, genau wie bei „wasser, strom und kohle“, und zwar innerhalb von 10.000 jahren dies wird der branche zu neuer produktivität verhelfen und den integrativen prozess der agi beschleunigen.