nachricht

nach 16 monaten gründung hat wuwen core qiong eine finanzierung in höhe von 1 milliarde yuan eingesammelt. ziel ist es, im zeitalter großer modelle der „rechenleistungsbetreiber“ erster wahl zu werden.

2024-09-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

bilder und informationen dieser zeitung
infinigence ai, ein groß angelegtes infrastruktur-startup, gab heute bekannt, dass es eine serie-a-finanzierung in höhe von fast 500 millionen yuan abgeschlossen hat. bisher hat wuwen xinqiong, das erst seit 16 monaten besteht, eine finanzierung in höhe von fast 1 milliarde yuan abgeschlossen.
xia lixue, mitbegründer und ceo von wuwen xinqiong, glaubt, dass das neue „acht-achtel-gesetz“, das durch die ki-2.0-welle eingeführt wurde, nur 20 % der wichtigsten technischen probleme lösen muss, um 80 % der vertikalen szenario-verallgemeinerung zu unterstützen chinas rechenleistungs-ökosystem wir sind mit ungleichgewichten bei angebot und nachfrage und einer ungleichen verteilung der ressourcen konfrontiert, was wuwenxinqiong zweifellos möglichkeiten bietet, vor- und nachgelagert zusammenzuarbeiten, um eine effiziente integration vielfältiger und heterogener rechenleistung zu erreichen.
wuwen xinqiong sagte, dass die aus dieser finanzierung gesammelten mittel dazu verwendet werden, die rekrutierung technischer talente und die technologieforschung und -entwicklung zu stärken, die technologische führung der software- und hardware-zusammenarbeit aufrechtzuerhalten und die diversifizierung und heterogenität weiter zu fördern und die kommerzialisierung von produkten aufrechtzuerhalten infini-ai heterogene cloud enge integration zwischen plattformprodukten und dem markt; stärkung der ökologischen zusammenarbeit, aktivierung heterogener cluster-rechenressourcen, aufbau einer ki-rechenleistungsbasis, die „m-typen von modellen“ und „n-typen von chips“ unterstützt und als dient „superverstärker der rechenleistung von ki-modellen“ „...wuwen xinqiong wird sich dafür einsetzen, im zeitalter großer modelle der „rechenleistungsbetreiber“ erster wahl zu werden.
seien sie ein „superverstärker“ für die rechenleistung von ki-modellen
der tatsächliche industrielle maßstab, den große modelle unterstützen können, hängt von der tatsächlich verfügbaren rechenleistung des ki-modells ab. wuwen core qiong glaubt, dass die tatsächlich verfügbare rechenleistung eines großen modells nicht nur von der theoretischen rechenleistung des chips abhängt, sondern auch die effizienz der rechenleistungsnutzung durch optimierungskoeffizienten und die gesamtrechenleistungsskala durch die clustergröße verstärken kann daher schlug wuwen core qiong die formel „chip-rechenleistung × optimierungskoeffizient (software- und hardware-zusammenarbeit) × clustergröße (mehrere heterogene) = ki-modell-rechenleistung“ vor. nach dieser formel wird wuwen core qiong die nutzung der chip-rechenleistung bei großen modellaufgaben durch gemeinsame optimierungstechnologien von software und hardware weiter verbessern, die nutzung der cluster-rechenleistung verbessern und die nutzung der cluster-rechenleistung durch mehrfaches heterogenes computing erweitern leistungsanpassungstechnologie die gesamte rechenleistungsversorgung der branche.
im hinblick auf die gemeinsame optimierung von software und hardware hat wuwen xinqiong die auslastungsrate von mainstream- und heterogener hardware durch seine selbst entwickelte inferenzbeschleunigungstechnologie flashdecoding++ erheblich verbessert, die bisherige sota übertroffen und mehrere mainstream-open-source-großmodelle in amd und huawei fertiggestellt ascend wurde an mehr als 10 arten von computerkarten wie biren, cambrian, suiyuan, haiguang, tianshu zhixin, muxi, moore thread, nvidia usw. angepasst und hat auf einigen computerkarten branchenführende inferenzbeschleunigungsergebnisse erzielt . erfüllen sie effizient die steigende nachfrage nach großen modellbegründungen in verschiedenen branchen. basierend auf den durch diese lösung erzielten optimierungsergebnissen hat wuwen core dome eine strategische kooperation mit amd unterzeichnet, um gemeinsam die leistungsverbesserung kommerzieller ki-anwendungen voranzutreiben.
im hinblick auf die anpassung der multi-heterogenen rechenleistung verfügt wuwen xinqiong auch über heterogene anpassungs- und clustering-fähigkeiten, die in der branche rar sind. das im juli veröffentlichte groß angelegte heterogene verteilte hybrid-trainingssystem hethub ist das erste mal in der branche von huawei gefördert. insgesamt wurden sechs „4+2“-chipkombinationen verwendet, darunter tianshu zhixin, muxi, moore threads, amd und nvidia, um ein heterogenes rechenleistungstraining im kilokalorienbereich zu erreichen erreicht ein maximum von 97,6 %, bei einem durchschnittlich hohen wert. die benchmark-lösung ist etwa 30 % besser, was bedeutet, dass wuwen core dome unter den gleichen multi-chip-computerraumbedingungen oder cluster-bedingungen die gesamte trainingszeit um 30 % komprimieren kann.
stellen sie full-stack-funktionen zur nutzung heterogener rechenleistung und zur entwicklung großer modellanwendungen bereit
in den letzten jahren haben die modellschicht und die chipschicht auf internationaler ebene nach und nach ein „doppelköpfiges konvergenzmuster“ gebildet, während die modellschicht und die chipschicht in china weiterhin ein „m×n“-muster aufweisen, das aus „m modelltypen“ und „ n arten von chips“ . allerdings müssen sich unterschiedliche hardwareplattformen an unterschiedliche software-stacks und toolketten anpassen, und es gibt seit langem ein „ökologisches silo“-phänomen zwischen heterogenen chips, das schwer gleichzeitig zu verwenden ist. da immer mehr im inland hergestellte heterogene rechenleistungschips in lokalen rechenleistungsclustern im ganzen land verwendet werden, ist das problem, dass heterogene rechenleistung nur schwer effektiv genutzt werden kann, immer gravierender geworden und hat sich nach und nach zu einem engpass in der entwicklung der großen modellindustrie chinas entwickelt .
basierend auf den vorteilen der software- und hardware-zusammenarbeit und der multi-heterogenen technologie hat wuwen core dome die heterogene cloud-plattform infini-ai entwickelt, die auf der multi-chip-rechenleistungsbasis basiert. die plattform ist abwärtskompatibel mit mehreren heterogenen rechenleistungschips und kann ruhende heterogene rechenleistung im ganzen land effektiv aktivieren. die derzeit in betrieb befindliche rechenleistung deckt 15 städte im ganzen land ab. darüber hinaus umfasst die heterogene cloud-plattform infini-ai auch eine one-stop-ki-plattform (aistudio) und eine große modelldienstplattform (genstudio). seit der einführung der plattform haben viele führende kunden in großen modellbranchen wie kimi, liblibai, liepin, shengshu technology und zhipu ai die heterogene rechenleistung auf der heterogenen cloud-plattform infini-ai stabil genutzt und eine problemlose entwicklung großer modelle genossen werkzeugkettenservice von core dome.
die heterogene cloud-plattform infini-ai kann downstream-kunden nicht nur dabei helfen, hardwareunterschiede einfach abzuschirmen und die zugrunde liegende heterogene rechenleistung nahtlos und effizient zu nutzen, sondern wird auch das ökologische dilemma der inländischen heterogenen rechenleistung wirksam durchbrechen und die schrittweise transformation der oberen schicht beschleunigen die migration der rechenleistungsbasis integriert und erweitert effektiv den umfang der verfügbaren rechenleistung in der heimischen großmodellindustrie und wandelt heterogene rechenleistung wirklich in nutzbare, ausreichende und benutzerfreundliche große rechenleistung um , und hilft beim aufbau lokalisierter rechenleistung mit chinesischen merkmalen.
autor: shen qiusha
text: shen qiusha bilder: zur verfügung gestellt vom interviewpartner herausgeber: shen qiusha herausgeber: ren quan
bitte geben sie beim nachdruck dieses artikels die quelle an.
bericht/feedback