2024-09-29
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
kürzlich hat das china telecom artificial intelligence research institute (bezeichnet als: teleai) erfolgreich das erste billionen-parameter-großmodell in china basierend auf dem landesweit produzierten wanka-cluster-training (bezeichnet als: wanka wancan) fertiggestellt und das erste im inland offiziell als open source bereitgestellt das produzierte modell basiert auf dem landesweit produzierten wanka-cluster telechat2-115b, einem großen modell mit hunderten milliarden parametern, das vom huawanka-cluster und dem inländischen deep-learning-framework trainiert wird, und ist ein großes modell der star-semantik.
dies ist ein weiterer meilenstein und eine wichtige wissenschaftliche forschungsleistung unter der leitung von professor li und trat offiziell auf den markt. eine neue stufe unabhängiger innovation, sicherheit und kontrollierbarkeit für die heimische produktion.
telechat2-115b wurde auf der grundlage der von china telecom selbst entwickelten tianyi cloud „integrated intelligent computing service platform“ und der „xinghai ai platform“ des unternehmens für künstliche intelligenz trainiert. es nutzt eine vielzahl von optimierungsmethoden, um die effizienz und genauigkeit des modelltrainings zu verbessern und gleichzeitig das training sicherzustellen stabilität, wodurch mehr als 93 % der recheneffizienz der gpu bei gleicher rechenleistung erreicht werden, während die effektive trainingszeit des modells mehr als 98 % ausmacht.
die open source von telechat2-115b markiert einen weiteren neuen weg für die lokalisierung großer modelle. als erstes staatliches unternehmen, das großmodelle entwickelt und als open-source-lösung anbietet, fördert teleai aktiv den kontinuierlichen fortschritt der großmodelltechnologie durch open source und fördert und leitet weiterhin den schnellen übergang technologischer innovationen zur industriellen umsetzung.
in der opencampass-testliste im mai dieses jahres belegten die logischen denkfähigkeiten der modelle der telechat-serie den ersten platz in der liste der großen open-source-modelle. als version der neuen generation belegte telechat2-115b mit einer punktzahl von 86,9 punkten den ersten platz in der neuesten umfassenden liste der c-eval-bewertung des open-access-modells, die im september veröffentlicht wurde. seine allgemeinen fähigkeiten sind fast 30 % höher als die der modelle der telechat-serie, insbesondere in bezug auf werkzeugnutzung, logisches denken, mathematische berechnungen, codegenerierung und langes schreiben.
es versteht sich, dass das von teleai selbst entwickelte große semantische modell in vielen maßgeblichen wettbewerben den ersten platz gewonnen hat. unter anderem belegte es auf der ccl2024-konferenz den ersten platz bei der bewertung des räumlichen semantischen verständnisses in china und bei der bewertung der extraktion alter chinesischer historischer ereignistypen. darüber hinaus gewann er die meisterschaft in der nlpcc2024 chinese argumentative paper mining (shared task5) challenge.
(information)