nachricht

zhou jingren: investieren sie vollständig in die modernisierung der ki-infrastruktur

2024-09-19

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

am 19. september sagte zhou jingren, cto von alibaba cloud, auf der hangzhou yunqi-konferenz 2024, dass alibaba cloud einen neuen standard für die ki-infrastruktur im ki-zeitalter setzt und alles von servern über computer, speicher, netzwerk und datenverarbeitung umfassend aufrüstet. die technische architektur der trainings- und inferenzplattform verwandelt das rechenzentrum in einen supercomputer, der leistungsstarke und effiziente rechendienste für jede ki und anwendung bereitstellt.
am konferenzort stellte tongyi large model seine jährliche hauptveröffentlichung vor. das basismodell wurde mit einer mit der gpt-4o vergleichbaren leistung aktualisiert. mehr als 100 vollmodale modelle, einschließlich sprache, audio und vision, wurden gleichzeitig veröffentlicht die anzahl der downloads von tongyi-open-source-modellen hat 40 millionen überschritten, und tongyi-native modelle wurden auf den markt gebracht. die gesamtzahl der modelle und abgeleiteten modelle übersteigt 50.000, was sie zu einer weltklasse-modellgruppe macht, die nach llama in den vereinigten staaten an zweiter stelle steht.
bauen sie eine leistungsstarke ki-infrastruktur auf
anders als im traditionellen it-zeitalter stellt das ki-zeitalter höhere anforderungen an die leistung und effizienz der infrastruktur. das cpu-dominierte computersystem hat sich schnell zum gpu-dominierten ki-computersystem verlagert. alibaba cloud stellt die ki in den mittelpunkt, rekonstruiert die zugrunde liegende hardware, computer, speicher, netzwerke, datenbanken und big data umfassend und passt sich ki-szenarien organisch an und integriert sie, um die entwicklung und anwendung von modellen zu beschleunigen und eine leistungsstarke ki-infrastruktur zu schaffen in der ki-ära.
zhou jingren sagte: „cloud-anbieter verfügen über full-stack-technologiereserven und durch umfassende upgrades der infrastruktur ist der gesamte lebenszyklus von ki-training, inferenz, bereitstellung und anwendung effizienter geworden.“
auf der konferenz demonstrierte zhou jingren das ki-gesteuerte upgrade der gesamten produktfamilie von alibaba cloud. der neu eingeführte panjiu-ki-server unterstützt 16 karten pro maschine und 1,5 t videospeicher und bietet ki-algorithmen zur vorhersage von gpu-ausfällen mit einer genauigkeit von 92 %. alibaba cloud acs führt erstmals gpu-container-rechenleistung ein und erreicht so eine rechenaffinität topologiebewusste planung verbesserung der geschwindigkeit und leistung; hpn7.0, eine für ki entwickelte hochleistungsnetzwerkarchitektur, kann mehr als 100.000 gpus stabil verbinden, und die end-to-end-trainingsleistung des modells wird um mehr als 10 verbessert %; alibaba cloud cpfs-dateispeicherung, datendurchsatz 20 tb/s. es bietet exponentiell erweiterte speicherfunktionen für ki-intelligentes computing; die plattform für künstliche intelligenz hat eine integrierte elastische planung von training und argumentation auf wanka-ebene sowie eine effektive auslastungsrate von ki erreicht rechenleistung übersteigt 90 %.
in den letzten zwei jahren hat sich die größe von modellen um das tausendfache erhöht, aber die kosten für die rechenleistung von modellen sinken weiter, was die verwendung von modellen für unternehmen billiger macht. zhou jingren betonte: „dies ist die technologische dividende, die die umfassende reform der ki-infrastruktur mit sich bringt. wir werden weiterhin in den aufbau fortschrittlicher ki-infrastruktur investieren und die einführung großer modelle in tausenden von branchen beschleunigen.“
es wird berichtet, dass in zukunft mehr als 300.000 unternehmenskunden zugriff auf große modelle von tongyi haben werden. branchen wie biomedizin, industriesimulation, wettervorhersage und spiele werden ihre akzeptanz großer modelle beschleunigen, was eine neue runde des ki-computings einleiten wird machtwachstum. zhou jingren sagte: „alibaba cloud ist bereit, den exponentiellen anstieg der nachfrage nach gpu-rechenleistung zu bewältigen, insbesondere den kommenden inferenzmarkt.“
erweitertes großes modell öffnen
im vergangenen jahr hat die großmodelltechnologie mehrere meilensteine ​​erreicht, von der großsprache über die videogenerierung bis hin zu multimodalen modellen. die fähigkeiten großer modelle werden immer weiter erweitert und ihre fähigkeiten in den bereichen mathematik, codierung und argumentation nehmen weiter zu.
als eines der ersten technologieunternehmen der branche, das große modelltechnologie entwickelt hat, hat alibaba cloud im april letzten jahres das große sprachmodell tongyi qianwen veröffentlicht. jetzt deckt die tongyi-großmodellfamilie alle modi wie sprache, bild, video usw. vollständig ab. audio usw. mit hoher leistung beide gehören zu den ersten staffeln der welt. gleichzeitig ist das tongyi-modell weiterhin open source und hat sich zu einem der großen inländischen modelle entwickelt, die bei unternehmen und entwicklern beliebt sind.
auf der konferenz gab zhou jingren bekannt, dass tongyis flaggschiffmodell qwen-max in allen aspekten verbessert wurde und die leistung nahe an gpt-4o liegt. gleichzeitig wurde das stärkste open-source-modell der qwen2.5-serie veröffentlicht und ist damit ein weltklasse-modell. klassenmodellgruppe, die in den usa nach llama an zweiter stelle steht. diesmal sind insgesamt 100 modelle open-source-modelle, die es unternehmen und entwicklern ermöglichen, große modelle zu geringen kosten zu nutzen.
für programmierszenarien wurde alibaba cloud tongyi lingma erneut aktualisiert und ein neuer ki-programmierer auf den markt gebracht. anders als das produkt der vorherigen generation verfügt er über mehrere berufsfähigkeiten wie architekt, entwicklungsingenieur und testingenieur und kann aufgabenzerlegung und code unabhängig durchführen durch das schreiben, beheben von fehlern, tests und andere entwicklungsarbeiten kann die anwendungsentwicklung in kürzester zeit abgeschlossen werden, wodurch die softwareentwicklung um ein vielfaches effizienter wird.
ein jahr nach dem hundert-modell-krieg ist die anwendung zum hauptthema der großen modellindustrie geworden. als erstes unternehmen, das das konzept von model as a service (maas) vorschlug, betrachtete alibaba cloud stets den wohlstand des großen modellökosystems als sein vorrangiges ziel. derzeit ist die moda-community mit mehr als 6,9 millionen entwicklernutzern die größte modell-community in china und hat in zusammenarbeit mit industriepartnern mehr als 10.000 modelle beigesteuert.
„wir hoffen, dass unternehmen und entwickler ki zu den niedrigsten kosten erstellen und nutzen können, sodass jeder die fortschrittlichsten großen modelle nutzen kann.“ (li ji)
quelle: guangming.com
bericht/feedback