Nachricht

„Price Butcher“ DeepSeek startet einen weiteren großen Modellpreiskampf. Wird dieses Mal jemand nachhaken?

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Jiemian News Reporter |. Chen Zhenfang

Schnittstelle Nachrichtenredakteur |. Song Jianan

DeepSeek, das große Modell „Preismetzger“, startete erneut eine große Preissenkung.

Kürzlich gab das Unternehmen bekannt, dass seine API-Eingabegebühr auf 0,1 Yuan/Million Token und die Ausgabegebühr auf 2 Yuan/Million Token angepasst wird. Dies bedeutet, dass der Preis für große Modell-APIs um eine weitere Größenordnung sinken wird.

DeepSeek untersuchte den Grund für die Preissenkung und erklärte, dass in den Nutzungsszenarien großer Modell-APIs ein erheblicher Teil der Benutzereingaben wiederholt werde. Beispielsweise enthalten die Aufforderungsworte des Benutzers häufig Teile, die wiederholt zitiert werden, oder in mehreren Dialogrunden muss der Inhalt der vorherigen Runden in jeder Runde wiederholt eingegeben werden.

Als Reaktion auf die oben genannten Probleme ermöglicht DeepSeek eine Lösung, die kontextbezogene Festplatten-Caching-Technologie nutzt, um Inhalte zwischenzuspeichern, von denen erwartet wird, dass sie in Zukunft in einem verteilten Festplatten-Array wiederverwendet werden. Wenn in der Eingabe Duplikate vorhanden sind, müssen die Duplikatteile nur ohne Berechnung aus dem Cache gelesen werden. Dies ist auch der Grund für die Preissenkung bei großen Modellen dieses Mal.

DeepSeek wies darauf hin, dass die kontextbezogene Festplatten-Caching-Technologie nicht nur die Servicelatenz reduzieren, sondern auch die Endnutzungskosten erheblich senken kann.

DeepSeek ist außerdem der erste große Modellhersteller weltweit, der Festplatten-Caching in großem Umfang in API-Diensten einsetzt. Dies ist hauptsächlich auf die von DeepSeekV2 vorgeschlagene MLA-Struktur zurückzuführen. Während der Modelleffekt verbessert wird, wird die Größe des Kontext-KVCache erheblich komprimiert, wodurch die für die Speicherung erforderliche Übertragungsbandbreite und Speicherkapazität erheblich reduziert wird, sodass er kostengünstig zwischengespeichert werden kann Festplatten.

Darüber hinaus ist der DeepSeekAPI-Dienst auf eine tägliche Kapazität von 1 Billion ausgelegt und es gibt keine aktuellen oder gleichzeitigen Beschränkungen für Benutzer.

Dies ist nicht das erste Mal, dass das Unternehmen die Preise senkt. Seit Mai dieses Jahres hat der Disruptor DeepSeek die Führung beim Beginn eines API-Preiskampfs übernommen.

Bereits am 25. April hat DeepSeek den Preis für die API auf 1 Yuan/Million Input-Tokens und 2 Yuan/Million Output-Tokens festgelegt. Am 6. Mai veröffentlichte DeepSeek Open SourceBildungsministeriumDas Modell hat niedrigere Parameter und stärkere Fähigkeiten. Die API ist auf 1 Yuan/Million Input-Tokens und 2 Yuan/Million Output-Tokens reduziertGPT Ein Hundertstel von 4 Turbo.

Diese Preissenkung löste schnell Reaktionen in der gesamten Branche aus, wobei Zhipu AI, Huoshan Engine, Baidu, Tencent, Alibaba Cloud usw. nacheinander Preissenkungen ankündigten.

Unter anderem gab Alibaba Cloud bekannt, dass das Kernmodell Qwen-Long von Tongyi Qianwen um 97 % gesunken ist und der Preis nach der Reduzierung nur noch 0,0005 Yuan/tausend Token beträgt. Baidu und Tencent haben nacheinander angekündigt, dass einige große Modelle kostenlos sind.

Und im Ausland,OpenAINach der Veröffentlichung von GPT 4o wurde bekannt gegeben, dass die Nutzung kostenlos sein und der API-Aufrufpreis halbiert werden würde.

Es ist erwähnenswert, dass Tan Dai, Präsident von Volcano Engine, bei einer Veranstaltung von Volcano Engine am 15. Mai bekannt gab, dass der Preis für das Pro-32k-Sitzsack-Universalmodell nur 0,0008 Yuan/Tausend Token beträgt Die gleichen Spezifikationen auf dem Markt betragen im Allgemeinen 0,12 Yuan/Tausende Token sind das 150-fache des Preises des Sitzsackmodells. Die Preise für Sitzsackmodelle sind 99,3 % günstiger als in der Branche, was den Preis großer Modelle in die „Centi-Ära“ treibt.

Tan Dai wies darauf hin, dass die Reduzierung der Kosten einer der Schlüsselfaktoren ist, die den Aufstieg großer Modelle in die „Wertschöpfungsphase“ fördern. Der Preis großer Modellrollen wird Unternehmen dabei helfen, Geschäftsinnovationen zu geringeren Kosten zu beschleunigen.

Damals sagte ein Insider von Volcano Engine gegenüber Jiemian News: „Der wahre Grund für die Preissenkung der großen Doubao-Modelle ist, dass die Anwendung großer Modelle auf der Unternehmensseite noch nicht entwickelt wurde und es zu wenige Szenarien gibt.“ wies darauf hin, dass die Branche zwar über den Einsatz von KI-Großmodellen bei der Rekonstruktion des Geschäfts diskutiert, es aber in der täglichen Arbeit und im Leben selten zu spüren sei, dass die Implementierung großer Modellfunktionen „die Schwelle für den Einsatz wesentlich senkt“.

Aus Sicht der Reduzierung ist die Reduzierung des Inputpreises im Allgemeinen höher als die Reduzierung des Outputpreises. Bei den meisten preisgünstigen Produkten handelt es sich um leichte Modellversionen, die nur für den kurzfristigen Einsatz durch kleine und mittlere Unternehmen und einzelne Entwickler mit geringer Häufigkeit, geringem Denkaufwand und einfachen Aufgaben geeignet sind.

Insgesamt befinden sich große Modelle noch in der Marktbearbeitungsphase. Derzeit ist die API-Preissenkung eher eine Kundenakquisestrategie für große Modellhersteller, um mehr Unternehmen den Zugriff auf ihre eigenen Geschäftsszenarien zu ermöglichen, die Anwendung großer Modelle in verschiedenen Branchen zu fördern und die Kommerzialisierung weiter zu beschleunigen. Diese Initiative trägt dazu bei, Entwickler und Partner anzuziehen, baut schnell ein Ökosystem auf und bietet außerdem einen größeren Raum für innovative Anwendungen in verschiedenen Bereichen.

Die Senkung der Preise oder die Bereitstellung kostenloser Preise soll es mehr Unternehmen und Entwicklern ermöglichen, große Modelle schnell zu nutzen. Denn die Teilnahme von mehr Menschen ist eine Voraussetzung für die Entwicklung der Branche.

Es ist jedoch offensichtlich schwierig, den geschlossenen Kreislauf der Kommerzialisierung großer Modelle zu schließen, indem man sich allein auf das API-Geschäft verlässt. „Kein großes Modellunternehmen überlebt durch den Verkauf von APIs“, sagte ein FA (Finanzberater), der zuvor der großen Modellindustrie Aufmerksamkeit geschenkt hatte, gegenüber Jiemian News.

Auch Fu Sheng, Vorstandsvorsitzender und CEO von Cheetah Mobile, glaubt, dass große Preissenkungen im Grunde darauf hinweisen, dass große Startups neue Geschäftsmodelle finden müssen. Die stärksten Rückgänge mussten große Unternehmen mit Cloud-Diensten hinnehmen. Sie nutzen große Modelle, um Cloud-Kunden zu gewinnen, also können sich große Modell-Startups solche nicht leisten Ökosystem und muss ein anderes Geschäftsmodell finden.

Anders als bei der ersten Runde der Preissenkungen haben viele große Modellunternehmen angesichts des von DeepSeek eingeleiteten Preiskampfs noch nicht reagiert und nur wenige haben relevante Kommentare abgegeben. Eine weitere Preissenkung zeigt jedoch, dass die inklusive Ära der großen Modelle bevorsteht und das vertikale Anwendungsökosystem voraussichtlich weiter florieren wird.