nouvelles

"Price Butcher" DeepSeek lance une autre guerre des prix à grande échelle. Quelqu'un donnera-t-il suite cette fois-ci ?

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Journaliste de nouvelles de Jiemian | Chen Zhenfang

Editeur de nouvelles d'interface | Chanson Jianan

DeepSeek, le grand modèle « price boucher », a une nouvelle fois lancé une grosse baisse de prix.

Récemment, la société a annoncé que ses frais d'entrée API seraient ajustés à 0,1 yuan/million de jetons et que les frais de sortie seraient de 2 yuans/million de jetons. Cela signifie que le prix des API de grands modèles sera réduit d’un autre ordre de grandeur.

En enquêtant sur la raison de la réduction de prix, DeepSeek a expliqué que dans les scénarios d'utilisation d'API de grands modèles, une proportion considérable d'entrées utilisateur est répétée. Par exemple, les mots d'invite de l'utilisateur comportent souvent certaines parties qui sont citées à plusieurs reprises, ou dans plusieurs tours de dialogue, le contenu des tours précédents doit être saisi de manière répétée à chaque tour.

En réponse aux problèmes ci-dessus, DeepSeek propose une solution utilisant la technologie de mise en cache contextuelle du disque dur pour mettre en cache le contenu susceptible d'être réutilisé à l'avenir dans une baie de disques durs distribuée. S'il y a des doublons dans l'entrée, les parties en double doivent uniquement être lues depuis le cache sans calcul. C’est aussi la raison de la baisse de prix des grands modèles cette fois-ci.

DeepSeek a souligné que la technologie de mise en cache contextuelle du disque dur peut non seulement réduire la latence des services, mais également réduire considérablement les coûts d'utilisation finale.

DeepSeek est également le premier grand fabricant de modèles au monde à utiliser à grande échelle la mise en cache du disque dur dans les services API. Cela est principalement dû à la structure MLA proposée par DeepSeekV2 - tout en améliorant l'effet de modèle, elle compresse considérablement la taille du contexte KVCache, ce qui réduit considérablement la bande passante de transmission et la capacité de stockage requise pour le stockage, afin qu'il puisse être mis en cache à faible coût. disques durs.

De plus, le service DeepSeekAPI est conçu avec une capacité quotidienne de 1 000 milliards, et il n'y a aucune limite actuelle ou de simultanéité pour les utilisateurs.

Ce n'est pas la première fois que l'entreprise baisse ses prix. Depuis mai de cette année, le disrupteur DeepSeek a pris les devants en lançant une guerre des prix des API.

Dès le 25 avril, DeepSeek a fixé le prix de l'API à 1 yuan/million de jetons d'entrée et à 2 yuans/million de jetons de sortie. Le 6 mai, DeepSeek a publié l'open sourceMinistère de l'ÉducationLe modèle a des paramètres inférieurs et des capacités plus fortes. L'API est réduite à 1 yuan/million de jetons d'entrée et à 2 yuans/million de jetons de sortie.GPT Un centième de 4 Turbo.

Cette baisse de prix a rapidement déclenché des réactions de l'ensemble du secteur, Zhipu AI, Huoshan Engine, Baidu, Tencent, Alibaba Cloud, etc. annonçant des baisses de prix les unes après les autres.

Parmi eux, Alibaba Cloud a annoncé que le modèle de base Qwen-Long de Tongyi Qianwen a chuté de 97 % et que le prix après la réduction n'est que de 0,0005 yuans/millier de jetons. Baidu et Tencent ont successivement annoncé que certains grands modèles étaient gratuits.

Et à l'étranger,OpenAIAprès la sortie de GPT 4o, il a été annoncé que son utilisation serait gratuite et que le prix des appels API serait réduit de moitié.

Il convient de noter que lors d'un événement de Volcano Engine le 15 mai, Tan Dai, président de Volcano Engine, a annoncé que le prix du modèle universel de pouf pro-32k n'est que de 0,0008 yuans/millier de jetons. les mêmes spécifications sur le marché sont généralement de 0,12 yuans/ Des milliers de jetons coûtent 150 fois le prix du modèle de pouf. Le prix des modèles de poufs est 99,3 % moins cher que celui de l'industrie, ce qui fait entrer le prix des grands modèles dans « l'ère centi ».

Tan Dai a souligné que la réduction des coûts est l'un des facteurs clés qui favorisent le passage des grands modèles au « stade de création de valeur ». Le prix des rouleaux de grands modèles aidera les entreprises à accélérer l'innovation commerciale à moindre coût.

À cette époque, un initié de Volcano Engine a déclaré à Jiemian News : « La vraie raison de la réduction des prix des grands modèles Doubao est que l'application des grands modèles du côté des entreprises n'a pas encore été développée et qu'il y a trop peu de scénarios. a souligné que bien que l'industrie discute de l'utilisation de grands modèles d'IA pour reconstruire l'entreprise, mais dans le travail et la vie quotidienne, il est rare de ressentir la mise en œuvre de capacités de grands modèles « La réduction des prix abaisse essentiellement le seuil d'utilisation. »

Du point de vue de la réduction, la réduction du prix des intrants est généralement supérieure à la réduction du prix des extrants. La plupart des produits à prix réduit sont des versions de modèles légers, qui ne conviennent qu'à une utilisation à court terme par les petites et moyennes entreprises et les développeurs individuels avec une faible fréquence, peu de raisonnement et des tâches simples.

Dans l’ensemble, les grands modèles sont encore au stade de la commercialisation. À l'heure actuelle, la réduction du prix des API constitue davantage une stratégie d'acquisition de clients pour les grands fabricants de modèles afin de permettre à davantage d'entreprises d'accéder à leurs propres scénarios commerciaux, de promouvoir l'application de grands modèles dans diverses industries et d'accélérer encore la commercialisation. Cette initiative permet d'attirer des développeurs et des partenaires, d'établir rapidement un écosystème et d'offrir également un espace plus large pour des applications innovantes dans divers domaines.

Réduire les prix ou les rendre gratuits, c'est permettre à davantage d'entreprises et de développeurs d'utiliser rapidement de grands modèles. Après tout, permettre à davantage de personnes de participer est une condition préalable au développement de l'industrie.

Cependant, il est évidemment difficile de boucler la boucle fermée de la commercialisation de grands modèles en s’appuyant uniquement sur le secteur des API. "Aucune grande entreprise modèle ne survit en vendant des API", a déclaré à Jiemian News un FA (consultant financier) qui s'intéressait auparavant à la grande industrie du modèle.

Fu Sheng, président-directeur général de Cheetah Mobile, estime également que les baisses de prix importantes indiquent essentiellement que les startups à grande échelle doivent trouver de nouveaux modèles commerciaux. Celles qui ont subi les baisses les plus sévères sont les grandes entreprises proposant des services cloud : elles utilisent de grands modèles pour acquérir des clients cloud. "La laine vient du porc, vous pouvez donc vous permettre une telle réduction". écosystème et doit trouver un autre modèle économique.

Contrairement à la première série de baisses de prix, face à la guerre des prix lancée par DeepSeek, de nombreuses grandes entreprises modèles n'ont pas encore donné suite et peu ont fait des commentaires pertinents. Cependant, une autre réduction de prix montre que l'ère inclusive des grands modèles arrive et que l'écosystème d'applications verticales devrait continuer à prospérer.