
4月26日,DeepSeek官方发布API价格调整公告,全系API输入缓存命中价格降至首发价的十分之一。旗舰模型DeepSeek-V4-Pro更叠加限时2.5折优惠。
叠加两项优惠后,DeepSeek-V4-Pro价格大幅下调:输入(缓存命中)低至0.025元/百万Tokens,输入(缓存未命中)为3元/百万Tokens,输出价格为6元/百万Tokens。同期调价的还有DeepSeek-V4-Flash,其输入(缓存命中)从0.2元/百万Tokens降至0.02元/百万Tokens,无额外折扣,其余价格保持不变。
对于RAG知识库、智能客服等缓存命中率高的应用,商用成本降幅超过90%,AI规模化落地的成本门槛进一步降低。
那么,DeepSeek的价格到底有多低?
据Open Router数据显示,GPT-5.5 Pro加权平均输入价格为30美元/百万Tokens,输出为180美元/百万Tokens。单看输入(缓存命中)价格,DeepSeek-V4-Pro比其便宜超700倍。
Anthropic Claude Opus、谷歌Gemini 3.1 Pro等海外顶级模型的输出定价也均在12至25美元之间,与调价后的DeepSeek-V4-Pro差距悬殊。
如此低价的背后,是V4-Pro在技术上的全面升级。
参与优惠的DeepSeek-V4-Pro,是DeepSeek于4月24日正式上线并开源的旗舰模型,分为Pro和Flash两个版本。
该系列全系原生支持1M token超长上下文,采用全新注意力机制结合DSA稀疏注意力,实现长上下文处理效率的突破——1M token场景下,V4-Pro单token推理FLOPs仅为V3.2的27%,KV Cache大小仅为V3.2的10%,大幅降低计算和显存需求。
其架构升级还包含CSA+HCA混合注意力机制、mHC流形约束超连接和Muon优化器三项核心创新,既强化残差连接稳定性,也提升了收敛速度。
DeepSeek-V4-Pro拥有1.6T总参数、49B激活参数,在33万亿tokens上完成预训练,各项能力对标顶级闭源模型。
Agent能力是其突出升级方向,在Agentic Coding评测中达到当前开源模型最佳水平,使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式。世界知识测评中,它大幅领先其他开源模型,仅稍逊于Gemini-Pro-3.1;推理性能上,在数学、STEM、竞赛型代码测评中,更是超越所有已公开评测的开源模型,比肩世界顶级闭源模型。
另一版本DeepSeek-V4-Flash为284B总参数、13B激活参数,在32万亿tokens上完成预训练,面向对成本和速度更敏感的场景。相比V4-Pro,它的世界知识储备稍逊,但推理能力接近;简单Agent任务上两者旗鼓相当,高难度任务仍有差距。
目前,DeepSeek API已同步上线V4-Pro和V4-Flash,支持OpenAI ChatCompletions接口与Anthropic接口,修改model参数即可调用。
需要注意的是,旧有模型名deepseek-chat与deepseek-reasoner将于7月24日停止使用,当前这两个模型名分别对应V4-Flash的非思考模式与思考模式。
尽管价格大幅下调,DeepSeek-V4-Pro仍受高端算力限制,Pro版本服务吞吐十分有限。后续价格能否进一步下调,仍需等待下半年昇腾950超节点批量上市。
来源:星河商业观察
广盛配资提示:文章来自网络,不代表本站观点。