潮新闻客户端 记者 张云山
今天,国内AI大模型公司DeepSeek官方账号在知乎首次发布《DeepSeek-V3/R1推理系统概览》技术文章,不仅公开了其推理系统的核心优化方案,更首次披露了成本利润率等关键财务数据,引发行业震动。数据显示,若按理论定价计算,其单日成本利润率高达545%,这一数字刷新了全球AI大模型领域的盈利天花板。
理论单日利润率达545%
根据DeepSeek官方披露,其推理服务基于H800 GPU集群部署,通过动态调整节点资源实现效率最大化。在最近24小时(2025年2月27日12:00至28日12:00)的统计周期内:成本:GPU租赁成本按2美元/小时计算,日均成本为87,072美元;收入:若所有输入/输出token按R1定价(输入1元/百万token、输出16元/百万token)计算,单日收入可达562,027美元。利润率:理论值达545%。不过,官方坦言实际收入受V3定价更低、夜间折扣及免费服务比例影响,会低于理论值。
成本与理论收益
创新推理系统实现“降本增效”三重优化
DeepSeek的高利润率源于其创新的推理系统设计,核心包括大规模跨节点专家并行(EP)、计算通信重叠与负载均衡优化三大技术支柱:专家家并行(EP)提升吞吐与响应速度,针对模型稀疏性(每层仅激活8/256个专家),采用EP策略扩展总体批处理规模(batch size),确保每个专家获得足够的计算负载,显著提升GPU利用率;部署单元动态调整(如Prefill阶段4节点、Decode阶段18节点),平衡资源分配与任务需求。
计算与通信重叠隐藏延迟,Prefill阶段通过“双batch交错”实现计算与通信并行,Decode阶段拆分attention为多级流水线,最大限度掩盖通信开销。
全局负载均衡避免资源浪费,针对不同并行模式(数据并行DP、专家并行EP)设计动态负载均衡器,确保各GPU的计算量、通信量及KVCache占用均衡,避免节点空转。
DeepSeek在工程层面进一步压缩成本。昼夜资源调配:白天高峰时段全力支持推理服务,夜间闲置节点转用于研发训练,最大化硬件利用率;缓存命中率达56.3%:通过KVCache硬盘缓存减少重复计算,输入token中3420亿(56.3%)直接命中缓存,大幅降低算力消耗。
低成本高利润重塑AI商业化的成本标杆
DeepSeek此次披露的数据,不仅验证了其技术路线的商业可行性,更为行业树立了高效盈利的标杆:其模型训练成本仅为同类产品的1%-5%,此前发布的V3模型训练成本仅557.6万美元,远低于OpenAI等巨头410;推理定价优势方面,R1的API定价仅为OpenAI o3-mini的1/7至1/2,低成本策略加速市场渗透。
DeepSeek架构
业内分析指出,DeepSeek的开源策略与成本控制能力正在打破AI领域的资源垄断。DeepSeek此次“透明化”披露,不仅展示了其技术实力与商业潜力,更向行业传递明确信号:AI大模型的盈利闭环已从理想照进现实。
“转载请注明出处”
领取专属 10元无门槛券
私享最新 技术干货