
📅 12月26日,杭州深度求索人工智能基础技术研究有限公司(简称“深度求索”)正式发布了全新系列模型 DeepSeek-V3。官方表示,该模型多项评测成绩超过了诸如 Qwen2.5-72B 和 Llama-3.1-405B 等顶尖开源模型,在性能上更是与闭源模型 GPT-4o 和 Claude-3.5-Sonnet 平分秋色。

根据官方技术论文,DeepSeek-V3的训练成本为 557.6万美元,远低于 GPT-4o 等闭源模型的 1亿美元,但依旧实现了与其性能相当的效果:

笔者在第一时间体验了这个备受瞩目的模型,以下是几点感受:

📝 吐槽:一个自诩“打破大模型格局”的顶尖开源模型,却犯了这种“认亲”级错误,似乎和它的“顶尖”称号有些不匹配。

让我们通过几个数据来直观了解:
模型 | 训练成本(美元) | 开源/闭源 | 评测成绩 | 关键优势 |
|---|---|---|---|---|
GPT-4o | 1亿 | 闭源 | 世界顶尖,行业标杆 | 超高准确性和稳定性 |
Claude-3.5-Sonnet | 未公开 | 闭源 | 通用能力强 | 人性化对话能力 |
Qwen2.5-72B | 未公开 | 开源 | 出色的语言理解和生成 | 国内领先模型 |
DeepSeek-V3 | 557.6万 | 开源 | 超越Qwen等,接近GPT-4o | 成本低、可定制化 |

📌 总结: DeepSeek-V3 在模型训练成本上的确具备优势,尤其是开源特性加持,使其更容易被开发者社区接受。但在实际体验中,性能虽优异,却尚存小问题,比如回答内容的准确性和偶尔出现的Bug。
DeepSeek-V3的发布,是否能打破国内外大模型格局? 目前来看,其性能确实有竞争力,但和 GPT-4o 等闭源模型的稳定性相比,还存在一定差距。不过,考虑到:
它的潜力不容小觑。
对于想要尝试 DeepSeek-V3 的开发者们,不妨关注以下几点:
🤖 DeepSeek-V3,真能扛起开源模型的大旗?还是需要更多时间打磨?欢迎在评论区分享你的看法!👇