
就在百度刚刚发布PaddleOCR-VL,以0.9B参数量重新定义文档解析效率之际,DeepSeek也正式开源了其颠覆性的DeepSeek-OCR模型。不过,它的野心远不止于“识别”,而是直指大模型处理长文本的核心痛点——如何用视觉token实现高效的“上下文光学压缩”。这或许将决定未来大模型的记忆边界与认知效率。

单块英伟达A100每天就能处理20万页数据,为大模型训练提供了前所未有的数据生成能力。
GitHub上的火爆程度印证了这一突破的重要性——DeepSeek-OCR项目一晚上就斩获超过4000个Star,成为近期最受关注的开源项目之一。

传统大模型处理长文本时面临“算力爆炸”难题——文本越长,计算量呈平方级增长。当处理数千甚至数万token的文档时,计算开销变得难以承受。

DeepSeek团队脑洞大开:既然一张图能顶千言万语,为什么不把文字“压缩”成图片来处理?实验证明,当文本token数量在视觉token的10倍以内时,模型解码精度高达97%;即使压缩率达到20倍,精度仍保持在60%左右。原本需要10,000个单词的文本,现在理论上只需约1,500个经过特殊压缩的视觉token即可完整表示。
这就好比聪明人读书可以“一目十行”,而不需要逐字阅读。DeepSeek-OCR正是让AI学会了这种高效的信息处理方式。

DeepEncoder采用创新的“先局部、再压缩、后全局”的三段式设计:
这种设计使得DeepEncoder能够在保持高分辨率输入的同时,产出极少的视觉token,支持从64token到800token的多分辨率模式。
基于MoE架构,在推理时仅激活64个专家中的6个,加上2个共享专家,激活参数量仅570M。这种设计让模型在获得3B参数表达能力的同时,享受500M小模型的推理效率。
解码器的核心任务是从压缩的视觉token中精准还原文本表示,学习从视觉空间到文本空间的非线性映射。

实验结果令人惊叹:

在OmniDocBench基准测试中:

不同类型文档的需求差异显著:
在实际应用中,单张A100-40G显卡每天能生成20万+页训练数据,为LLM/VLM的大规模训练提供了强大支撑。使用20个节点(每个节点8张A100),每日处理能力达到3300万页!
如果与DeepSeek几周前发布的稀疏注意力机制DSA结合使用,模型的有效上下文窗口可能扩展到千万token级别。




除了基础OCR,DeepSeek-OCR还具备深度解析能力:



团队提出了一个深刻洞见:用视觉压缩模拟人类遗忘曲线。
这种机制为AI的长上下文处理提供了全新思路,让机器记忆更接近人类智能。通过渐进式压缩,实现了信息的自然衰减,完美平衡了信息保留与计算效率。
模型一经发布立即引爆社区GitHub迅速斩获4K星标,OpenAI联合创始成员、前特斯拉自动驾驶总监Andrej Karpathy给出了高度评价,并提出了更深刻的洞见:
“作为一个本质上是研究计算机视觉,暂时伪装成自然语言专家的人,我更感兴趣的是:对于大语言模型来说,像素是否比文本更适合作为输入?”
Karpathy指出,文本token在输入端可能是在浪费资源,甚至很糟糕。他大胆设想:“也许更合理的是,LLM的所有输入都应该是图像。即使你碰巧有纯文本输入,也许你更愿意先渲染它,然后再输入。”

他列举了这种范式的多个优势:
Django Web框架的联合创建者Simon Willison展示了让Claude Code在英伟达Spark硬件上运行这个模型的完整过程——仅使用4个提示词,耗时仅40分钟。

许多专家认为,这不仅是OCR技术的突破,我们的大脑本就使用类似的视觉记忆表征机制,更是“视觉作为通用压缩媒介”这一范式的新高度。它为重新思考AI的信息处理方式提供了全新视角,或许是通往更智能AI系统的重要一步。
论文地址:https://github.com/deepseek-ai/DeepSeek-OCR/blob/main/DeepSeek_OCR_paper.pdf
代码仓库:https://github.com/deepseek-ai/DeepSeek-OCR
模型下载:https://huggingface.co/deepseek-ai/DeepSeek-OCR原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。