DeepSeek开源周首日重磅发布!首个项目FlashMLA解锁H800算力极限,AI推理速度飙升
2025年2月24日,DeepSeek正式启动为期五天的“开源周”,首个亮相的“王炸级”项目——FlashMLA(专为英伟达Hopper GPU优化的高效MLA解码内核)迅速引爆AI社区。这个工业级优化方案不仅挑战了H800的算力天花板,更让中高端消费级GPU也能轻松运行大模型,为AI普惠化注入新动能。
FlashMLA针对对话、文章生成等场景的变长文本优化,通过动态分桶调度和分页式KV缓存(64块大小),将GPU内存利用率提升至极致,显存占用减少40%,推理延迟降低60%。传统方案需通过“填充”统一长度,浪费30%以上算力,而FlashMLA实现“零填充”批处理,让长短文本各得其所。
2. 极致性能表现
3. 训练成本杀手锏
MLA(多头潜注意力)机制将每次查询的KV缓存量减少 93.3% ,配合MoE架构,使DeepSeek大模型训练成本大幅降低。网友 @Hemang Dave指出,类似技术可让模型规模比GPU显存大两倍,推理速度提升20-25倍。
FlashMLA的开源打破了算力垄断,让全球开发者免费获得工业级优化方案:
DeepSeek R1模型因MLA技术加持,已在开源平台“抱抱脸”获超1万点赞,成为最受欢迎模型。网友热议:“第五天会不会开源AGI?” 结合其多Token预测(MTP)和MoE架构创新,DeepSeek正以“算法+工程”双轮驱动,重新定义AI训练范式。
GitHub仓库:https://github.com/deepseek-ai/FlashMLA
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,我们,下次再见。