暂无搜索历史
刷到一个项目叫 open-slide,专门写给 AI 编程 Agent 用的幻灯片框架
今天聊一个完全不一样的角度——RAG / Agent context 工程里最大的痛点,从来不是 chunking 也不是 rerank,而是"数据陈旧"
劳动节假期还没过完,vLLM 团队就给我加了道菜——0.20.1 紧急 patch 出炉了,主线就一句话:把 DSV4 跑不稳、跑不快的问题集中处理一遍
今天再来聊聊 DeepSeek 联手北大、清华甩出的新论文 ——《Thinking with Visual Primitives》(用视觉原语思考)
吴恩达又上新了,《AI Prompting for Everyone》看名字我本来是不想点开的——2026 年了还在讲 Prompting,多少有点"卖白菜"的...
今天换个角度,从架构和推理引擎的视角聊聊:DeepSeek-V4 这次发布为啥这么难伺候,以及 SGLang Day-0 是怎么把活给做下来的
英伟达又发新模型了——NVIDIA Nemotron 3 Nano Omni 30B-A3B-Reasoning
本文先简单介绍 Gemini 的客户端,然后再介绍 Codex 后面出的几个功能!
前段时间圈子里炒得最凶的是 Claude Code 源码泄露,Anthropic 那个混淆过的 cli.js 被人扒出来逆向研究
andrej-karpathy-skills(github.com/forrestchang/andrej-karpathy-skills),把 Karpath...
docker pull vllm/vllm-openai:deepseekv4-cu129
昨天还在看各家模型打架,今天 OpenAI 又把桌子往前推了一截。官方说它是“最聪明、最直觉化”的模型,重点能力放在 Agentic Coding、电脑操作、知...
Qwen3.6-35B,量化、蒸馏版本推荐 Qwen3.6-35B 量化版,vLLM本地部署,性能实测
本文测下 Red Hat 量化团队 Qwen3.6-35B-A3B-NVFP4(4-bit 浮点)的性能
4 月 19 日,普林斯顿 AI 实验室研究员 Yifan Zhang 在 X 上发了一条极其简短的帖子——"V4, next week."
紧跟Kimi K2.6,推一篇有点脑洞的论文,来自月之暗面(Moonshot AI)和清华大学的最新联合研究
Qwen3.6-35B-A3B 开源了,本地部署教程一文中我把这个模型和本地部署(原版以及 GGUF)讲清楚了,但是它 70 多个 GB 的模型文件,我的 40...
先说结论:Qwen3.5 + Unsloth 是目前性价比最高的开源模型微调方案。
吴恩达引用了 METR 的研究:AI 能处理的任务复杂度每 7 个月翻一倍。在编码领域更夸张——大约每 70 天翻一倍。
最近英伟达放出了技术报告(arxiv.org/abs/2604.12374),披露了很多细节
暂未填写公司和职称
暂未填写技能专长
暂未填写学校和专业
暂未填写个人网址
暂未填写所在城市