2026 年 4 月下旬,有人在 Anthropic 的技术文档中发现了一个几乎没有任何官方宣传的更新:Claude Desktop(桌面版)现已支持接入第三方 LLM 推理端点,包括 OpenRouter、Amazon Bedrock、Google Vertex AI、Azure AI Foundry,以及任何兼容 /v1/messages 接口的 LLM 网关。
这意味着你可以在 Claude Desktop 的界面和工作流(Claude Cowork、Claude Code Desktop)里,跑 GPT-5、Grok、Gemini、Kimi K2、Qwen 甚至本地模型——完全不用登录 Anthropic 账号,不依赖 Anthropic 的推理基础设施。
没有博客公告,没有发布会,只有技术文档里悄悄更新的几行字。
通过 AWS IAM 认证,数据留在 AWSOpenRouter 支持 200+ 模型,包括 GPT-5、Grok、Gemini、Kimi K2、Qwen 等,且有免费模型可用。
步骤如下:
Step 1:获取 OpenRouter API Key
访问 https://openrouter.ai,注册账号,在 Keys 页面创建一个 API Key(格式为 sk-or-v1-...)。
Step 2:打开 Claude Desktop 的第三方推理配置
菜单栏 → Developer(开发者)→ Configure Third-Party Inference(配置第三方推理)
Step 3:填写配置
Gateway(网关)Step 4:配置 Sandbox 出口白名单(可选)
如果你希望 Agent 能访问网络,在 Sandbox & workspace 里的 "Allowed egress hosts" 填入 *(允许所有域名)或具体域名。
Step 5:选择模型
连接成功后,在对话界面的模型下拉菜单中选择 OpenRouter 上的具体模型,例如:
tencent/hy3-preview:free(免费)openai/gpt-5google/gemini-2.5-promoonshotai/kimi-k2Step 6:手动安装 Skills(重要)
通过 OpenRouter 接入后,内置 Skills 需要手动安装:
https://github.com/anthropics/skillsCustomize → Skills → Create skill → Upload a skilldocx、pdf、pptx、xlsx 等 skill 的 .zip 文件⚠️ 注意:Skills 会占用上下文窗口,只上传你实际需要的。
前提条件:
bedrock:InvokeModel 和 bedrock:InvokeModelWithResponseStream 权限的 IAM 角色配置步骤:
菜单栏 → Developer → Configure Third-Party Inference
Connection 选择:Bedrock
填写 AWS Region(如 us-east-1)
填写 IAM Role ARN 或 Access Key / Secret Key
数据路径:你的设备 → AWS Bedrock → 模型 Anthropic 全程看不到你的请求内容。
前提条件:
Connection 选择:Vertex AI
填写 GCP Project ID
填写 Region(如 us-central1)
通过 OAuth 授权登录 Google 账号
如果你有本地跑的 Ollama、llama.cpp 等模型,需要通过 LiteLLM 做一个格式转换层(因为本地模型通常是 OpenAI 格式,而 Claude Desktop 需要 /v1/messages 格式):
# 安装 LiteLLM
pip install litellm
# 启动代理,将 Ollama 转为 Claude 格式
litellm --model ollama/qwen3:14b --port 8080
然后在 Claude Desktop 配置:
Connection: Gateway
Gateway base URL: http://localhost:8080
Gateway API key: (随便填一个字符串即可)
Gateway auth scheme: bearer
重要: 你填入的 API Key 和 Gateway URL 存储在本地设备上,不会上传至 Anthropic 服务器。
表面上看,这对 Anthropic 的模型销售是一种"自损"——用户用 Claude Desktop 的界面,跑的却是 GPT 或 Gemini,Anthropic 收不到一分钱推理费用。
但实际逻辑正好相反:
① 工具比模型更有粘性
Claude Cowork 和 Claude Code Desktop 是 Anthropic 精心打造的工作流工具,代表着 Anthropic 对"如何与 AI 协作"这件事的深度理解。一旦用户习惯了这套工作流——任务委托、多 Session 并行、文件系统集成、MCP 连接器——就很难切换走。
即使今天用 GPT-5 跑,明天 Claude 模型更强了,用户会自然切回来,而工作流的迁移成本却不用重新付出。
② 进入企业市场的关键钥匙
许多大型企业和政府机构有严格的数据合规要求——他们可能只被允许使用自建的 AWS Bedrock 或内部 LLM 网关,根本无法直接连接 Anthropic 的 API。
如果 Claude Desktop 不支持第三方接入,这些用户就直接丢失了。支持之后,Anthropic 就能把 Cowork 的产品体验卖进这些机构,渠道收入 > 单次推理收入。
③ 生态优先于闭环
Anthropic 的核心竞争力是模型研究能力和 MCP 生态。越多的人使用 Claude Desktop 作为 AI 工作台,MCP 标准就越有机会成为行业基础设施,就像 VS Code 通过开放插件市场成为开发者标准工具一样。
这个问题问得很有意思。换一个角度想:
Anthropic 在赌一件事:Claude 模型长期更强。
如果他们对此有信心,那开放第三方接入根本不是威胁——用户用过 GPT-5 之后反而更能感受到 Claude 的差异化价值(尤其是代码质量、指令遵循、长上下文处理)。这是一种极度自信的市场策略。
同时,这也是一种防御性布局:
维度 | 评价 |
|---|---|
产品策略 | ⭐⭐⭐⭐⭐ 工具生态优先,极度明智 |
企业市场 | ⭐⭐⭐⭐⭐ 打开了合规要求严格的机构市场 |
模型销售短期 | ⭐⭐⭐ 有一定分流,但总体影响有限 |
生态建设 | ⭐⭐⭐⭐⭐ MCP 标准推广的最强助力 |
开发者信任 | ⭐⭐⭐⭐⭐ 数据本地存储,隐私有保障 |
Anthropic 这步棋的核心逻辑是:模型是商品,工作流是护城河。 与其用封闭来保住短期收入,不如用开放来赢得长期用户习惯。
这件事没有任何官方公告,只是技术文档里多了几行字。
2026 年 4 月,有人在 Anthropic 的帮助文档里发现了一个新功能:Claude Desktop 现在支持接入第三方大模型——GPT-5、Grok、Gemini、Kimi K2、Qwen,甚至你自己电脑上跑的本地模型,都可以在 Claude 桌面版的界面里调用。
没有发布会,没有博客,只有技术文档。
Claude Desktop 不只是一个聊天界面,它包含两个核心产品:
过去,这两个产品只能用 Anthropic 自家的 Claude 模型。
现在,你可以把推理后端换成任何一个支持标准接口的服务,包括:
操作非常简单,3 步搞定:
第一步:去 openrouter.ai 注册,获取 API Key
第二步:打开 Claude Desktop → 菜单栏 → Developer → Configure Third-Party Inference
第三步:填入以下内容:
Connection: Gateway
Gateway base URL: https://openrouter.ai/api
Gateway API key: 你的 OpenRouter Key
Gateway auth scheme: x-api-key
保存后,在对话界面选择你想用的模型就行了。
你的 API Key 只存在本地,不会上传到 Anthropic。
这个问题值得思考一下。
第一个角度:工具比模型更值钱。
Anthropic 赌的不是"让你只用 Claude 模型",而是"让你习惯 Claude 的工作方式"。Cowork 的任务委托机制、多 Session 并行、MCP 工具连接——一旦你习惯了这套流程,迁移成本就很高了。
哪怕今天你用 GPT-5 跑任务,只要工作流留在 Claude Desktop 里,等明天 Claude 模型更强,你会自然切回来。
第二个角度:打开企业市场的大门。
很多政府机构和大企业有严格的数据合规要求,他们只被允许用自己的 AWS 或内部网关,根本不能直接调 Anthropic 的 API。
过去,这批用户对 Claude Desktop 来说是零。现在,他们可以用 Bedrock 或内部网关接入,Cowork 的产品体验就能卖进去了。
第三个角度:MCP 生态的最强推手。
越多人用 Claude Desktop 作为 AI 工作台,MCP(模型上下文协议)就越有机会成为行业标准。这就像 VS Code 用开放插件市场占领了开发者工具赛道一样。
这步棋的核心逻辑是:模型是商品,工作流是护城河。
Anthropic 没有选择封闭,而是选择开放——用工具层的黏性,替代模型层的独占性。
对于我们这些需要处理大量日常工作的人来说,这个更新很实用:
Claude 的界面还在,工作流还在,只是背后跑的模型换了。
体验路径:
Claude Desktop → Developer → Configure Third-Party Inference → 接入 OpenRouter
开始之前,先去 openrouter.ai 注册一个免费账号,找一个免费模型试试水。
注:此功能目前为 Research Preview(研究预览),功能仍在持续完善中。
本文分享自 PM智圈-PMAIhub 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!