首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >不过了吗?Claude Desktop 已悄悄支持第三方大模型,这意味着什么?

不过了吗?Claude Desktop 已悄悄支持第三方大模型,这意味着什么?

作者头像
PMAIhub
发布2026-04-28 18:20:44
发布2026-04-28 18:20:44
9810
举报

一、这件事的背景

2026 年 4 月下旬,有人在 Anthropic 的技术文档中发现了一个几乎没有任何官方宣传的更新:Claude Desktop(桌面版)现已支持接入第三方 LLM 推理端点,包括 OpenRouter、Amazon Bedrock、Google Vertex AI、Azure AI Foundry,以及任何兼容 /v1/messages 接口的 LLM 网关。

这意味着你可以在 Claude Desktop 的界面和工作流(Claude Cowork、Claude Code Desktop)里,跑 GPT-5、Grok、Gemini、Kimi K2、Qwen 甚至本地模型——完全不用登录 Anthropic 账号,不依赖 Anthropic 的推理基础设施。

没有博客公告,没有发布会,只有技术文档里悄悄更新的几行字。


二、操作手册:如何接入第三方模型

适用平台

  • macOS(推荐)
  • Windows 10/11

支持的接入方式

代码语言:javascript
复制
通过 AWS IAM 认证,数据留在 AWS

方法一:接入 OpenRouter(最简单,推荐个人用户)

OpenRouter 支持 200+ 模型,包括 GPT-5、Grok、Gemini、Kimi K2、Qwen 等,且有免费模型可用。

步骤如下:

Step 1:获取 OpenRouter API Key

访问 https://openrouter.ai,注册账号,在 Keys 页面创建一个 API Key(格式为 sk-or-v1-...)。

Step 2:打开 Claude Desktop 的第三方推理配置

代码语言:javascript
复制
菜单栏 → Developer(开发者)→ Configure Third-Party Inference(配置第三方推理)

Step 3:填写配置

代码语言:javascript
复制
Gateway(网关)

Step 4:配置 Sandbox 出口白名单(可选)

如果你希望 Agent 能访问网络,在 Sandbox & workspace 里的 "Allowed egress hosts" 填入 *(允许所有域名)或具体域名。

Step 5:选择模型

连接成功后,在对话界面的模型下拉菜单中选择 OpenRouter 上的具体模型,例如:

  • tencent/hy3-preview:free(免费)
  • openai/gpt-5
  • google/gemini-2.5-pro
  • moonshotai/kimi-k2

Step 6:手动安装 Skills(重要)

通过 OpenRouter 接入后,内置 Skills 需要手动安装:

  1. 下载官方 Skills 仓库:https://github.com/anthropics/skills
  2. 在 Claude Desktop 中:Customize → Skills → Create skill → Upload a skill
  3. 按需上传 docxpdfpptxxlsx 等 skill 的 .zip 文件

⚠️ 注意:Skills 会占用上下文窗口,只上传你实际需要的。


方法二:接入 Amazon Bedrock(推荐企业用户)

前提条件:

  • 拥有 AWS 账户,已开通 Bedrock 服务
  • 具备 bedrock:InvokeModelbedrock:InvokeModelWithResponseStream 权限的 IAM 角色

配置步骤:

代码语言:javascript
复制
菜单栏 → Developer → Configure Third-Party Inference
Connection 选择:Bedrock
填写 AWS Region(如 us-east-1)
填写 IAM Role ARN 或 Access Key / Secret Key

数据路径:你的设备 → AWS Bedrock → 模型 Anthropic 全程看不到你的请求内容。


方法三:接入 Google Vertex AI

前提条件:

  • GCP 项目已启用 Vertex AI API
  • 已创建 OAuth 客户端凭证
代码语言:javascript
复制
Connection 选择:Vertex AI
填写 GCP Project ID
填写 Region(如 us-central1)
通过 OAuth 授权登录 Google 账号

方法四:通过 LiteLLM 代理接入本地模型

如果你有本地跑的 Ollama、llama.cpp 等模型,需要通过 LiteLLM 做一个格式转换层(因为本地模型通常是 OpenAI 格式,而 Claude Desktop 需要 /v1/messages 格式):

代码语言:javascript
复制
# 安装 LiteLLM
pip install litellm

# 启动代理,将 Ollama 转为 Claude 格式
litellm --model ollama/qwen3:14b --port 8080

然后在 Claude Desktop 配置:

代码语言:javascript
复制
Connection: Gateway
Gateway base URL: http://localhost:8080
Gateway API key: (随便填一个字符串即可)
Gateway auth scheme: bearer

API Key 的安全存储

重要: 你填入的 API Key 和 Gateway URL 存储在本地设备上,不会上传至 Anthropic 服务器。


三、功能点评:Anthropic 为什么要这么做?

Q1:为什么不封闭自己的生态,强制使用 Claude 模型?

表面上看,这对 Anthropic 的模型销售是一种"自损"——用户用 Claude Desktop 的界面,跑的却是 GPT 或 Gemini,Anthropic 收不到一分钱推理费用。

但实际逻辑正好相反:

① 工具比模型更有粘性

Claude Cowork 和 Claude Code Desktop 是 Anthropic 精心打造的工作流工具,代表着 Anthropic 对"如何与 AI 协作"这件事的深度理解。一旦用户习惯了这套工作流——任务委托、多 Session 并行、文件系统集成、MCP 连接器——就很难切换走。

即使今天用 GPT-5 跑,明天 Claude 模型更强了,用户会自然切回来,而工作流的迁移成本却不用重新付出

② 进入企业市场的关键钥匙

许多大型企业和政府机构有严格的数据合规要求——他们可能只被允许使用自建的 AWS Bedrock 或内部 LLM 网关,根本无法直接连接 Anthropic 的 API。

如果 Claude Desktop 不支持第三方接入,这些用户就直接丢失了。支持之后,Anthropic 就能把 Cowork 的产品体验卖进这些机构,渠道收入 > 单次推理收入

③ 生态优先于闭环

Anthropic 的核心竞争力是模型研究能力和 MCP 生态。越多的人使用 Claude Desktop 作为 AI 工作台,MCP 标准就越有机会成为行业基础设施,就像 VS Code 通过开放插件市场成为开发者标准工具一样。


Q2:为什么允许接入竞争对手的模型?

这个问题问得很有意思。换一个角度想:

Anthropic 在赌一件事:Claude 模型长期更强。

如果他们对此有信心,那开放第三方接入根本不是威胁——用户用过 GPT-5 之后反而更能感受到 Claude 的差异化价值(尤其是代码质量、指令遵循、长上下文处理)。这是一种极度自信的市场策略

同时,这也是一种防御性布局

  • Cursor、Windsurf 这些 AI IDE 都在做模型无关的工作流层
  • 如果 Anthropic 的工具只支持自家模型,用户就会流向那些更灵活的竞品
  • 与其让用户跑去 Cursor 里用 Claude API,不如把 Claude Desktop 做成可以跑任何模型的工作台,留住用户在自家产品生态里

综合评价:这是一步妙棋

维度

评价

产品策略

⭐⭐⭐⭐⭐ 工具生态优先,极度明智

企业市场

⭐⭐⭐⭐⭐ 打开了合规要求严格的机构市场

模型销售短期

⭐⭐⭐ 有一定分流,但总体影响有限

生态建设

⭐⭐⭐⭐⭐ MCP 标准推广的最强助力

开发者信任

⭐⭐⭐⭐⭐ 数据本地存储,隐私有保障

Anthropic 这步棋的核心逻辑是:模型是商品,工作流是护城河。 与其用封闭来保住短期收入,不如用开放来赢得长期用户习惯。


四、微信公众号推文


Claude 桌面版悄悄更新,现在可以接入任何大模型了

这件事没有任何官方公告,只是技术文档里多了几行字。

2026 年 4 月,有人在 Anthropic 的帮助文档里发现了一个新功能:Claude Desktop 现在支持接入第三方大模型——GPT-5、Grok、Gemini、Kimi K2、Qwen,甚至你自己电脑上跑的本地模型,都可以在 Claude 桌面版的界面里调用。

没有发布会,没有博客,只有技术文档。


这到底是什么意思?

Claude Desktop 不只是一个聊天界面,它包含两个核心产品:

  • Claude Cowork:把长任务委托给 AI,让 Claude 在后台帮你处理文件、运行代码、调用工具
  • Claude Code Desktop:面向开发者的图形化编程助手,底层是 Claude Code 引擎

过去,这两个产品只能用 Anthropic 自家的 Claude 模型。

现在,你可以把推理后端换成任何一个支持标准接口的服务,包括:

  • OpenRouter(支持 200+ 模型,有免费配额)
  • Amazon Bedrock
  • Google Vertex AI
  • Azure AI Foundry
  • 你自己公司的内部 LLM 网关
  • 本地模型(通过 LiteLLM 代理)

怎么配置?(以 OpenRouter 为例)

操作非常简单,3 步搞定:

第一步:去 openrouter.ai 注册,获取 API Key

第二步:打开 Claude Desktop → 菜单栏 → Developer → Configure Third-Party Inference

第三步:填入以下内容:

代码语言:javascript
复制
Connection: Gateway
Gateway base URL: https://openrouter.ai/api
Gateway API key: 你的 OpenRouter Key
Gateway auth scheme: x-api-key

保存后,在对话界面选择你想用的模型就行了。

你的 API Key 只存在本地,不会上传到 Anthropic。


为什么 Anthropic 要这么做?

这个问题值得思考一下。

第一个角度:工具比模型更值钱。

Anthropic 赌的不是"让你只用 Claude 模型",而是"让你习惯 Claude 的工作方式"。Cowork 的任务委托机制、多 Session 并行、MCP 工具连接——一旦你习惯了这套流程,迁移成本就很高了。

哪怕今天你用 GPT-5 跑任务,只要工作流留在 Claude Desktop 里,等明天 Claude 模型更强,你会自然切回来。

第二个角度:打开企业市场的大门。

很多政府机构和大企业有严格的数据合规要求,他们只被允许用自己的 AWS 或内部网关,根本不能直接调 Anthropic 的 API。

过去,这批用户对 Claude Desktop 来说是零。现在,他们可以用 Bedrock 或内部网关接入,Cowork 的产品体验就能卖进去了。

第三个角度:MCP 生态的最强推手。

越多人用 Claude Desktop 作为 AI 工作台,MCP(模型上下文协议)就越有机会成为行业标准。这就像 VS Code 用开放插件市场占领了开发者工具赛道一样。


我的判断

这步棋的核心逻辑是:模型是商品,工作流是护城河。

Anthropic 没有选择封闭,而是选择开放——用工具层的黏性,替代模型层的独占性。

对于我们这些需要处理大量日常工作的人来说,这个更新很实用:

  • Max 套餐用完了?切 OpenRouter 继续跑
  • 公司不让用 Anthropic?接企业内部网关
  • 想试试 Kimi K2 的代码能力?直接在 Claude 界面里换个模型

Claude 的界面还在,工作流还在,只是背后跑的模型换了。


体验路径:

Claude Desktop → Developer → Configure Third-Party Inference → 接入 OpenRouter

开始之前,先去 openrouter.ai 注册一个免费账号,找一个免费模型试试水。


注:此功能目前为 Research Preview(研究预览),功能仍在持续完善中。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2026-04-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 PM智圈-PMAIhub 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、这件事的背景
    • 二、操作手册:如何接入第三方模型
      • 适用平台
      • 支持的接入方式
      • 方法一:接入 OpenRouter(最简单,推荐个人用户)
      • 方法二:接入 Amazon Bedrock(推荐企业用户)
      • 方法三:接入 Google Vertex AI
      • 方法四:通过 LiteLLM 代理接入本地模型
      • API Key 的安全存储
    • 三、功能点评:Anthropic 为什么要这么做?
      • Q1:为什么不封闭自己的生态,强制使用 Claude 模型?
      • Q2:为什么允许接入竞争对手的模型?
      • 综合评价:这是一步妙棋
    • 四、微信公众号推文
  • Claude 桌面版悄悄更新,现在可以接入任何大模型了
    • 这到底是什么意思?
    • 怎么配置?(以 OpenRouter 为例)
    • 为什么 Anthropic 要这么做?
    • 我的判断
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档