概述
目前 Cloud Studio DeepSeek-R1 模板已经内置了 AnythingLLM 和 Open-webui,方便用户开箱即可构建和使用私有知识库。本文将介绍 Cloud Studio + Cherry Studio 的实践教程,用户无需进行本地部署,可快速体验到更好的个人知识库。
操作步骤
1. 下载安装 Cherry Studio
2. 配置 Cherry Studio
2.1 获取 CloudStudio 的 Ollama 端口
1. 前往 控制台,在空间模板 > 语言模板下单击选择 DeepSeek-R1,选择任意 DeepSeek CPU 模板进入工作空间。

2. 如下图所示,在端口处打开 Ollama 预览,并获取预览网址。如“https://jxguyn-psqutv-8434.app.cloudstudio.work”
注意:
如果是直接复制粘贴 URL 尾部会带“/”,需删除。


2.2 设置模型服务
注意:
配置和使用期间要保持相关 CloudStudio 空间运行,不要关闭浏览器。
1. 打开 Cherry Studio,选择设置 > 模型服务,打开 Ollama 选项的同时可以关闭其他模型选项。将上一步获取的预览网址粘贴到 API 地址处,然后单击下方管理。

2. 这时,可以看到运行中的 CloudStudio 工作空间自带的模型,包括 DeepSeek-R1,和已经内置的 Embedding model “bge-m3”。选择添加相应的模型后即可关闭。

3. 在设置 >默认模型中设置默认的模型。

2.3 设置知识库
进入知识库设置界面,添加本地文件即可。


3. 开始尝试对话
我们可以单击对话框下方的知识库,选择知识库增强索引;也可以直接与默认模型进行对话。

如下为 CloudStudio DeepSeek-R1 + Cherry Studio 的知识库对话效果。在知识库对话中,我们可以看到明显引用了本地文档的内容,回答问题更精确。

如果不选择知识库,可以看到回答较为宽泛,几乎没有精确的数据统计。
