首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

DeepSeek 本地部署亲测:解锁高效 AI 新体验

最近 DeepSeek 着实火爆,其在自然语言处理、代码生成等方面表现亮眼,吸引了众多目光。

不过,线上使用时服务器繁忙的情况时有发生,严重影响体验。

于是,我决定亲测DeepSeek本地部署。

下面就为大家分享DeepSeek本地部署详细教程。

第一步,我使用的是 ollama 管理各种不同大模型。

ollama 比较直接、干净,一键下载后安装就行,安装过程基本都是点下一步。

下载地址可以官网下载:

https://ollama.com/

备注:默认安装在C盘,大概需要占用5个G左右的内存空间。

注意C盘空间不够的清理一下或者放弃。

顺带一提:我是用腾讯电脑管家清理+软件及文件搬家功能处理了一下空间才弄的,你们平时用的什么电脑管理软件?

装好ollama之后,键盘点击window图标+R,

输入这段代码,查看ollama是否安装成功:

ollama list

当你看到上面这个图就是OK了。

接下来需要配置一下电脑的环境变量。

ollama需要在本机的环境变量中,新增这两条变量值:

OLLAMA_HOST 0.0.0.0:11434OLLAMA_MODELS F:\OllamaModels

结果如下:

第二步,可以开始安装deepsek了

方法是去ollama官网搜索下载合适的模型

我这边随便选了一个,你们也可以根据个人喜欢操作

ollama pull deepseek-r1:1.5b

嗯,又需要占用几个G的内存。

发现装好显示“success”了,下面还可以在“send a message”里面输入内容测试一下能不能用:

ok,完美,就是每次用命令行去使用可能不太方便,命令行下输入:

ollama run deepseek-r1:1.5b

然后和deepseek对话即可。

到这里已经算是本地搭建deepseek完成了。

不过,假如你还想再深入使用,比如本地再构建一个知识库系统和deepseek联动使用等等,也是可以的。

我试过本地搭建Docker + RAGFlow,有条件的可以整一下,对内存有一定要求,这里不做演示。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OlbdnaUSBWOLChoQtDI9-ktw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券