首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Deepseek本地快速部署方案

第一步:首先安装Ollama,在官网下载安装即可

第二步:对模型进行配置,配置DeepSeek R1模型

1.下载模型,在终端(terminal)输入: ollama pull deepseek-r1:14b (根据你的显存大小选择版本,16g就可以选择14b,200g显存选择70b)(用70b模型来举例,逻辑推断能力超强!)

2. 下载完成后,直接在终端运行: ollama run deepseek-r1:14b

3. 然后就可以和模型对话了

第三步:自定义模型

1.创建一个名为Modelfile 的纯文本文件,不要有后缀,内容示例如下: FROM deepseek-r1:14b PARAMETER temp 0.7 PARAMETER top_p 0.9 SYSTEM """ 你是一个专业的AI助手,擅长回答技术问题、总结文档,提供准确又简洁的答案。 """

2.输入以下命令生成一个自定义模型: llama create my-deepseek -f /path/to/Modelfile

3.然后,运行你的专属定制模型:ollama run my-deepseek 恭喜!你已经拥有一个完全根据你需求定制的AI助手啦!

第四步:小丑模型(进阶玩法)如果你有特定任务的数据,可以在modelfile中加入json文件的地址,让Ollama直接模型,让模型更懂你!

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OhdXUYhS9vj__xquU6RSxkIg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券