手把手教你在 VSCode 中本地运行 DeepSeek,打造你的专属 AI 编程助手 🤖
告别云端依赖!本指南将手把手教你如何在本地安装并运行 DeepSeek,并通过 CodeGPT 进行配置,从而充分利用 AI 来增强你的软件开发流程。所有操作都在本地完成,无需担心数据泄露。
第一步:安装 Ollama 和 CodeGPT
要在本地运行 DeepSeek,我们需要先安装两个关键组件:
Ollama:一个轻量级的平台,可以让你在本地轻松运行各种大型语言模型(LLMs)。
CodeGPT:一个 VS Code 扩展,它将这些模型集成到你的编辑器中,为你提供智能编码辅助。
⬇️ 安装 Ollama
Ollama 让本地运行 LLMs 变得简单易行。
下载 Ollama,也可以在本站下载https://xueshu.fun/5750/
访问 Ollama 官方网站:https://ollama.com
Ollama 官网
根据你的操作系统(Windows、macOS 或 Linux)下载对应的安装包。
验证安装
安装完成后,打开终端并运行以下命令:
ollama --version
如果 Ollama 安装成功,终端会显示已安装的版本号。
🧩 在 VS Code 中安装 CodeGPT
打开 VS Code,然后进入扩展商店(快捷键:Ctrl + Shift + X 或 Cmd + Shift + X)。
搜索 "CodeGPT",然后点击安装。
安装完 Ollama 和 CodeGPT 后,我们就可以下载并配置 DeepSeek,开始在本地享受 AI 编码的乐趣啦!
🧠 第二步:下载并设置模型
现在你已经成功安装了 Ollama 和 CodeGPT,接下来需要下载将在本地使用的模型。
聊天模型:deepseek-r1:1.5b。这个模型针对资源有限的环境进行了优化,可以在大多数电脑上流畅运行。
代码补全模型:deepseek-coder:1.3b。这个模型使用了**中间填充(Fill-In-The-Middle,FIM)**技术,可以在你编写代码时提供智能的自动补全建议。它不仅能预测函数或方法的开头和结尾,还能预测中间部分,非常强大。
下载聊天模型(deepseek-r1:1.5b)
按照以下步骤开始使用聊天模型:
在 VS Code 中打开 CodeGPT。
在侧边栏中找到 Local LLMs(本地 LLMs)区域。
在可用选项中,选择 Ollama 作为本地 LLM 提供商。
选择模型 deepseek-r1:1.5b。
点击 Download(下载)按钮。模型将自动开始下载。
下载完成后,CodeGPT 会自动安装该模型。安装完毕后,你就可以开始与模型进行交互了。
现在,你可以轻松地向模型提问关于你的代码的问题。只需在编辑器中选中任何代码,然后使用 # 符号添加其他文件到你的查询中,并利用以下强大的命令快捷方式:
CodeGPT 命令
**/fix**:用于修复代码中的错误或提出改进建议。
**/refactor**:用于清理和改进代码的结构。
**/Explain**:用于获取任何代码段的详细解释。
这个聊天模型非常适合帮助你解决特定问题或获取关于代码的建议。
⌨️ 下载代码补全模型(deepseek-coder:1.3b)
想要获得更强大的代码自动补全功能吗?
在 VS Code 中打开终端。
运行以下命令来拉取 deepseek-coder:1.3b 模型:
ollama pull deepseek-coder:1.3b
这个命令会将代码补全模型下载到你的本地计算机。
下载完成后,返回 CodeGPT 并导航到 Autocompletion Models(自动补全模型)区域。
从可用模型列表中选择 deepseek-coder:1.3b。
选择模型后,你就可以开始编码了。在你输入代码时,模型会开始提供实时的代码建议,帮助你轻松完成函数、方法,甚至是整个代码块。
第三步:享受无缝的本地和私有 AI 赋能编码体验
完成模型设置后,你现在可以尽情享受在本地使用这些强大工具带来的好处,而无需依赖外部 API。通过在你的计算机上本地运行所有内容,你可以确保对你的编码环境拥有完全的隐私和控制。无需担心数据离开你的电脑,一切都保持安全和私密!
领取专属 10元无门槛券
私享最新 技术干货