部署DeepSeek模型,进群交流最in玩法!
立即加群
发布
社区首页 >专栏 >新手快速安装部署本地DeepSeek

新手快速安装部署本地DeepSeek

原创
作者头像
stark张宇
发布2025-02-15 19:20:01
发布2025-02-15 19:20:01
4093
举报
文章被收录于专栏:stark张宇

概述

随着DeepSeek的爆火,身为行业从业人员不得不了解和接受,AI做为一种工作中工具的重要性已经变的不言而喻了,互联网的维度已经在悄悄的变化了,分享一篇本地安装部署DeepSeek的教程。

PC客户端

1、下载软件

先介绍一下windows的安装方式,windows和mac的安装方式大同小异,相差不大,打开ollama官网下载,logo是一个可爱的羊驼,下载可选择MacOs、Linux和Windows 3种方式,下载的人很多,有可能有超时的情况,下载时需要耐心等待。

2、选择模型

ollama数据库里更新了很多数据模型,现在最火的属于咱们的DeepSeek-R1,选择电脑配置能运行起来的对应模型,不然会很慢,主要是内存和CPU要高,处于体验尝鲜来说,我选择的是7b的模型,去终端执行命令,下图是官方介绍模型的对比和差异:

下载模型命令,windows对应的就是打开Cmd,执行命令,过程是一样的:

代码语言:shell
复制
ollama run deepseek-r1:7b

安装完成如下图:

3、使用

理论上本地安装完了,就可以使用本地部署的模型进行简单交互,下图中>>>后面是我提问的问题,蓝色的think是DeepSeek-R1自我思考和推理的过程,绿色的框经过推理而得出是答案,是不是很简单,就在本地部署完了。

升级与优化

这种终端方式的交互,总让人感觉差点意思,所以经过优化后更好的方式来进行交互,通过Chatbox和Open Web Ui的方式来进行交互。

Chatbox

Chatbox是AI对话框工具,点击官网下载,安装,设置对话框选择 ollama Apideepseek-r1:7b 模型。

这样看起来高大上的AI对话盒子就完成了。

Open Web Ui

第二种方式使用Open Web Ui方式进行部署,首先你要安装Docker,用容器的方式来进行安装和访问,Github地址:https://github.com/open-webui/open-webui

安装命令是:

代码语言:shell
复制
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

本地访问http://localhost:3000/就可以访问,现阶段DeepSeek太火爆了,导致可能会有一点慢,models接口偶尔会超时,界面大概就是下面这样的了。

下面的耳机小图标可以接收语音描述。

总结和思考

随着AI的不断发展,不能再对AI视而不见了,它做为一种高维度的工具价值已经是显而易见了,之前用豆包进行搜索文档,大部分的结果都接近准确了,而如今的DeepSeek赋予了模型的推理逻辑,很了不起,AI在不久的将来成为一种新式的检索工具已经成为既定事实。

有的小伙伴产生了担心和担忧,怕因此被替代和取代,工业革命以后新技术层出不穷,人类是基于想象力、权利和秩序的群体,新技术对老技术一定会有很大的冲击,但它取代不了人类的故事性,人类的故事性是人类作为文明生物所独有的。

保持清醒,充足信心,做到最好,就可以了。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 概述
    • PC客户端
    • 升级与优化
      • Chatbox
      • Open Web Ui
    • 总结和思考
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档