之前在学习AI课程的时候,用到了nomic-embed-text模型,之前是使用ollama工具在自己电脑本地部署的,换电脑之后再使用的话又要重新部署 ,在公司和家里面电脑来回调试代码的话比较麻烦,因此就想着在服务器上部署一个,到时候都统一远程调用,这样就省得来回切换了。
上图是在windows本地部署过的模型,那么在docker上的部署思路也是先安装一个ollama的镜像,然后再通过这个ollama的镜像去部署模型。
如果大家有还没接触过ollama的,可以先看一下之前写过的文章:
Ollama搭配DeepSeek,本地部署全攻略
以下是使用 Docker 部署nomic-embed-text:latest的步骤:
拉取 Ollama 镜像
docker pull ollama/ollama:latest
启动 Ollama 容器
docker run -d --name ollama -p 11434:11434 ollama/ollama:latest
下载 nomic-embed-text 模型
docker exec -it ollama ollama pull nomic-embed-text:latest
验证模型是否下载成功
运行以下命令查看已下载的模型:
docker exec -it ollama ollama list
如果看到nomic-embed-text:latest出现在列表中,说明模型下载成功。
领取专属 10元无门槛券
私享最新 技术干货