Ollama 终于提供 UI 界面了,再也不用在命令窗口中使用了,如下图所示:
Ollama 是一个开源的大型语言模型服务工具。它的主要作用是帮助用户快速在本地运行大模型,简化了在 Docker 容器内部署和管理大语言模型(LLM)的过程。
PS:Ollama 就是大模型届的“Docker”,使用它可以低成本使用大模型(无需调用费用),并且因为是本地部署的大模型,所以不会存在数据隐私问题。
Ollama 优点如下:
Ollama 官网:https://ollama.com/
下载地址:https://ollama.com/
下载完成之后,双击安装包,一直下一步安装完成即可。
支持大模型列表:https://ollama.com/search
安装并运行 DeepSeek 大模型的命令如下:
ollama run deepseek
等待一段时间 DeepSeek 就安装并启动了。
Ollama 调用也很简单,通过以下三步就能实现:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-starter-model-ollama</artifactId>
<version>1.0.0</version>
</dependency>
spring:
ai:
ollama:
base-url: http://localhost:11434
chat:
model: deepseek-r1:1.5b
@Autowired
private OllamaChatModel ollamaChatModel;
@GetMapping("/chat")
public String simpleChat(String msg) {
return ollamaChatModel.call(msg);
}
Ollama 作为使用最简单的本地大模型部署工具,因为使用比较简单,所以行业使用率也很高,但你知道 Ollama 有哪些不足吗?欢迎评论区留言讨论。
本文已收录到我的技术小站 www.javacn.site,其中包含的内容有:Spring AI、LangChain4j、Dify、Coze、Spring AI Alibaba、智能体(AI Agent)、MCP、Function Call、RAG、向量数据库、Prompt、多模态、向量数据库、嵌入模型、AI 常见面试问题等内容。