前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Ollama一个简明易用的本地大模型运行框架,只需一条命令即可在本地跑大模型

Ollama一个简明易用的本地大模型运行框架,只需一条命令即可在本地跑大模型

作者头像
机器学习AI算法工程
发布2024-05-10 19:00:49
4120
发布2024-05-10 19:00:49
举报

什么是Ollama:

Ollama是一个开源的大型语言模型服务工具,它帮助用户快速在本地运行大模型,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型,例如 Llama2。这个框架简化了在Docker容器内部署和管理LLM的过程,使得用户能够快速地在本地运行大型语言模型。

Ollama 将模型权重、配置和数据捆绑到一个包中,定义成 Modelfile。它优化了设置和配置细节,包括 GPU 使用情况。

Ollama的优势

①易于使用:Ollama提供了一个简单的API,使得即使是没有经验的用户也可以轻松使用。此外,它还提供了类似ChatGPT的聊天界面,用户无需开发即可直接与模型进行聊天交互。

②轻量级:Ollama的代码简洁明了,运行时占用资源少。这使得它能够在本地高效地运行,不需要大量的计算资源。

③可扩展:Ollama支持多种模型架构,并可以扩展以支持新的模型。它还支持热加载模型文件,无需重新启动即可切换不同的模型,这使得它非常灵活多变。

④预构建模型库:Ollama提供了一个预构建模型库,可以用于各种任务,如文本生成、翻译、问答等。这使得在本地运行大型语言模型变得更加容易和方便。

快速上手

一. 下载 Ollama 安装文件

访问 https://ollama.com/download,选择 Windows,单击 “Download for Windows (Preview)” 进行下载。

二. 安装 Ollama

双击下载的 “OllamaSetup.exe”,进行安装。

三. 环境变量

Ollama 下载的模型默认保存在 C 盘。

强烈建议更改默认路径,可以通过新建环境变量 OLLAMA_MODELS 进行修改。

OLLAMA_MODELS E:\OllamaCache

设置成功后重启电脑生效修改

四. 使用 Ollama

访问 https://ollama.com/library,搜索需要使用的模型,主流的模型。

记得先启动Ollma,确保Ollma在任务栏

再下面以 qwen-7b 为例,选择运行 7b 的模型

拷贝上面红框的命令并在cmd或者PowerShell运行(推荐使用cmd)

ollama run qwen:7b

等待模型下载与加载,目前前95%下载速度快,99%到100%速度较慢。 当出现 Send a nessage 即可开始模型的使用

qwen-7b效果图:

代码语言:javascript
复制
ollama run qwen:7b

orion14b-q4效果图:

代码语言:javascript
复制
ollama run orionstar/orion14b-q4

llama2-chinese效果图:

代码语言:javascript
复制
ollama run llama2-chinese

网络上搜集的问题与回答:

五. 再次使用

确保Ollama正常运行后, 在cmd输入运行代码即可免下载安装直接使用(已在第4步模型安装成功) 如:

代码语言:javascript
复制
ollama run llama2-chinese

本人使用的是8GB-2070super,16GB内存,i7-10700K。 在运行qwen-7b和llama2-chinese相当流畅

套上外壳

若是觉得命令行的形式不够易用,Ollama 有一系列的周边工具可供使用,包含了网页、桌面、终端等交互界面及诸多插件和拓展。

之所以 Ollama 能快速形成如此丰富的生态,是因为它自立项之初就有清晰的定位:让更多人以最简单快速的方式在本地把大模型跑起来。于是,Ollama 不是简单地封装 llama.cpp,而是同时将繁多的参数与对应的模型打包放入;Ollama 因此约等于一个简洁的命令行工具和一个稳定的服务端 API。这为下游应用和拓展提供了极大便利。

就 Ollama GUI 而言,根据不同偏好,有许多选择:

Web 版:Ollama WebUI 具有最接近 ChatGPT 的界面和最丰富的功能特性,需要以 Docker 部署;

终端 TUI 版:oterm 提供了完善的功能和快捷键支持,用 brewpip 安装;

Raycast 插件:即 Raycast Ollama,这也是我个人最常用的 Ollama 前端 UI,其继承了 Raycast 的优势,能在选中或复制语句后直接调用命令,体验丝滑。而作为价值约 8 美元/月的 Raycast AI 的平替,Raycast Ollama 实现了 Raycast AI 的绝大多数功能,且随着 Ollama 及开源模型的迭代,还将支持多模态等 Raycast AI 不支持的功能,可谓潜力无限。

此外,还有 Swift 编写的 macOS 原生应用 Ollamac、类似于 Notion AI 的 Obsidian Ollama 等有趣应用,可按需选用。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2024-05-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习AI算法工程 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 快速上手
    • 设置成功后重启电脑生效修改
    • 四. 使用 Ollama
      • 记得先启动Ollma,确保Ollma在任务栏
        • 拷贝上面红框的命令并在cmd或者PowerShell运行(推荐使用cmd)
          • qwen-7b效果图:
            • orion14b-q4效果图:
              • llama2-chinese效果图:
                • 网络上搜集的问题与回答:
                • 五. 再次使用
                • 套上外壳
                相关产品与服务
                命令行工具
                腾讯云命令行工具 TCCLI 是管理腾讯云资源的统一工具。使用腾讯云命令行工具,您可以快速调用腾讯云 API 来管理您的腾讯云资源。此外,您还可以基于腾讯云的命令行工具来做自动化和脚本处理,以更多样的方式进行组合和重用。
                领券
                问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档