Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >在Windows电脑上快速运行AI大语言模型-Llama3

在Windows电脑上快速运行AI大语言模型-Llama3

作者头像
东风微鸣
发布于 2024-04-23 04:30:28
发布于 2024-04-23 04:30:28
1.7K00
代码可运行
举报
运行总次数:0
代码可运行

概述

近期 Meta 发布了最新的 Llama3 模型,并开源了开源代码。Meta Llama 3 现已推出 8B 和 70B 预训练和指令调整版本,可支持广泛的应用程序。

并且 Llama 3 在语言细微差别、上下文理解和翻译和对话生成等复杂任务方面表现出色。

我们可以在 Windows 上快速运行 Llama3 8B 模型。

📝Notes 郑重声明: 本文几乎没有任何原创内容, 主要资料都来自于网上, 笔者只是总结自己实际可以运行起来的详细步骤, 供各位读者参考. 另外, 笔者的水平有限, 欢迎大家提出改进意见. 目前可以快速在 Windows 上运行 AI 模型的方法还有几个, 包括不限于: •Llmafile[1]•Chat With RTX | Nvidia[2]•WSL2 + WASMEdge 受限于个人经验, 提供提供使用: WSL+ WASMEdge 的实战方案.

📚️参考资料

•Llama3[3]•有人说开源模型会越来越落后,来试试 Llama 3 吧 | LlamaEdge | Second State•How to install Linux on Windows with WSL[4]•CUDA on WSL User Guide[5]

技术栈

1.Llama32.LlamaEdge + WASMEdge3.NVIDIA 显卡驱动 + CUDA4.WSL2

前提条件

1.Windows 10/11 系统2.硬件: NVIDIA 显卡(具体型号要求不确定, 应该是可以运行 CUDA 的都可以; 我的 2060 实战没有问题)

相关概念

Llama 3

模型性能

•Meta发布了新一代语言模型Llama 3,包括8B和70B参数的预训练和指令微调模型。•Llama 3在广泛的行业基准上展示了最先进的性能,并提供了新的功能,包括改进的推理能力。•Llama 3模型在标准基准上的性能优于其他同等规模的模型,并且针对真实世界场景进行了优化。

模型架构

•Llama 3使用了改进的解码器-only transformer架构,并采用了分组查询注意力(GQA)来提高推理效率。•Llama 3在超过15T个标记上进行了预训练,训练数据集是Llama 2的七倍,并且包含更多代码。•Llama 3使用了各种数据过滤管道来确保训练数据的质量,包括启发式过滤器、NSFW过滤器、语义去重方法和文本分类器。•Llama 3使用了详细的缩放定律来扩展预训练,并对训练数据进行了最佳组合的选择。

指令微调

•Llama 3在指令微调方面进行了创新,包括监督微调(SFT)、拒绝采样、近端策略优化(PPO)和直接策略优化(DPO)。

可用性

•Llama 3 将很快在所有主要平台上提供,包括云提供商、模型 API 提供商等等。Llama 3 将无处不在。

未来计划

•Llama 3 8B 和 70B 模型标志着 Meta 计划为 Llama 3 发布的内容的开始。还有更多内容即将推出。Meta 最大模型的参数超过 400B,虽然这些模型仍在训练中,但团队对它们的趋势感到兴奋。•在接下来的几个月里,Meta 将发布多个具有新功能的模型,包括多模态、使用多种语言进行对话的能力、更长的上下文窗口和更强的整体能力。一旦完成 Llama 3 的训练,Meta 还会发布详细的研究论文。

LlamaEdge

•LlamaEdge 项目可以轻松地在本地运行 LLM 推理应用程序并创建适用于 Llama2-3 系列 LLM 的 OpenAI 兼容 API 服务。•LlamaEdge 使用 Rust+Wasm 栈,提供了比 Python 更强大的 AI 推理替代方案。•LlamaEdge 支持所有基于 llama2-3 框架的大语言模型 (LLM),模型文件必须采用 GGUF 格式。•编译后的 Wasm 文件是跨平台的,可以在不同的操作系统、CPU 和 GPU 上运行相同的 Wasm 文件。•LlamaEdge 提供了详细的故障排除指南,帮助用户解决常见问题。

WASMEdge

WasmEdge 简介

•WasmEdge 运行时提供了一个定义良好的执行沙箱,用于包含的 WebAssembly 字节码程序。•WasmEdge 可以运行从 C/C++、Rust、Swift、AssemblyScript 或 Kotlin 源代码编译的标准 WebAssembly 字节码程序。•WasmEdge 支持所有标准的 WebAssembly 特性,以及许多提议的扩展。•WasmEdge 还支持一些针对云原生边缘计算用途的扩展(例如,WasmEdge 网络套接字、基于 Postgres 和 MySQL数据库驱动程序,以及 WasmEdge AI 扩展)。•WasmEdge 可以从 CLI 作为新进程启动,也可以从现有进程启动。•WasmEdge 目前还不是线程安全的。•WasmEdge 可以与 Go、Rust 或 C 应用程序集成。•WasmEdge 项目是开源的,欢迎大家参与贡献。•WasmEdge 社区每月举行一次社区会议,展示新特性、演示新用例并进行问答。

这里也提一下 WASMEdge 的优势, 在 2024 KubeCon NA 上, WASMEdge 重点强调了其优势所在:

•与 Java 不同,Wasm 在云原生领域有独特的优势,尤其是在 GPU 上运行 AI 应用方面。•目前,构建 AI 应用通常需要使用 API 服务器、大型语言模型、编排框架等组件,整个过程更偏向于研究,难以实现紧密集成和高安全性。•WASMEdge 旨在构建更紧凑的应用程序服务器,将提示工程、RAG 框架等功能集成到应用程序服务器中,并通过 Kubernetes 进行编排。•WASMEdge 与 W3C 合作定义了名为 WASI Neural Network 的新抽象层,将 GPU 访问或 AI 推理原语定义为字节码级别的 API。•开发者只需针对 WASI API 编写应用程序并编译成字节码,即可在任何支持 WASM 的设备上部署和运行,无需重新编译。•WASMEdge 提供在线演示,参会者可以在自己的笔记本电脑上安装 WASM 并下载大型语言模型,无需网络连接即可与大型语言模型进行交互,验证其跨平台的可移植性

感兴趣的可以观看这个视频: WasmEdge, portable and lightweight runtime for AI/LLM workloads | Project Lightning Talk[6]

NVIDIA CUDA

•CUDA 计算平台不仅仅是一种编程模型,它还包括 GPU 计算架构中数以千计的通用计算处理器、许多流行语言的并行计算扩展、强大的即插即用加速库,以及交钥匙应用程序和基于云的计算设备。•CUDA 不仅限于流行的 CUDA Toolkit 和 CUDA C/C++ 编程语言。•自 2006 年推出以来,CUDA 已被广泛部署在数千个应用程序和已发表的研究论文中,并得到超过 5 亿个笔记本电脑、工作站、计算集群和超级计算机中安装的 CUDA 兼容 GPU 的支持。•许多研究人员和开发人员使用 CUDA 平台来推动其工作的最新进展,请在 CUDA In Action Spotlight 系列中阅读他们的部分故事。•放入一个 GPU 加速库来替换或增强仅限 CPU 的库,例如 MKL BLAS、IPP、FFTW 和其他广泛使用的库•使用 OpenACC 指令自动并行化 Fortran 或 C 代码中的循环以进行加速•使用熟悉的编程语言(如 C、C++、C#、Fortran、Java、Python 等)开发自定义并行算法和库 立即开始加速您的应用程序。

WSL(Windows Subsystem for Linux)

•Windows Subsystem for Linux (WSL) 是 Microsoft Windows 的一项功能,允许开发人员运行 Linux 环境,而无需单独的虚拟机或双启动。WSL 有两个版本:WSL 1 和 WSL 2。•默认情况下,并非所有 Windows 10 用户都能使用 WSL。它可以通过加入 Windows Insider 计划或通过 Microsoft Store 或 Winget 手动安装。•WSL 1 于 2016 年 8 月 2 日首次发布,通过在 Windows 内核上实现 Linux 系统调用,作为运行 Linux 二进制可执行文件(ELF 格式)的兼容层。它适用于 Windows 10、Windows 10 LTSB/LTSC、Windows 11、Windows Server 2016、Windows Server 2019 和 Windows Server 2022。•2019 年 5 月,WSL 2 发布,通过 Hyper-V 功能子集引入了真正的 Linux 内核等重要变化。WSL 2 与 WSL 1 的不同之处在于,WSL 2 运行在托管虚拟机内,该虚拟机实现了完整的 Linux 内核。因此,WSL 2 比 WSL 1 兼容更多 Linux 二进制程序,因为 WSL 1 中并未实现所有系统调用。自 2019 年 6 月起,Windows 10 客户可通过 Windows Insider 计划使用 WSL 2,包括家庭版。

具体步骤

1. 安装 NVIDIA Windows 最新版本显卡驱动

步骤略.

2. 安装 WSL

📚️Reference How to install Linux on Windows with WSL[7]

前提

您必须运行Windows 10版本2004和更高版本(Build 19041和更高版本)或Windows 11才能使用下面的命令。

代码语言:text
AI代码解释
复制
1.启动您喜欢的Windows终端/命令提示符/ Powershell并安装WSL:
代码语言:text
AI代码解释
复制
2.确保你有最新的WSL内核:

3. WSL Ubuntu 安装 CUDA Toolkit

📚️Reference CUDA Toolkit 12.4 Update 1 Downloads[8]

进入 WSL Ubuntu, 使用如下命令安装 CUDA Toolkit

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600
wget https://developer.download.nvidia.com/compute/cuda/12.4.1/local_installers/cuda-repo-wsl-ubuntu-12-4-local_12.4.1-1_amd64.deb
sudo dpkg -i cuda-repo-wsl-ubuntu-12-4-local_12.4.1-1_amd64.deb
sudo cp /var/cuda-repo-wsl-ubuntu-12-4-local/cuda-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update
sudo apt-get -y install cuda-toolkit-12-4

4. 使用 LlamaEdge + WasmEdge 运行本地 AI 大语言模型 - Llama3

📚️References有人说开源模型会越来越落后,来试试 Llama 3 吧 | LlamaEdge | Second State 以下为原文摘录: 通过这篇文章,你将能够在自己的电脑上使用 LlamaEdge[2](Rust + Wasm 堆栈)开发和部署 Llama-3-8B 的应用程序。无需安装复杂的 Python 包或 C++ 工具链!查看为什么选择这个技术栈。 如果你想要快速开始,只需要在终端运行下面的命令行,这个命令行工具会帮你自动下载所需的软件:LLM runtime, Llama-3-8B 模型,以及 LLM 推理程序。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
bash <(curl -sSfL 'https://raw.githubusercontent.com/LlamaEdge/LlamaEdge/main/run-llm.sh') --model llama-3-8b-instruct

🐾Warning 友情提示, 执行这一步之前请确保网络畅通.

执行结果如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[+] Downloading the selected model from https://huggingface.co/second-state/Llama-3-8B-Instruct-GGUF/resolve/main/Meta-Llama-3-8B-Instruct.Q5_K_M.gguf
######################################################################################################### 100.0%
[+] Extracting prompt type: llama-3-chat
[+] No reverse prompt required
[+] Install WasmEdge with wasi-nn_ggml plugin ...

Using Python: /home/casey/.pyenv/shims/python3
INFO    - CUDA detected via nvcc
WARNING - Experimental Option Selected: plugins
WARNING - plugins option may change later
INFO    - Compatible with current configuration
INFO    - Running Uninstaller
WARNING - Uninstaller did not find previous installation
WARNING - SHELL variable not found. Using zsh as SHELL
INFO    - shell configuration updated
INFO    - Downloading WasmEdge
|============================================================|100.00 %INFO    - Downloaded
INFO    - Installing WasmEdge
INFO    - WasmEdge Successfully installed
INFO    - Downloading Plugin: wasi_nn-ggml-cuda
|============================================================|100.00 %INFO    - Downloaded
INFO    - Downloading Plugin: wasmedge_rustls
|============================================================|100.00 %INFO    - Downloaded
INFO    - Run:
source /home/casey/.zshrc

    The WasmEdge Runtime is installed in /home/casey/.wasmedge/bin/wasmedge.


[+] Downloading the latest llama-api-server.wasm ...
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
  0     0    0     0    0     0      0      0 --:--:-- --:--:-- --:--:--     0
  0     0    0     0    0     0      0      0 --:--:-- --:--:-- --:--:--     0
100 8070k  100 8070k    0     0  2575k      0  0:00:03  0:00:03 --:--:-- 7030k

[+] Downloading Chatbot web app ...
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
  0     0    0     0    0     0      0      0 --:--:-- --:--:-- --:--:--     0
  0     0    0     0    0     0      0      0 --:--:--  0:00:01 --:--:--     0
  0     0    0     0    0     0      0      0 --:--:--  0:00:01 --:--:--     0
100 1721k  100 1721k    0     0   703k      0  0:00:02  0:00:02 --:--:-- 10.2M


[+] Will run the following command to start the server:

    wasmedge --dir .:. --nn-preload default:GGML:AUTO:Meta-Llama-3-8B-Instruct.Q5_K_M.gguf llama-api-server.wasm --prompt-template llama-3-chat --model-name Meta-Llama-3-8B-Instruct.Q5_K_M.gguf --socket-addr 0.0.0.0:8080 --log-prompts --log-stat

    Chatbot web app can be accessed at http://0.0.0.0:8080 after the server is started


*********************************** LlamaEdge API Server ********************************

[2024-04-19 23:54:06.043] [error] instantiation failed: module name conflict, Code: 0x60
[2024-04-19 23:54:06.043] [error]     At AST node: module

[INFO] LlamaEdge version: 0.8.3
[INFO] Model name: Llama-3-8B
[INFO] Model alias: default
[INFO] Context size: 4096
[INFO] Prompt template: llama-3-chat
[INFO] Number of tokens to predict: 1024
[INFO] Number of layers to run on the GPU: 100
[INFO] Batch size for prompt processing: 512
[INFO] Temperature for sampling: 1
[INFO] Top-p sampling (1.0 = disabled): 1
[INFO] Penalize repeat sequence of tokens: 1.1
[INFO] Presence penalty (0.0 = disabled): 0
[INFO] Frequency penalty (0.0 = disabled): 0
[INFO] Enable prompt log: false
[INFO] Enable plugin log: false
[INFO] Socket address: 0.0.0.0:8080
ggml_cuda_init: GGML_CUDA_FORCE_MMQ:   no
ggml_cuda_init: CUDA_USE_TENSOR_CORES: yes
ggml_cuda_init: found 1 CUDA devices:
  Device 0: NVIDIA GeForce RTX 2060, compute capability 7.5, VMM: yes
[INFO] Wasi-nn-ggml plugin: b2636 (commit 5dc9dd71)
[INFO] LlamaEdge API server listening on http://0.0.0.0:8080

如果一键执行报错, 也可以分步执行, 具体见原文.

🎉🎉🎉至此, Llama3 已经成功在本地运行.🎉🎉🎉

我们可以通过: http://localhost:8080 进行访问.

效果

Llama3 通过 API Server 访问

从上图可以看到, Llama3 已经成功在本地运行. 使用上和在线的 ChatGPT 一样.

另外, 在运行过程中, 通过 Windows 上的 Task Manager 可以看到, GPU 的负载已经达到 100%:

"一句话, 让GPU跑满100%" 😂😂😂

另外, 我们可以结合其提供的兼容 OpenAI 的 API, 实现更多丰富场景:

•直接调用 API

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
curl -X POST http://localhost:8080/v1/chat/completions \
  -H 'accept:application/json' \
  -H 'Content-Type: application/json' \
  -d '{"messages":[{"role":"system", "content": "You are a sentient, superintelligent artificial general intelligence, here to teach and assist me."}, {"role":"user", "content": "Write a short story about Goku discovering kirby has teamed up with Majin Buu to destroy the world."}], "model":"Llama-3-8B"}'

•和各类支持设置 AI API Server 地址的客户端联动, 如:•Obsidian Text Generator Plugin[9]•沉浸式翻译•各类 ChatGPT 相关的浏览器插件等•各类 ChatGPT 桌面应用等

实现丰富的 AI 场景应用.

总结

本文介绍了在 Windows 上快速运行本地 AI 大语言模型 - Llama3 的实战步骤, 通过利用: WSL + WasmEdge + LlamaEdge 快速实现. 易上手, 门槛低. 感兴趣的可以试试.

也感谢WSL、NVIDIA、CUDA、WASMEdge、Llama3给我们带来的便利.

References

[1] Llmafile: https://github.com/Mozilla-Ocho/llamafile [2] Chat With RTX | Nvidia: https://blogs.nvidia.cn/blog/chat-with-rtx-available-now/ [3] Llama3: https://llama.meta.com/llama3/ [4] How to install Linux on Windows with WSL: https://learn.microsoft.com/en-us/windows/wsl/install [5] CUDA on WSL User Guide: https://docs.nvidia.com/cuda/wsl-user-guide/index.html [6] WasmEdge, portable and lightweight runtime for AI/LLM workloads | Project Lightning Talk: https://www.youtube.com/watch?v=NuLFdERpGSY&list=WL&index=19 [7] How to install Linux on Windows with WSL: https://learn.microsoft.com/en-us/windows/wsl/install [8] CUDA Toolkit 12.4 Update 1 Downloads: https://developer.nvidia.com/cuda-downloads?target_os=Linux&target_arch=x86_64&Distribution=WSL-Ubuntu&target_version=2.0 [9] Obsidian Text Generator Plugin: https://docs.text-gen.com/

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-04-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 东风微鸣技术博客 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
本篇文章聊聊,如何使用 Ollama、Dify 和 Docker 来完成本地 Llama 3.1 模型服务的搭建。
soulteary
2024/08/01
1K0
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
本篇文章聊聊,如何使用 Ollama、Dify 和 Docker 来完成本地 Llama 3.1 模型服务的搭建。
soulteary
2024/07/28
2.2K0
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)
我记得,梦的开始,源于Ollama。很早以前的一篇文章教大家如何通过 Ollama 来使用开源 LLM,许多人最初接触 AI 时也是从Ollama开始的。Ollama 之所以出色,是因为它使用了 GGML 格式,这是一种‘轻量版’的大语言模型,以较低精度运行,能够轻松适配普通硬件。这使得在本地系统上运行这些模型变得简单高效,真正为 AI 的广泛应用铺平了道路。
AI进修生
2024/12/02
14.5K0
Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)
探秘NVIDIA RTX AI:llama.cpp如何让你的Windows PC变身AI超人
想象一下,你的Windows PC突然拥有了超能力,能够迅速处理复杂的AI任务,就像电影里的超级电脑一样。这一切,都要归功于NVIDIA RTX AI平台和它的秘密武器——llama.cpp!
GPUS Lady
2024/10/04
8200
手把手带你3步本地私有化部署DeepSeekR1,亲测成功
DeepSeek 是国内顶尖 AI 团队「深度求索」开发的多模态大模型,具备数学推理、代码生成等深度能力,堪称"AI界的六边形战士"。
烟雨平生
2025/02/10
6K0
手把手带你3步本地私有化部署DeepSeekR1,亲测成功
LLaMA-Factory全流程训练模型
docker拉取的Ubuntu20.04没有任何配置,比如wget等命令需要自己通过apt-get install 安装
@小森
2024/11/12
8741
LLaMA-Factory全流程训练模型
5种搭建LLM服务的方法和代码示例
在不断发展的大型语言模型(LLMs)领域中,用于支持这些模型的工具和技术正以与模型本身一样快的速度进步。在这篇文章中,我们将总结5种搭建开源大语言模型服务的方法,每种都附带详细的操作步骤,以及各自的优缺点。
deephub
2024/04/26
6840
5种搭建LLM服务的方法和代码示例
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
Xorbits Inference (Xinference) 是一个开源平台,用于简化各种 AI 模型的运行和集成。借助 Xinference,您可以使用任何开源 LLM、嵌入模型和多模态模型在云端或本地环境中运行推理,并创建强大的 AI 应用。通过 Xorbits Inference,可以轻松地一键部署你自己的模型或内置的前沿开源模型
汀丶人工智能
2024/08/17
4.9K0
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
详解几种常见本地大模型个人知识库工具部署、微调及对比选型(2)
这里首先介绍的是大模型侧的工具安装部署实践,至于为什么先提大模型侧后提知识库侧呢?这是因为大模型通常是知识库操作和应用的基础与核心,是提供智能决策的引擎。它们构建了理解和生成文本、图像、语音等多模态反应的基础能力,是整个智能应用的心脏,同时,由于这次主题是本地大模型个人知识库,所以大模型的安装、配置、优化和部署是首要步骤,也是确保知识库工具能够顺畅运行的基石。
zhouzhou的奇妙编程
2024/06/12
4.1K0
6G显存玩转130亿参数大模型,仅需13行命令,RTX2060用户发来贺电
克雷西 发自 凹非寺 量子位 | 公众号 QbitAI Meta的大语言模型LLaMA 13B,现在用2060就能跑了~ 羊驼家族的Alpaca和Vicuna也都能运行,显存最低只需要6G,简直是低VRAM用户的福音有木有。 GitHub上的搭建教程火了之后,网友们纷纷跑来问苹果M2是不是也能跑。 这通操作的大致原理是利用最新版CUDA,可以将Transformer中任意数量的层放在GPU上运行。 与此前llama.cpp项目完全运行在CPU相比,用GPU替代一半的CPU可以将效率提高将近2倍。 而如果纯
量子位
2023/05/19
7170
6G显存玩转130亿参数大模型,仅需13行命令,RTX2060用户发来贺电
LLM运行框架对比:ollama与vllm浅析
开源的LLM已经成为程序员、爱好者和希望在日常工作中使用生成式AI并保持隐私的用户的最佳选择,对于企业的私有化部署而言也是如此。这些模型提供了优秀的性能,有时在许多任务中可以与大型的闭源模型 (如 GPT-4o 或 Claude Sonnet 3.5) 相媲美。
半吊子全栈工匠
2025/03/10
1.1K1
LLM运行框架对比:ollama与vllm浅析
WebGPU和WebAssembly能否克服Docker的AI GPU问题?
GPU 的使用被证明并非完全是 Docker 和 WebAssembly 的障碍,而是一个速度障碍。
云云众生s
2024/07/09
2600
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
之前在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。
星哥玩云
2024/05/18
6.2K0
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
GPT4All 3.0版 :66.5K 星星!最简单的本地 LLM 前端 - 无需 API 调用或 GPU、本地&私人
在人工智能领域,一年的时间可以带来巨大的变化。如果一个项目能存活超过一个月,那么它必定具有某些独特的优势。GPT4All 已经运行了一整年,仍然是 GitHub 上最受欢迎的项目之一。
AI进修生
2024/12/02
4780
GPT4All 3.0版 :66.5K 星星!最简单的本地 LLM 前端 - 无需 API 调用或 GPU、本地&私人
LLaMA 3.1 模型在DAMODEL平台的部署与实战:打造智能聊天机器人
LLama3.1 是 Meta(Facebook 母公司)发布的系列大语言模型之一,属于 LLaMA(Large Language Model Meta AI)模型系列。LLaMA 模型的目标是通过更高效的设计在保持模型性能的前提下,显著降低其计算和资源需求。LLaMA 3.1 是该系列的最新版本,继承了前面版本,如 LLaMA 1 和 LLaMA 2的许多技术优势,并对模型架构、训练数据和推理能力进行了改进。
易辰君
2024/11/07
1580
LLaMA 3.1 模型在DAMODEL平台的部署与实战:打造智能聊天机器人
GPUStack:运行 AI 模型的 GPU 集群管理器
随着大语言模型、扩散模型等AI技术的爆发式增长,企业对GPU算力的需求呈现指数级攀升。然而,硬件异构化(如不同品牌GPU共存)、模型多样化(LLM、音频、图像生成等)以及资源动态扩展等问题,使得传统GPU管理工具捉襟见肘。在此背景下,GPUStack应运而生,这款由开源社区驱动的GPU集群管理框架,以"兼容性、灵活性、易用性"为核心设计理念,致力于为开发者提供一站式AI模型部署与推理解决方案。
luckpunk
2025/03/03
1.9K0
GPUStack:运行 AI 模型的 GPU 集群管理器
能在 CPU 上运行的开源大模型推理框架
如今,大模型的发展势头迅猛,而且,大模型的演进出现了两种分化趋势:一方面,开源大模型的规模不断扩大,从最初的数十亿参数迅速扩展到数千亿参数,照这个趋势,很快就会突破万亿级的超大规模。这类巨型模型通过引入更丰富的语义理解、复杂的推理能力和跨领域知识整合,展现出强大的智能。各大厂商开展军备竞赛,为了追求更高的准确率和更强的泛化能力,大模型的“无上限”扩展不断突破技术和硬件的边界。
云水木石
2025/01/23
1470
能在 CPU 上运行的开源大模型推理框架
使用 Ollama框架 下载和使用 Llama3 AI大模型的完整指南
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。它提供了一套简单的工具和命令,使任何人都可以轻松地启动和使用各种流行的LLM,例如GPT-3、Megatron-Turing NLG和WuDao 2.0。
神秘泣男子
2024/06/03
4.8K0
使用 Ollama框架 下载和使用 Llama3 AI大模型的完整指南
本地运行“李开复”的零一万物 34B 大模型
这篇文章,我们来聊聊如何本地运行最近争议颇多的,李开复带队的国产大模型:零一万物 34B。
soulteary
2023/11/27
1K0
本地运行“李开复”的零一万物 34B 大模型
Ollama如何构建自己的Llama3中文模型模型
Ollama 是一个开源的大型语言模型(LLM)服务工具,它允许用户在本地机器上运行和部署大型语言模型。Ollama 设计为一个框架,旨在简化在 Docker 容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。用户可以通过简单的命令行操作,快速在本地运行如 Llama 3 这样的开源大型语言模型。
Tinywan
2024/05/20
1K0
Ollama如何构建自己的Llama3中文模型模型
推荐阅读
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
1K0
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
2.2K0
Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)
14.5K0
探秘NVIDIA RTX AI:llama.cpp如何让你的Windows PC变身AI超人
8200
手把手带你3步本地私有化部署DeepSeekR1,亲测成功
6K0
LLaMA-Factory全流程训练模型
8741
5种搭建LLM服务的方法和代码示例
6840
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
4.9K0
详解几种常见本地大模型个人知识库工具部署、微调及对比选型(2)
4.1K0
6G显存玩转130亿参数大模型,仅需13行命令,RTX2060用户发来贺电
7170
LLM运行框架对比:ollama与vllm浅析
1.1K1
WebGPU和WebAssembly能否克服Docker的AI GPU问题?
2600
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
6.2K0
GPT4All 3.0版 :66.5K 星星!最简单的本地 LLM 前端 - 无需 API 调用或 GPU、本地&私人
4780
LLaMA 3.1 模型在DAMODEL平台的部署与实战:打造智能聊天机器人
1580
GPUStack:运行 AI 模型的 GPU 集群管理器
1.9K0
能在 CPU 上运行的开源大模型推理框架
1470
使用 Ollama框架 下载和使用 Llama3 AI大模型的完整指南
4.8K0
本地运行“李开复”的零一万物 34B 大模型
1K0
Ollama如何构建自己的Llama3中文模型模型
1K0
相关推荐
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档