Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >Nomad 系列-Nomad+Traefik+Tailscale 集成实现零信任安全

Nomad 系列-Nomad+Traefik+Tailscale 集成实现零信任安全

作者头像
东风微鸣
发布于 2023-09-14 07:00:48
发布于 2023-09-14 07:00:48
61800
代码可运行
举报
运行总次数:0
代码可运行

系列文章

•Nomad 系列文章[1]•Traefik 系列文章[2]•Tailscale 系列文章[3]

概述

终于到了令人启动的环节了:Nomad+Traefik+Tailscale 集成实现零信任安全

在这里:

•Nomad 负责容器调度;(容器编排工具)•Traefik 负责入口流量;(Ingress 工具)•Tailscale 实现跨地域联通,4 层加密以及提供 HTTPS 证书。

Traefik 简介

Traefik 是一个现代的 HTTP 反向代理和负载均衡器,使部署微服务变得容易。

Traefik 可以与现有的多种基础设施组件(Docker、Swarm 模式、Kubernetes、Marathon、Consul、Etcd、Rancher、Amazon ECS、Nomad…)集成,并自动和动态地配置自己。

Traefik 与 Nomad Native Service 集成

2023 年 5 月初,Hashicorp 发布了 Nomad 1.3 版本[4]。在此版本之前,当与 Nomad 一起使用服务发现时,Traefik Proxy 用户必须同时使用 Hashicorp Consul 和 Nomad,以便从 Traefik Proxy 著名的自动配置中获益。现在,Nomad 有了一种简单直接的方法来使用内置的服务发现。这大大提高了直接可用性!不仅在简单的测试环境中,而且在边缘环境中。

Traefik 与 Tailscale 集成

从 Traefik Proxy 3.0 Beta 1 发布开始,Traefik Proxy 支持 Tailscale。当 Traefik 收到对 *.ts.net 站点的 HTTPS 请求时,它会从机器的本地 Tailscale 守护进程(实际是 Tailscale 的 socket) 获取 HTTPS 证书。并且证书不需要配置。

Traefik 小结

在这次集成中,我们使用 Traefik 作为 Nomad 集群中工作负载的 HTTP 反向代理和负载均衡,并通过 Nomad Native Service 和 Nomad 集成,通过 Traefik Resolver 与 Tailscale 集成。

Tailscale 简介

Tailscale 是一种 V(irtual)P(rivate)N(etwork) 服务,可以让您在世界任何地方安全、轻松地访问您拥有的设备和应用程序。它使用开源 WireGuard[5] 协议实现加密的点对点连接,这意味着只有您的专用网络上的设备才能相互通信。

Tailscale 快速可靠。与传统的 V(irtual)P(rivate)N(etwork) 不同,传统的通过中央网关服务器隧道传输所有网络流量,Tailscale 则是创建了一个对等 full-mesh 网状网络(称为 tailnet).

Tailscale 提供了一系列的额外实用功能,如:

MagicDNS: 使用短主机名作为域名直接访问设备。如:http://raspberryhttp://raspberry.west-beta.ts.netHTTPS 证书: 允许用户为其设备提供 TLS 证书。如上面的:raspberry.west-beta.ts.net 提供授信证书。可以通过 https://raspberry.west-beta.ts.net 访问且浏览器显示安全的绿锁🔒标志。

默认情况下,Tailscale 节点之间的 (4 层)连接通过端到端加密来保护。然而,浏览器,Web APIVisual Studio Code 等产品并不知道这一点,并且可以根据以下事实警告用户或禁用功能:到您的尾网服务的 HTTP URL 看起来未加密,因为它们没有使用 TLS 证书。

而 Tailscale 在启用了:

1.tailnet name[6]2.MagicDNS[7]3.HTTPS 证书[8]

后,便可以为每台 Tailscale 机器自动或手动生成证书。证书对应的域名如下:

Tailscale HTTPS Cert

在这次集成中,我们使用 Tailscale 实现跨地域联通,4 层加密以及提供 HTTPS 证书。跨地域联通需要在 Nomad 上进行相关设置;4 层加密为默认提供的;HTTPS 证书则需要分别在 Nomad 以及 Traefik 上进行相关设置。

Nomad+Traefik+Tailscale 集成具体方案

•Tailscale 在多个相同或不同区域 Linux Node 上通过软件源安装;通过 systemd 启动;•Nomad 安装在这些 Linux Node 上,并指定网卡为 Tailscale 对应网卡 - tailscale0•Traefik 以 system 类型 job 的方式在 Nomad 上通过 Docker 运行。并与 Tailscale 和 Nomad 集成。

Nomad+Traefik+Tailscale 集成实施步骤

前提

•多台(最好在不同区域)的 Linux Node(本例中是 Ubuntu Node)•这些 Linux Node 最好 Hostname 各不相同•Nomad 前提:•Docker 已安装•Nomad 已安装(版本≥1.3, 越新越好)•Nomad 集群已创建并运行(至少包括 1 个 Server 和 1 个 Client)•Tailscale 前提:•已创建 Tailscale 账号•Tailscale 版本大于等于 1.14(越新越好)•MagicDNS 功能已启用•HTTPS 证书功能已启用•Traefik 前提:•Traefik Proxy 版本 ≥ 3.0 Beta 1

安装并运行 Tailscale

在每台机器上,运行以下命令安装:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
curl -fsSL https://tailscale.com/install.sh | sh

更多安装方式,请参见:Traefik Nomad Service Discovery Routing - Traefik[9]

这里不做详细介绍。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo tailscale up

并登录 Tailscale.

Nomad Client 配置调整

Nomad Client 需要进行如下配置调整,以方便后续和 Tailscale 及 Traefik 集成:

1.配置 Tailscale Socket 作为 Nomad Host Volume(供 Docker 中的 Traefik 和 Tailscale 通信)2.配置网卡为 tailscale0, 使用 Tailscale 网络进行东西向通信。

修改 /etc/nomad.d/nomoad.hclclient 块配置,具体配置如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
data_dir  = "/opt/nomad/data"
bind_addr = "0.0.0.0"

client {
  enabled = true
  servers = ["100.99.99.99"]
  network_interface = "tailscale0"
  host_volume "tailscale-socket" {
    path      = "/run/tailscale/tailscaled.sock"
    read_only = true
  }
}

具体说明如下:

servers = ["100.99.99.99"]: 指定 servers ip 列表为对应的 Servers 的 Tailscale IP 地址。后续该地址都要根据您的实际情况替换为 Nomad Server 的一个地址或所有地址列表。•network_interface = "tailscale0": 指定要强制进行网络指纹识别的接口的名称。在开发模式下运行时,默认为环回接口。不处于开发模式时,将使用连接到默认路由的接口。调度程序在为任务分配端口时从这些指纹 IP 地址中进行选择。这里指定 Nomad 使用 Tailscale 隧道网卡 tailscale0 作为网络指纹识别的接口。•host_volume "tailscale-socket" {: 如 前一篇文章[10] 所述,配置 Nomad Host Volume•path = "/run/tailscale/tailscaled.sock": Tailscale Socket Host Path.•read_only = true: 只读。

运行 Traefik Job

Traefik Job HCL - traefik.hcl 具体如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
job "traefik" {
  datacenters = ["dc1"]
  type        = "system"

  group "traefik" {

    network {
      port  "http"{
         static = 80
      }
      port "https" {
        static = 443
      }
      port  "admin"{
         static = 8080
      }
    }

    service {
      name = "traefik-http"
      provider = "nomad"
      port = "http"
    }

    service {
      name = "traefik-https"
      provider = "nomad"
      port = "https"
    }

    volume "tailscale-socket" {
      type      = "host"
      read_only = true
      source    = "tailscale-socket"
    }

    task "server" {
      driver = "docker"
      volume_mount {
        volume           = "tailscale-socket"
        destination      = "/var/run/tailscale/tailscaled.sock"
        read_only        = true
      }
      config {
        image = "traefik:v3.0"
        ports = ["admin", "http", "https"]
        args = [
          "--api.dashboard=true",
          "--api.insecure=true", ### For Test only, please do not use that in production
          "--entrypoints.web.address=:${NOMAD_PORT_http}",
          "--entryPoints.websecure.address=:${NOMAD_PORT_https}",  
          "--entrypoints.traefik.address=:${NOMAD_PORT_admin}",
          "--providers.nomad=true",
          "--providers.nomad.endpoint.address=http://100.99.99.99:4646", ### Tailscale IP to your nomad server 
          "--certificatesresolvers.tailscaleresolver.tailscale=true"
        ]
      }
    }
  }
}

详细说明如下:

•type = "system": 数据中心和节点池中的每个客户端都获得分配。类似于 K8s 的 Daemonset.•network {} Network 块,这里指定了 3 个静态端口(类似于 K8s 中的 HostSubnet), 即容器内和主机都监听:•http 端口 80•https 端口 443•admin Traefik admin 端口 8080 (因为底层是 Tailscale, 所以其实 HTTP 也是在 4 层透明加密过的)•service {} 2 个 Service 块,都是 Nomad Native Service. 分别是:•traefik-http 服务:指向 http 端口 - 80•traefik-https 服务:指向 https 端口 - 443•volume "tailscale-socket" { 通过 Nomad Host Volume 声明 Tailscale Socket•type = "host": Volume 类型为 Nomad Host Volume•read_only = true: Volume 级别 read_only 配置•source: source 指向 Nomad Client 的tailscale-socket, 即:/run/tailscale/tailscaled.sock path•driver = "docker": Traefik 实际在 Docker 中运行•volume_mount {: volume mount 配置:•destination = "/var/run/tailscale/tailscaled.sock": 将 Tailscale Socket 挂载到容器内 /var/run/tailscale/tailscaled.sock path.•config { docker 配置块。•image = "traefik:v3.0": 指定 traefik 镜像为:traefik:v3.0•ports = ["admin", "http", "https"]: 对外暴露的端口为:80, 443, 8080•args [: traefik 启动参数•"--api.dashboard=true": 启动 Traefik Dashboard•"--api.insecure=true": 仅供测试使用,请勿在生产环境中使用•"--entrypoints.web.address=:

运行该 Job:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
nomad run traefik.hcl

则 Traefik 会部署到 Nomad 所有的 Client 上。

至此,我们完成了 Nomad+Traefik+Tailscale 的集成。🎉🎉🎉

验证 Nomad+Traefik+Tailscale 效果

通过 Traefik Dashboard 验证

首先,打开 Traefik Dashboard - http://100.99.99.99, 效果如下:

Traefik 集成 Nomad

从上图可以看到:

•Traefik 的版本是 3.0 Beta 1 以上,实际为:3.0.0-beta3•Traefik 监听的端口为:80, 443 和 8080•Traefik 已经和 Nomad 集成,Providers 显示为 Nomad.

创建 Nomad Service 验证

我们基于 HashiCorp Nomad 官方提供的另一个 Demo 程序:HashiCups[11] 来进行配置调整:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
git clone https://github.com/hashicorp/learn-nomad-sd.git
cd learn-nomad-sd
git checkout tags/v0.1 -b nomad-hashicups-sd

修改 hashicups.hcl 的以下内容:(内容有省略)

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
...
job "hashicups" {
  type   = "service"

  ...
  group "nginx" {
    network {
      port "nginx" {
        to = var.nginx_port
      }
    }
    task "nginx" {
      driver = "docker"
      service {
        name = "nginx"
        provider = "nomad"
        port = "nginx"
        tags = [
            "traefik.http.routers.hashicups.rule=Host(`firefly-sub03.west-beta.ts.net`)",
            "traefik.http.routers.hashicups.tls.certResolver=tailscaleresolver"
        ]
      }
      ...
    }
  }
}

具体说明如下:

to = var.nginx_port: 🐾注意,这里要从 static 改为 to, 避免 Host 端口冲突。Host 端口会随机分配一个端口。•service {: service 块,这里 provider = "nomad", Traefik 会通过 Nomad Server API 获取 Nomad Native Service, 并通过 tags 获取具体路由配置。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
tags = [
    "traefik.http.routers.hashicups.rule=Host(`firefly-sub03.west-beta.ts.net`)",
    "traefik.http.routers.hashicups.tls.certResolver=tailscaleresolver"
]

这里是 Traefik 的配置风格,Traefik 和 Nomad 集成时,Nomad tags 的配置和 Traefik docker 集成的配置风格是一模一样的。

traefik.http.routers.hashicups.rule=Host(...) 创建hashicups router. 并指定域名,这里我指定了我的一台 Nomad Client Node 的 Tailscale 完整域名:firefly-sub03.west-beta.ts.net. 其中 .west-beta.ts.net 是我的专属域,如果您要配置,请根据从 Tailscale Admin Console 获取到的域自行调整。firefly-sub03 是我的一台 Linux Node 的 hostname, 显然,这台 Node 上安装了:nomad client, tailscale, traefik.•"traefik.http.routers.hashicups.tls.certResolver=tailscaleresolver" 指定该 router 的 HTTP 证书解析方名称为:tailscaleresolver, 即 tailscale.

效果如下:

在 Traefik Dashboard 上展示如下:

Traefik Dashboard - hashicups router

△ 可以看到,通过 http://firefly-sub03.west-beta.ts.net/ 或 https://firefly-sub03.west-beta.ts.net/ 都可以访问到 Nomad 的 nginx service. 并且 TLS 启用,且 Resolver 是tailscaleresolver

Traefik Dashboard - hashicups nginx service

△ 可以看到,Nomad 为 nginx service 自动分配的地址是:http://100.74.143.10:25061 端口是一个随机端口 (我这里 Nomad 网络使用 host 模式,而不是 bridge 模式)

直接通过 TS 内网访问 https://firefly-sub03.west-beta.ts.net/ 如下:

HashiCups Demo with https cert

△可以看到,通过域名可以访问到 Hashicups, 并且该域名的 HTTPS 证书也是受信的。

🎉🎉🎉

总结

本文我们通过 Nomad+Traefik+Tailscale 集成实现零信任安全。

在这里:

•Nomad 负责容器调度;(容器编排工具)•Traefik 负责入口流量;(Ingress 工具)•Tailscale 实现跨地域联通,4 层加密以及提供 HTTPS 证书。

具体来说,在这次集成中:

•使用 Traefik 作为 Nomad 集群中工作负载的 HTTP 反向代理和负载均衡,并通过 Nomad Native Service 和 Nomad 集成,通过 Traefik Resolver 与 Tailscale 集成。•使用 Tailscale 实现跨地域联通,4 层加密以及提供 HTTPS 证书。•跨地域联通需要在 Nomad 上进行相关设置;•4 层加密为默认提供的;•HTTPS 证书则需要分别在 Nomad 以及 Traefik 上进行相关设置。

并且,这套方案也特别适合边缘 Edge 环境:

•Nomad 为边缘集群提供了简单轻量的(容器)编排服务•Traefik 为边缘集群提供了 4 层 和 7 层的 负载均衡以及 7 层的 HTTP 代理服务•Tailscale 为边缘集群的"云" "边" "端" 提供了隧道打通,实现网络连接和边缘网络加密。并自动为 HTTPS 提供受信证书。

📚️参考文档

•Traefik Proxy Integrates with Hashicorp Nomad | Traefik Labs[12]•Traefik Nomad Service Discovery Routing - Traefik[13]•Load Balancing with Traefik | Nomad | HashiCorp Developer[14]•Traefik Proxy Integrates with Hashicorp Nomad | Traefik Labs[15]•Traefik Tailscale Documentation - Traefik[16]•Download · Tailscale[17]•Integrations · Tailscale[18]•Traefik certificates on Tailscale · Tailscale[19]•Deploy an App with Nomad Service Discovery | Nomad | HashiCorp Developer[20]

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-09-05 20:10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 东风微鸣技术博客 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
本篇文章聊聊,如何使用 Ollama、Dify 和 Docker 来完成本地 Llama 3.1 模型服务的搭建。
soulteary
2024/08/01
1K0
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
本篇文章聊聊,如何使用 Ollama、Dify 和 Docker 来完成本地 Llama 3.1 模型服务的搭建。
soulteary
2024/07/28
2.2K0
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)
我记得,梦的开始,源于Ollama。很早以前的一篇文章教大家如何通过 Ollama 来使用开源 LLM,许多人最初接触 AI 时也是从Ollama开始的。Ollama 之所以出色,是因为它使用了 GGML 格式,这是一种‘轻量版’的大语言模型,以较低精度运行,能够轻松适配普通硬件。这使得在本地系统上运行这些模型变得简单高效,真正为 AI 的广泛应用铺平了道路。
AI进修生
2024/12/02
14.5K0
Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)
探秘NVIDIA RTX AI:llama.cpp如何让你的Windows PC变身AI超人
想象一下,你的Windows PC突然拥有了超能力,能够迅速处理复杂的AI任务,就像电影里的超级电脑一样。这一切,都要归功于NVIDIA RTX AI平台和它的秘密武器——llama.cpp!
GPUS Lady
2024/10/04
8200
手把手带你3步本地私有化部署DeepSeekR1,亲测成功
DeepSeek 是国内顶尖 AI 团队「深度求索」开发的多模态大模型,具备数学推理、代码生成等深度能力,堪称"AI界的六边形战士"。
烟雨平生
2025/02/10
6K0
手把手带你3步本地私有化部署DeepSeekR1,亲测成功
LLaMA-Factory全流程训练模型
docker拉取的Ubuntu20.04没有任何配置,比如wget等命令需要自己通过apt-get install 安装
@小森
2024/11/12
8741
LLaMA-Factory全流程训练模型
5种搭建LLM服务的方法和代码示例
在不断发展的大型语言模型(LLMs)领域中,用于支持这些模型的工具和技术正以与模型本身一样快的速度进步。在这篇文章中,我们将总结5种搭建开源大语言模型服务的方法,每种都附带详细的操作步骤,以及各自的优缺点。
deephub
2024/04/26
6840
5种搭建LLM服务的方法和代码示例
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
Xorbits Inference (Xinference) 是一个开源平台,用于简化各种 AI 模型的运行和集成。借助 Xinference,您可以使用任何开源 LLM、嵌入模型和多模态模型在云端或本地环境中运行推理,并创建强大的 AI 应用。通过 Xorbits Inference,可以轻松地一键部署你自己的模型或内置的前沿开源模型
汀丶人工智能
2024/08/17
4.9K0
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
详解几种常见本地大模型个人知识库工具部署、微调及对比选型(2)
这里首先介绍的是大模型侧的工具安装部署实践,至于为什么先提大模型侧后提知识库侧呢?这是因为大模型通常是知识库操作和应用的基础与核心,是提供智能决策的引擎。它们构建了理解和生成文本、图像、语音等多模态反应的基础能力,是整个智能应用的心脏,同时,由于这次主题是本地大模型个人知识库,所以大模型的安装、配置、优化和部署是首要步骤,也是确保知识库工具能够顺畅运行的基石。
zhouzhou的奇妙编程
2024/06/12
4.1K0
6G显存玩转130亿参数大模型,仅需13行命令,RTX2060用户发来贺电
克雷西 发自 凹非寺 量子位 | 公众号 QbitAI Meta的大语言模型LLaMA 13B,现在用2060就能跑了~ 羊驼家族的Alpaca和Vicuna也都能运行,显存最低只需要6G,简直是低VRAM用户的福音有木有。 GitHub上的搭建教程火了之后,网友们纷纷跑来问苹果M2是不是也能跑。 这通操作的大致原理是利用最新版CUDA,可以将Transformer中任意数量的层放在GPU上运行。 与此前llama.cpp项目完全运行在CPU相比,用GPU替代一半的CPU可以将效率提高将近2倍。 而如果纯
量子位
2023/05/19
7170
6G显存玩转130亿参数大模型,仅需13行命令,RTX2060用户发来贺电
LLM运行框架对比:ollama与vllm浅析
开源的LLM已经成为程序员、爱好者和希望在日常工作中使用生成式AI并保持隐私的用户的最佳选择,对于企业的私有化部署而言也是如此。这些模型提供了优秀的性能,有时在许多任务中可以与大型的闭源模型 (如 GPT-4o 或 Claude Sonnet 3.5) 相媲美。
半吊子全栈工匠
2025/03/10
1.1K1
LLM运行框架对比:ollama与vllm浅析
WebGPU和WebAssembly能否克服Docker的AI GPU问题?
GPU 的使用被证明并非完全是 Docker 和 WebAssembly 的障碍,而是一个速度障碍。
云云众生s
2024/07/09
2600
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
之前在window下安装过 Ollama和OpenWebUI搭建本地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台机器安装linux系统,在linux系统下测试一下速度能否可以快一些。
星哥玩云
2024/05/18
6.2K0
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
GPT4All 3.0版 :66.5K 星星!最简单的本地 LLM 前端 - 无需 API 调用或 GPU、本地&私人
在人工智能领域,一年的时间可以带来巨大的变化。如果一个项目能存活超过一个月,那么它必定具有某些独特的优势。GPT4All 已经运行了一整年,仍然是 GitHub 上最受欢迎的项目之一。
AI进修生
2024/12/02
4780
GPT4All 3.0版 :66.5K 星星!最简单的本地 LLM 前端 - 无需 API 调用或 GPU、本地&私人
LLaMA 3.1 模型在DAMODEL平台的部署与实战:打造智能聊天机器人
LLama3.1 是 Meta(Facebook 母公司)发布的系列大语言模型之一,属于 LLaMA(Large Language Model Meta AI)模型系列。LLaMA 模型的目标是通过更高效的设计在保持模型性能的前提下,显著降低其计算和资源需求。LLaMA 3.1 是该系列的最新版本,继承了前面版本,如 LLaMA 1 和 LLaMA 2的许多技术优势,并对模型架构、训练数据和推理能力进行了改进。
易辰君
2024/11/07
1580
LLaMA 3.1 模型在DAMODEL平台的部署与实战:打造智能聊天机器人
GPUStack:运行 AI 模型的 GPU 集群管理器
随着大语言模型、扩散模型等AI技术的爆发式增长,企业对GPU算力的需求呈现指数级攀升。然而,硬件异构化(如不同品牌GPU共存)、模型多样化(LLM、音频、图像生成等)以及资源动态扩展等问题,使得传统GPU管理工具捉襟见肘。在此背景下,GPUStack应运而生,这款由开源社区驱动的GPU集群管理框架,以"兼容性、灵活性、易用性"为核心设计理念,致力于为开发者提供一站式AI模型部署与推理解决方案。
luckpunk
2025/03/03
1.9K0
GPUStack:运行 AI 模型的 GPU 集群管理器
能在 CPU 上运行的开源大模型推理框架
如今,大模型的发展势头迅猛,而且,大模型的演进出现了两种分化趋势:一方面,开源大模型的规模不断扩大,从最初的数十亿参数迅速扩展到数千亿参数,照这个趋势,很快就会突破万亿级的超大规模。这类巨型模型通过引入更丰富的语义理解、复杂的推理能力和跨领域知识整合,展现出强大的智能。各大厂商开展军备竞赛,为了追求更高的准确率和更强的泛化能力,大模型的“无上限”扩展不断突破技术和硬件的边界。
云水木石
2025/01/23
1470
能在 CPU 上运行的开源大模型推理框架
使用 Ollama框架 下载和使用 Llama3 AI大模型的完整指南
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。它提供了一套简单的工具和命令,使任何人都可以轻松地启动和使用各种流行的LLM,例如GPT-3、Megatron-Turing NLG和WuDao 2.0。
神秘泣男子
2024/06/03
4.8K0
使用 Ollama框架 下载和使用 Llama3 AI大模型的完整指南
本地运行“李开复”的零一万物 34B 大模型
这篇文章,我们来聊聊如何本地运行最近争议颇多的,李开复带队的国产大模型:零一万物 34B。
soulteary
2023/11/27
1K0
本地运行“李开复”的零一万物 34B 大模型
Ollama如何构建自己的Llama3中文模型模型
Ollama 是一个开源的大型语言模型(LLM)服务工具,它允许用户在本地机器上运行和部署大型语言模型。Ollama 设计为一个框架,旨在简化在 Docker 容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。用户可以通过简单的命令行操作,快速在本地运行如 Llama 3 这样的开源大型语言模型。
Tinywan
2024/05/20
1K0
Ollama如何构建自己的Llama3中文模型模型
推荐阅读
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
1K0
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
2.2K0
Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)
14.5K0
探秘NVIDIA RTX AI:llama.cpp如何让你的Windows PC变身AI超人
8200
手把手带你3步本地私有化部署DeepSeekR1,亲测成功
6K0
LLaMA-Factory全流程训练模型
8741
5种搭建LLM服务的方法和代码示例
6840
Xinference实战指南:全面解析LLM大模型部署流程,携手Dify打造高效AI应用实践案例,加速AI项目落地进程
4.9K0
详解几种常见本地大模型个人知识库工具部署、微调及对比选型(2)
4.1K0
6G显存玩转130亿参数大模型,仅需13行命令,RTX2060用户发来贺电
7170
LLM运行框架对比:ollama与vllm浅析
1.1K1
WebGPU和WebAssembly能否克服Docker的AI GPU问题?
2600
Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自由
6.2K0
GPT4All 3.0版 :66.5K 星星!最简单的本地 LLM 前端 - 无需 API 调用或 GPU、本地&私人
4780
LLaMA 3.1 模型在DAMODEL平台的部署与实战:打造智能聊天机器人
1580
GPUStack:运行 AI 模型的 GPU 集群管理器
1.9K0
能在 CPU 上运行的开源大模型推理框架
1470
使用 Ollama框架 下载和使用 Llama3 AI大模型的完整指南
4.8K0
本地运行“李开复”的零一万物 34B 大模型
1K0
Ollama如何构建自己的Llama3中文模型模型
1K0
相关推荐
从零到一使用 Ollama、Dify 和 Docker 构建 Llama 3.1 模型服务
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验