前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >后台性能测试不可不知的二三事

后台性能测试不可不知的二三事

作者头像
腾讯移动品质中心TMQ
发布于 2018-02-06 06:11:49
发布于 2018-02-06 06:11:49
2.9K13
举报

某月黑风高之夜,某打车平台上线了一大波(G+)优惠活动,众人纷纷下单。于是乎,该打车平台使用的智能提示服务扛不住直接趴窝了(如下图)。事后,负责智能提示服务开发和运维的有关部门开会后决定:必须对智能提示服务进行一次全面深入的性能摸底,立刻!现在!马上!

那么一大坨问题就迎面而来:对于智能提示这样的后台服务,性能测试过程中应该关心那些指标?这些指标代表什么含义?这些指标的通过标准是什么?下面将为您一一解答。

概述

不同人群关注的性能指标各有侧重。后台服务接口的调用者一般只关心吞吐量、响应时间等外部指标。后台服务的所有者不仅仅关注外部指标,还会关注CPU、内存、负载等内部指标。

拿某打车平台来说,它所关心的是智能提示的外部指标能不能抗住因大波优惠所导致的流量激增。而对于智能提示服务的开发、运维、测试人员,不仅仅关注外部指标,还会关注CPU、内存、IO等内部指标,以及部署方式、服务器软硬件配置等运维相关事项。

外部指标

从外部看,性能测试主要关注如下三个指标

  • 吞吐量:每秒钟系统能够处理的请求数、任务数。
  • 响应时间:服务处理一个请求或一个任务的耗时。
  • 错误率:一批请求中结果出错的请求所占比例。

响应时间的指标取决于具体的服务。如智能提示一类的服务,返回的数据有效周期短(用户多输入一个字母就需要重新请求),对实时性要求比较高,响应时间的上限一般在100ms以内。而导航一类的服务,由于返回结果的使用周期比较长(整个导航过程中),响应时间的上限一般在2-5s。

对于响应时间的统计,应从均值、.90、.99、分布等多个角度统计,而不仅仅是给出均值。下图是响应时间统计的一个例子

吞吐量的指标受到响应时间、服务器软硬件配置、网络状态等多方面因素影响。

  • 吞吐量越大,响应时间越长。
  • 服务器硬件配置越高,吞吐量越大。
  • 网络越差,吞吐量越小。

在低吞吐量下的响应时间的均值、分布比较稳定,不会产生太大的波动。

在高吞吐量下,响应时间会随着吞吐量的增长而增长,增长的趋势可能是线性的,也可能接近指数的。当吞吐量接近系统的峰值时,响应时间会出现激增。

错误率和服务的具体实现有关。通常情况下,由于网络超时等外部原因造成的错误比例不应超过5%%,由于服务本身导致的错误率不应超过1% 。

内部指标

从服务器的角度看,性能测试主要关注CPU、内存、服务器负载、网络、磁盘IO等

CPU

后台服务的所有指令和数据处理都是由CPU负责,服务对CPU的利用率对服务的性能起着决定性的作用。

Linux系统的CPU主要有如下几个维度的统计数据

  • us:用户态使用的cpu时间百分比
  • sy:系统态使用的cpu时间百分比
  • ni:用做nice加权的进程分配的用户态cpu时间百分比
  • id:空闲的cpu时间百分比
  • wa:cpu等待IO完成时间百分比
  • hi:硬中断消耗时间百分比
  • si:软中断消耗时间百分比

下图是线上开放平台转发服务某台服务器上top命令的输出,下面以这个服务为例对CPU各项指标进行说明

us & sy:大部分后台服务使用的CPU时间片中us和sy的占用比例是最高的。同时这两个指标又是互相影响的,us的比例高了,sy的比例就低,反之亦然。通常sy比例过高意味着被测服务在用户态和系统态之间切换比较频繁,此时系统整体性能会有一定下降。另外,在使用多核CPU的服务器上,CPU 0负责CPU各核间的调度,CPU 0上的使用率过高会导致其他CPU核心之间的调度效率变低。因此测试过程中CPU 0需要重点关注。

ni:每个Linux进程都有个优先级,优先级高的进程有优先执行的权利,这个叫做pri。进程除了优先级外,还有个优先级的修正值。这个修正值就叫做进程的nice值。一般来说,被测服务和服务器整体的ni值不会很高。如果测试过程中ni的值比较高,需要从服务器Linux系统配置、被测服务运行参数查找原因

id:线上服务运行过程中,需要保留一定的id冗余来应对突发的流量激增。在性能测试过程中,如果id一直很低,吞吐量上不去,需要检查被测服务线程/进程配置、服务器系统配置等。

wa:磁盘、网络等IO操作会导致CPU的wa指标提高。通常情况下,网络IO占用的wa资源不会很高,而频繁的磁盘读写会导致wa激增。如果被测服务不是IO密集型的服务,那需要检查被测服务的日志量、数据载入频率等。

hi & si:硬中断是外设对CPU的中断,即外围硬件发给CPU或者内存的异步信号就是硬中断信号;软中断由软件本身发给操作系统内核的中断信号。通常是由硬中断处理程序或进程调度程序对操作系统内核的中断,也就是我们常说的系统调用(System Call)。在性能测试过程中,hi会有一定的CPU占用率,但不会太高。对于IO密集型的服务,si的CPU占用率会高一些。

内存

性能测试过程中对内存监控的主要目的是检查被测服务所占用内存的波动情况。

在Linux系统中有多个命令可以获取指定进程的内存使用情况,最常用的是top命令,如下图所示

其中

  • VIRT:进程所使用的虚拟内存的总数。它包括所有的代码,数据和共享库,加上已换出的页面,所有已申请的总内存空间
  • RES:进程正在使用的没有交换的物理内存(栈、堆),申请内存后该内存段已被重新赋值
  • SHR:进程使用共享内存的总数。该数值只是反映可能与其它进程共享的内存,不代表这段内存当前正被其他进程使用
  • SWAP:进程使用的虚拟内存中被换出的大小,交换的是已经申请,但没有使用的空间,包括(栈、堆、共享内存)
  • DATA:进程除可执行代码以外的物理内存总量,即进程栈、堆申请的总空间

从上面的解释可以看出,测试过程中主要监控RES和VIRT,对于使用了共享内存的多进程架构服务,还需要监沙发控SHR。

LOAD(服务器负载)

Linux的系统负载指运行队列的平均长度,也就是等待CPU的平均进程数

从服务器负载的定义可以看出,服务器运行最理想的状态是所有CPU核心的运行队列都为1,即所有活动进程都在运行,没有等待。这种状态下服务器运行在负载阈值下。

通常情况下,按照经验值,服务器的负载应位于阈值的70%~80%,这样既能利用服务器大部分性能,又留有一定的性能冗余应对流量增长。

Linux提供了很多查看系统负载的命令,最常用的是top和uptime

top和uptime针对负载的输出内容相同,都是系统最近1分钟、5分钟、15分钟的负载均值

查看系统负载阈值的命令如下

在性能测试过程中,系统负载是评价整个系统运行状况最重要的指标之一。通常情况下,压力测试时系统负载应接近但不能超过阈值,并发测试时的系统负载最高不能超过阈值的80%,稳定性测试时,系统负载应在阈值的50%左右。

网络

性能测试中网络监控主要包括网络流量、网络连接状态的监控。

网络流量监控

可以使用nethogs命令。该命令与top类似,是一个实时交互的命令,运行界面如下

在后台服务性能测试中,对于返回文本结果的服务,并不需要太多关注在流量方面。

网络连接状态监控

性能测试中对网络的监控主要是监控网络连接状态的变化和异常。对于使用TCP协议的服务,需要监控服务已建立连接的变化情况(即ESTABLISHED状态的TCP连接)。对于HTTP协议的服务,需要监控被测服务对应进程的网络缓冲区的状态、TIME_WAIT状态的连接数等。Linux自带的很多命令如netstat、ss都支持如上功能。下图是netstat对指定pid进程的监控结果

磁盘IO

性能测试过程中,如果被测服务对磁盘读写过于频繁,会导致大量请求处于IO等待的状态,系统负载升高,响应时间变长,吞吐量下降。

Linux下可以用iostat命令来监控磁盘状态,如下图

  • tps:该设备每秒的传输次数。“一次传输”意思是“一次I/O请求”。多个逻辑请求可能会被合并为“一次I/O请求”。“一次传输”请求的大小是未知的
  • kB_read/s:每秒从设备(driveexpressed)读取的数据量,单位为Kilobytes
  • kB_wrtn/s:每秒向设备(driveexpressed)写入的数据量,单位为Kilobytes
  • kB_read:读取的总数据量,单位为Kilobytes
  • kB_wrtn:写入的总数量数据量,单位为Kilobytes

从iostat的输出中,能够获得系统运行最基本的统计数据。但对于性能测试来说,这些数据不能提供更多的信息。需要加上-x参数

  • rrqm/s:每秒这个设备相关的读取请求有多少被Merge了(当系统调用需要读取数据的时候,VFS将请求发到各个FS,如果FS发现不同的读取请求读取的是相同Block的数据,FS会将这个请求合并Merge)
  • wrqm/s:每秒这个设备相关的写入请求有多少被Merge了
  • await:每一个IO请求的处理的平均时间(单位是毫秒)
  • %util:在统计时间内所有处理IO时间,除以总共统计时间。例如,如果统计间隔1秒,该设备有0.8秒在处理IO,而0.2秒闲置,那么该设备的%util = 0.8/1 = 80%,该参数暗示了设备的繁忙程度。

常见性能瓶颈

  • 吞吐量到上限时系统负载未到阈值:一般是被测服务分配的系统资源过少导致的。测试过程中如果发现此类情况,可以从ulimit、系统开启的线程数、分配的内存等维度定位问题原因
  • CPU的us和sy不高,但wa很高:如果被测服务是磁盘IO密集型型服务,wa高属于正常现象。但如果不是此类服务,最可能导致wa高的原因有两个,一是服务对磁盘读写的业务逻辑有问题,读写频率过高,写入数据量过大,如不合理的数据载入策略、log过多等,都有可能导致这种问题。二是服务器内存不足,服务在swap分区不停的换入换出。
  • 同一请求的响应时间忽大忽小:在正常吞吐量下发生此问题,可能的原因有两方面,一是服务对资源的加锁逻辑有问题,导致处理某些请求过程中花了大量的时间等待资源解锁;二是Linux本身分配给服务的资源有限,某些请求需要等待其他请求释放资源后才能继续执行。
  • 内存持续上涨:在吞吐量固定的前提下,如果内存持续上涨,那么很有可能是被测服务存在明显的内存泄漏,需要使用valgrind等内存检查工具进行定位。

举个 (栗子) 例子

智能提示服务趴窝了以后,必须立刻对其做性能摸底。根据目前的情况,测试结果中需要提供外部指标和内部指标。

智能提示服务的架构和每个模块的功能如下图所示

从图中我们可以看出,测试前智能提示服务的底层数据服务已经确定了性能上限。因此,本次测试我们的任务是在底层数据服务性能为3500qps的前提下,找到智能提示服务上游各个模块的性能上限。

一个完整的后台服务性能测试流程如下图所示。

测试前准备:

  • 测试数据:由于智能提示已经在线上运行,本次测试使用智能提示趴窝那天的日志作为测试数据
  • QPS预估:本次测试就是为了找这个数
  • 服务器配置:使用与线上软硬件配置相同的服务器

压测过程:

我们使用Jmeter发送测试数据来模拟用户请求,Jmeter测试配置文件使用的原件如下图所示。从图中可以看出,性能测试的配置文件主要由数据文件配置(线程间共享方式、到达末尾时的行为等)、吞吐量控制、HTTP采样器(域名、端口、HTTP METHOD、请求body等)、响应断言(对返回结果的内容进行校验)。

数据文件配置

吞吐量控制

HTTP请求采样

响应断言

  • CPU

在linux中,sar、top、ps等命令都可以对cpu使用情况进行监控。一般来说,最常用的是top命令。top命令的输出如下:

top命令是一个交互式命令,运行后会一直保持在终端并定时刷新。在性能测试中,可以使用如下参数让top命令只运行一次

$top –n 1 –b –p ${pid}

  • 服务器负载

linux中,服务器负载使用uptime命令获取,该命令的输出如下图

每一列的含义如下:

“当前时间 系统运行时长 登录的用户数最 近1分钟、5分钟、15分钟的平均负载”

  • 内存

在linux中, top、ps命令都可以对指定进程的内存使用状况进行查看。但最准确的信息在/proc/${PID}/status中,如下图

上面命令的输出中,我们重点关注VmRSS、VmData、VmSize

  • 磁盘IO

磁盘监控数据使用iostat命令获取

测试报告输出

在统计完性能测试过程中收集的监控指标后,就可以输出性能报告了。

通常来说,性能报告中要包含如下内容:

  • 测试结论:包括被测服务最大QPS、响应时间等指标是否达到期望,部署建议等。
  • 测试环境描述:包括性能需求、测试用服务器配置、测试数据来源、测试方法等
  • 监控指标统计:响应时间统计、QPS、服务器指标统计、进程指标统计。建议最好用图表来表示统计数据。

结语

测试完毕后,得出的结论是单台智能提示服务的性能是300qps,线上整套智能提示服务的性能是1800qps;而月黑风高那天的流量大概是5000qps+,难怪智能提示趴窝,确实流量太大,远超线上的吞吐容量。

最后,智能提示服务申请了服务器进行扩容,并对某打车平台的流量进行了限制,既开源又节流,保证今后月黑风高之夜一众约酒、约饭、约P之人的打车体验,提高了各种约的成功率,可谓功德无量。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2016-07-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 腾讯移动品质中心TMQ 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
13 条评论
热度
最新
现在已经2022了,但是还是经常会回来看看,以后我应该是要参照你的自己写一个 : ) 希望允许转载(会声明
现在已经2022了,但是还是经常会回来看看,以后我应该是要参照你的自己写一个 : ) 希望允许转载(会声明
回复回复点赞举报
博主请问一下,hexo generate && hexo deploy之后出现 error failed to push some refs to 'ubuntu@120.53.9.241:/var/repo/hexo_static.git"怎么解决啊
博主请问一下,hexo generate && hexo deploy之后出现 error failed to push some refs to 'ubuntu@120.53.9.241:/var/repo/hexo_static.git"怎么解决啊
回复回复点赞举报
博主请问一下,按照步骤配置nginx后,访问ip出现“403 Forbiddennginx/1.14.0 (Ubuntu)”这个应该怎么解决啊
博主请问一下,按照步骤配置nginx后,访问ip出现“403 Forbiddennginx/1.14.0 (Ubuntu)”这个应该怎么解决啊
11点赞举报
Nginx重启下, 并确定 /var/www/hexo下有静态文件
Nginx重启下, 并确定 /var/www/hexo下有静态文件
回复回复点赞举报
博主请问一下 最后胚子和ubuntu@CVM 云服务器的IP地址:/var/repo/hexo_static CVM与ip地址之间有无空格,其次 这个ip地址是公网还是内网ip啊?
博主请问一下 最后胚子和ubuntu@CVM 云服务器的IP地址:/var/repo/hexo_static CVM与ip地址之间有无空格,其次 这个ip地址是公网还是内网ip啊?
11点赞举报
ubuntu@云主机公网IP:/var/repo/hexo_static.git
ubuntu@云主机公网IP:/var/repo/hexo_static.git
回复回复点赞举报
按照教程执行了最后一步之后提示:INFO 33 files generated in 755 ms,但是我的站还是不能访问,咋办?
按照教程执行了最后一步之后提示:INFO 33 files generated in 755 ms,但是我的站还是不能访问,咋办?
11点赞举报
执行下 hexo d
执行下 hexo d
回复回复点赞举报
Error: Permission denied (publickey).fatal: Could not read from remote repository. hexo d出现这个怎么解决
Error: Permission denied (publickey).fatal: Could not read from remote repository. hexo d出现这个怎么解决
22点赞举报
同问
同问
回复回复点赞举报
删除 c:\user\administrator\.ssh 文件, 重新生成公钥,并添加到 authoriz ... 文件中
删除 c:\user\administrator\.ssh 文件, 重新生成公钥,并添加到 authoriz ... 文件中
回复回复点赞举报
你好,我想咨询一个问题,就是我本身博客部署在 GitHub pages上的,现在想迁移到云服务上,按照你的步骤都成功了,在最后一步 hexo d 提交时提示:Everything up-to-date ,我不太懂hexo 的机制,希望能解答一下,谢谢。
你好,我想咨询一个问题,就是我本身博客部署在 GitHub pages上的,现在想迁移到云服务上,按照你的步骤都成功了,在最后一步 hexo d 提交时提示:Everything up-to-date ,我不太懂hexo 的机制,希望能解答一下,谢谢。
11点赞举报
需要先在任意位置处打开powershell, 从服务器上把`hexo_static`仓库克隆下来, 以此来将服务器地址添加到受信任的站点中。代码是```git clone ubuntu@server_ip:/var/repo/hexo_static.git```
需要先在任意位置处打开powershell, 从服务器上把`hexo_static`仓库克隆下来, 以此来将服务器地址添加到受信任的站点中。代码是```git clone ubuntu@server_ip:/var/repo/hexo_static.git```
回复回复点赞举报
推荐阅读
编辑精选文章
换一批
Hexo部署至服务器(Ubuntu 20.04)
本文将介绍如何从零开始,将Hexo项目部署到服务器(Ubuntu 20.04)上。
花猪
2022/02/22
2.9K1
Hexo部署至服务器(Ubuntu 20.04)
如何在Ubuntu 14.04上使用Hexo创建博客
Hexo是一个基于Node.js的静态博客框架。使用Hexo,您可以以博客文章的形式发布Markdown文档。博客帖子和内容被处理并转换为HTML / CSS,它来自默认或自定义模板主题文件(很像其他静态博客生成器,如Jekyll和Ghost)。Hexo中的所有软件都是模块化的,因此您可以准确安装和设置所需的软件。
木纸鸢
2018/09/25
1.3K0
Hexo之我的个人博客改用自己服务器搭建
最近小明介绍完自己用hexo+git搭建个人博客,大家好像更关心的是域名mynamecoder.com,不是应该关注技术嘛,让小明哭笑不得?,今天继续给大家讲一下如果觉得这两个代码托管平台打开加载太慢
程序员小明
2019/10/14
2.6K1
从零搭建Hexo博客并部署腾讯云服务器
腾讯云服务器已经买了好一阵子了,拖延到现在才搭博客,参考各个社区里挺多教程,最后选择使用Hexo来作为自己的博客框架,好处是不用自己造轮子,而且有很多漂亮的主题可以拿来用。今天上午把搭博客过程做个小结,希望对有想法要做自己的博客的同学们有一些帮助。
用户7978588
2020/12/19
2.4K0
Hexo博客的部署和使用
Hexo是一款快速、简洁且高效的博客框架,其基于Node.js让页面快速完成渲染,强大的API带来无限可能,丰富的插件和主题让建站更容易,生成的静态网页托管在GitHub等平台上还可以省去大量服务器费用。
M.Talen
2024/05/22
1650
Hexo博客的部署和使用
腾讯云服务器如何快速部署 Hexo 个人博客
你好,我是喵喵侠。作为一名热爱技术的开发者,我上大学那会儿就开始研究如何搭建个人博客了。经典的博客系统有WordPress、Typecho、Ghost等,这些部署起来也很简单,需要安装后台数据库,可以通过后台直接发布文章。对于前端开发人员来说,静态网站部署或许会更加简单一些,你只需要使用Markdown语法编写文章,加入一些博客框架特定的语法,就可以形成标题、关键词、主题样式、内容等配置。
喵喵侠
2024/11/30
1970
腾讯云服务器如何快速部署 Hexo 个人博客
The deployment of Hexo
Hexo的标签就是高效渲染+静态+简单,安装好后的后续文章的推送和页面的一些修改采用的是git方式的推送,通过密钥方式登录避免了每次推送更新都要输入密码的麻烦。安装过程主要分为服务器端的安装后本地客户端的安装,服务器端需要安装nginx+git+node.js,客户端的话是:git+node.js+hexo。
Tommonkey
2023/02/25
3600
如何快速部署国人开源的 Java 博客系统 Tale
本文介绍了如何在云服务器上部署一个开源博客系统——Tale。通过详细的步骤和截图,本文展示了如何从零开始搭建一个简单的博客,并利用Nginx和MySQL实现访问控制。同时,作者还分享了一个系统启动脚本,用于自动启动博客。最后,作者还提供了一些建议,包括如何为博客添加主题和插件,以及如何为云服务器设置访问权限。
EarlGrey
2017/02/28
12.1K1
如何快速部署国人开源的 Java 博客系统 Tale
如何搭建hexo博客到Linux云服务器
我是一个个人博客爱好者,平时有着记录自己折腾各种好玩东西过程的习惯,所以在大学期间我就搭建了一个自己的博客,刚开始入门用的是wordpress,用的是盗版的知更鸟主题,但随着时间推移,大概运行了一年时间,博客系统越来越臃肿,插件千奇百怪,学习成本较高,更为致命的是,需要大量的优化才能保证正常的加载速度(其实还是我太菜,不会优化,手动狗头),而且不能很好地支持markdown,违背了我写作的初衷,我在市面上开始寻找另外一款能够很好支持markdown语法的博客系统,此时typecho进入到了我的视线,相比于wordpress来讲,它更轻量化,而且很好的支持markdown语法,就这样,我再次转投到了typecho旗下,进行了大规模的迁移,再次运行了一年之久,然而新的问题随之而来,国外垃圾评论频出,加载速度太慢,markdown语法解析部分出问题(还是我太菜,不会前端自己开发解析),时至今日,我再次把目光投向了静态博客生成器,所谓博客生成器就是将markdown文件渲染成html静态文件,没有数据库的加持,全部博客页面纯静态,提升加载速度,抛弃臃肿插件,回归写作的本质,现在市面上比较出名的是hexo和hugo,两者相比,hexo更加成熟,玩的人更多,学习成本较低,所以我选择了hexo作为我的第三套博客系统。
tyrantlucifer
2022/03/23
1.5K0
如何搭建hexo博客到Linux云服务器
Hexo博客部署到Linux服务器上
以前Hexo博客是托管到github上,因为国内访问github速度有些慢,这次试着把博客部署到阿里云的服务器上。本地系统Windows10上需要安装node.js+hexo。下面做一个详细的介绍。
Lvshen
2022/05/05
6K0
Hexo博客部署到Linux服务器上
将 Hexo 部署在云服务器
将 Hexo 部署在云服务器 前言 众所周知,使用 GitHub Page 的访问速度令人发指,当然也有很多人选择部署到 Vercel,这便是我之前的选择,免费,同时还有着更快的速度。但说到底,云服务器往往是更好的选择,只要钱到位 😑。 使用宝塔面板可以比较方便快速的进行部署,不过我更想自己实际动手操作,也一边学习 Linux,就不使用了。 准备工作 本文假设你拥有 Hexo 建站相关的知识,相关的问题不再赘述,你也可以点击这里查看 Hexo 建站相关的知识。 在阅读本文之前,你需要做好以下准备:
EmoryHuang
2022/10/31
5.3K0
用树莓派做服务器运行博客网页
​ 手头有一块树莓派4B,为了不让树莓派闲着,我用它做一个网页服务器,挂载自己的个人网页,分享一下自己的部署过程
全栈程序员站长
2022/09/05
1.6K0
用树莓派做服务器运行博客网页
将Hexo部署到腾讯云轻量应用服务器
进入腾讯云,点击右上角控制台,选择轻量应用服务器(如果没有的话,就直接使用上面的搜索功能) 找到自己的服务器,点击 更多→管理,然后选择重置密码,重置初始密码
十玖八柒
2022/08/01
8K1
将Hexo部署到腾讯云轻量应用服务器
将个人博客迁移到云服务器上
之前通过github 和coding 来搭建的个人博客,但是搜索引擎一直不是很好,并且总感觉不稳定,访问很慢。最近刚刚买了一个云服务器,所以就打算将个人博客迁移到云服务器上。
程序员爱酸奶
2020/03/16
2.1K0
将个人博客迁移到云服务器上
【玩转Lighthouse】Docker与Hexo博客的部署实战
之所以选用轻量应用服务器,是因为相比起云服务器CVM,轻量应用服务器更加精简便捷易用,创建轻量服务器时更有流行的开源软件打包镜像,实现一键完成应用的构建部署。对于我们这种低负载的个人以及中小企业来说,成本低,性价比更加适合。废话不多说,让我们直接开始吧。
用户1542270
2022/04/27
2.9K1
Hexo 博客部署到腾讯云教程
本文首发于我的个人博客:『不羁阁』文章链接:传送门 本篇内容用来讲述如何将 hexo 博客部署到腾讯云的服务器上。 只要通过三步即可成功部署: 云服务器端 git 的配置 Nginx 的配置 本地端 hexo 的设置更改 前言 最近趁着腾讯云在做活动,买了3年的服务器。正好自己的博客之前是搭建在 coding 上的,现在也可以顺便部署到腾讯云上了。其实过程蛮简单的,即使,你是个对后台一窍不通的小白,也能很容易部署成功。顺便安利下腾讯云的活动。通过以下两步,即可360块钱买到40个月(三年半)的云服务
程序员充电站
2018/05/31
7.5K1
Hexo博客部署腾讯云服务器
设置的密码看不到,你直接输入就可以了。这里我设置的密码太简单了会有这样的提示。不用关心直接输入,看到成功提示即可。
程序员Leo
2023/08/07
5450
Hexo博客部署腾讯云服务器
【腾讯云的1001种玩法】Hello Hexo之静态博客搭建+自动部署
饶文津
2017/04/13
4.9K0
Gitee + Nginx + Hexo +LeanCloud搭建博客
​ 需求一:首先呢,当然是在浏览器中输入ip(101.42.229.55),就可以访问页面~。 ​ 1.需要有自己的Linux云服务器(我用的腾讯云服务器,几十块) ​ 2.在云服务器上部署nginx(部署个人博客,总不能一直session挂着进程吧,需要nginx来代理服务)
酒楼
2023/05/30
5500
Gitee + Nginx + Hexo +LeanCloud搭建博客
将Hexo部署到云服务器(使用宝塔面板)
本来Hexo是部署在GitHub上的(可以看我之前文章Hexo搭建静态博客 - Taitres' Blog包括了Hexo的基本使用),但是访问太慢了,并且想折腾一下,还想整个个人云盘,就买了个腾讯云的轻量应用服务器,把Hexo搬过来了,看了很多文章,记录下最终的解决方案。
Taitres
2021/05/13
14.2K4
推荐阅读
相关推荐
Hexo部署至服务器(Ubuntu 20.04)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档