敲黑板 | 云帮储存那点事儿

应用场景

正常安装环境下云帮需要一个分布式文件系统,社区版默认使用NFS作为共享存储,如果你的环境中有分布式文件存储系统,需要使用dc-ctl set storage --mode custom 命令安装存储管理服务,然后再将你系统中的分布式存储挂载到 /grdata 目录。 本文的应用场景主要针对使用GlusterFS。

GlusterFS介绍

GlusterFS是一个开源的分布式文件系统,它可以将分散的存储空间聚合在一起,形成一个虚拟的存储池。它支持横向扩展(Scale-Out),可通过增加存储节点来提升整个系统的容量或性能,存储容量可扩展至PB级。这一扩展机制是目前的存储技术热点,能有效应对容量、性能等存储需求。GlusterFS除了支持分散存储(Distributed,将不同的文件放在不同的存储节点)之外,还支持镜像存储(Replicated,同一个文件存放在两个以上的存储节点) 和分片存储(Stripped,将一个文件分划分为多个固定长度的数据,分散存放在所有存储节点)

安装GlusterFS

集群环境

  • 安装GlusterFS 至少需要2个节点,在本例中我们成为gfs01,gfs02,
  • 需要这两台机器可以通过网络互相连接
  • 两个节点的系统中必须包含2块磁盘,假设sda作为系统盘,那么sdb则作为GlusterFS的存储盘
  • 注意:GlusterFS会将集群的动态配置信息存放到/var/lib/glusterd文件中,需要确保这个文件可以写入,否则集群可能会发生问题,甚至下线,因此,需要确保系统某有足够的空间,不要让磁盘写满。

机器配置

格式化和挂载磁盘

主要目的就是将磁盘格式化为xfs,作为glusterfs的底层存储文件系统.

(2个节点都需要执行): 注意: 这个示例是以/dev/sdb作为数据磁盘。 如果是Debian/Ubuntu系统可能没有mkfs.xfs命令,需要手动执行安装 apt-get install -y xfsprogs

mkfs.xfs -i size=512 /dev/sdb
mkdir -p /grdataecho '/dev/sdb /grdata xfs defaults 1 2' >> /etc/fstab
mount -a && mount

命令执行完成后,你可以看到 /dev/sdb被挂载到了 /grdata 目录下。

root@gfs01:~# df -h
...
/dev/sdb         97M  5.2M   92M   6% /grdata

安装Glusterfs

  • Debian8
#add GPG key
wget -O - http://download.gluster.org/pub/gluster/glusterfs/3.8/LATEST/rsa.pub | apt-key add -
#add source
echo deb http://download.gluster.org/pub/gluster/glusterfs/3.8/LATEST/Debian/jessie/apt jessie main > /etc/apt/sources.list.d/gluster.list
#update package
apt-get update
#install
apt-get install -y glusterfs-server
  • CentOS
 yum install centos-release-gluster38
 yum makechche
 yum install glusterfs-server
  • Ubuntu 14
sudo apt-get install software-properties-commonsudo add-apt-repository ppa:gluster/glusterfs-3.8sudo apt-get updatesudo apt-get install glusterfs-server

启动GlusterFS管理服务

Ubuntu/Debian启动
service glusterfs-server start
service glusterfs-server status
Centos启动
service glusterd start
service glusterd status
    glusterd.service - LSB: glusterfs server
           Loaded: loaded (/etc/rc.d/init.d/glusterd)
       Active: active (running) since Mon, 13 Aug 2012 13:02:11 -0700; 2s ago
      Process: 19254 ExecStart=/etc/rc.d/init.d/glusterd start (code=exited, status=0/SUCCESS)
       CGroup: name=systemd:/system/glusterd.service
           ├ 19260 /usr/sbin/glusterd -p /run/glusterd.pid
           ├ 19304 /usr/sbin/glusterfsd --xlator-option georep-server.listen-port=24009 -s localhost...
           └ 19309 /usr/sbin/glusterfs -f /var/lib/glusterd/nfs/nfs-server.vol -p /var/lib/glusterd/...

配置信任池(trusted pool)

  • 在gfs01执行
  gluster peer probe gfs02

注意: 当使用主机名时,需要确保两台机器之间都设置了主机名(ip也可以)。

  • 查看状态
# gluster peer status
Number of Peers: 1

Hostname: gfs02
Uuid: c191b17b-ab9d-4b15-a70d-dcc92be067c9
State: Peer in Cluster (Connected)

注意:一旦存储池建立之后,只有池中的信任成员可以添加新的节点,新服务器不能从外部加入到已经存在的池

设置GlusterFS逻辑卷

gfs01和gfs02都需要执行

#这里跳过,已经建立了mkdir -p /grdata/

随便在一台机器上执行

root@gfs01:~# gluster volume create gv0 replica 2 gfs01:/grdata/ gfs02:/grdata/volume create: gv0: success: please start the volume to access data# 使用Replicated的方式,建立一个名为gv0的卷(Volume),存储块(Brick)为2个,分别为gfs01:/grdata和gfs02:/grdata。

启用逻辑卷

root@gfs01:~# gluster volume start gv0
volume start: gv0: success

查看逻辑卷状态,确认状态为 “Started”

root@gfs01:~# gluster volume infoVolume Name: gv0
Type: Replicate
Volume ID: fde79f7d-294b-4eea-ac95-73bba9f24435
Status: Started
Snapshot Count: 0Number of Bricks: 1 x 2 = 2Transport-type: tcp
Bricks:
Brick1: 172.16.0.151:/grdata
Brick2: 172.16.0.150:/grdata
Options Reconfigured:
transport.address-family: inet
performance.readdir-ahead: on
nfs.disable: on

注意:如果存储卷没有启动,需要/var/log/glusterfs 目录查看日志,文件通常是 glusterfs-glusterd.vol.log

相关命令

1.创建信任存储池(如要创建一个包含3个服务器的存储池,则需要从第一个服务器server1中把另外两个服务器加入存储池中)
  # gluster peer probe server2
  Probe successful

  # gluster pool peer server3
  Probe successful
2.查看存储池状态
  # gluster peer status
  Number of Peers: 2

  Hostname: 172.16.0.151
  Uuid: 86bd7b96-1320-4cd5-b3e1-e537d06dd5f7
  State: Peer in Cluster (Connected)

  Hostname: 172.16.0.150
  Uuid: c191b17b-ab9d-4b15-a70d-dcc92be067c9
  State: Peer in Cluster (Connected)
3.从存储池移除服务器
  # gluster peer detach 172.16.0.150
  Detach successful
4.逻辑卷管理
  gluster volume delete/stop/start 逻辑卷名(gv0)
5.逻辑卷中新增存储块(操作存储块后都需要执行gluster volume rebalance gv0 start重建数据)
  gluster volume add-brick/remove-brick gv0 gfs03:/grdata

测试GlusterFS存储卷

在这一步中,我们使用client这台机器来挂载GlusterFS的存储卷进行测试。这台机器需要安装GlusterFS的client端程序,这里我们只使用client机器进行挂载和文件读写测试。

# 安装GlusterFS client程序### CentOS / RHEL ###yum install -y glusterfs-client### Ubuntu / Debian ###apt-get install -y glusterfs-client# 将GlusterFS 存储卷挂载到/mntmount -t glusterfs 172.16.0.151:/gv0 /grdata
df -h172.16.0.151:/gv0   97M  5.4M   92M   6% /grdata# 确认挂载结果mount -t fuse.glusterfs172.16.0.151:/gv0 on /grdata type fuse.glusterfs (rw,relatime,user_id=0,group_id=0,default_permissions,allow_other,max_read=131072)# 重启自动挂载 在/etc/fstab172.16.0.151:/grdata /grdata glusterfs defaults,_netdev 0 0# 将/var/log/messages复制到存储卷,循环执行100次for i in `seq -w 1 100`; do cp -rp /var/log/messages /grdata/copy-test-$i; done

先检查挂载点

ls -lA /mnt | wc -l

可以看到 100个文件,在每个存储节点查看挂载点信息

ls -lA /grdata

因为创建卷gv0的时候使用的是镜像存储(Replicated),所以在gv0上写入的文件应该同时出现在两个服务器的/grdata目录上,你可以看到每台机器都有100个文件,如果集群不是复制模式,每台机器的存储文件应该各50

逻辑卷问题

逻辑卷由一个或多个存储块(Brick)组成,每个存储块对应存储池中的一个目录。 GlusterFS的基本类型有三个,分别是分散存储(Distributed,将不同的文件放在不同的存储块)、镜像存储(Replicated,同一个文件存放在两个以上的存储块,相当于RAID1) 和分片存储(Striped,将一个文件分划分为多个固定长度的数据,分散存放在所有存储块,相当于RAID0)。另外Distributed也可以跟Replicated和Striped组合形成新的类型。

END

到这里关于GlusterFS介绍就到这里了。那么云帮如何配置呢,很简单第一步 dc-ctl set storage --mode custom,接着按照如上的操作将系统中的分布式存储挂载到 /grdata 目录即可。如果有什么问题,可以在群里或论坛里反馈。

原文发布于微信公众号 - 好雨云(goodrain-cloud)

原文发表时间:2017-05-11

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏源码之家

一键安装桌面及VNC

62960
来自专栏Kurt Niu 的博客

[开源]使用C# 对CPU卡基本操作封装

Github 地址:https://github.com/zifeiniu/CPUCardLib

19320
来自专栏西安-晁州

小程序开发知识点总结

我承认,最近比较懒了,博客也很久没更新了,太对不住自己了,做了一段时间小程序开发,总结了一些知识点,直接上菜。

27110
来自专栏雪胖纸的玩蛇日常

python3+django2 开发易语言网络验证(上)

40340
来自专栏北京马哥教育

NFS实现(双httpd + php-fpm + nfs + mysql 搭建discuz论坛)

NFS相关介绍 一、NFS简介 1. NFS(Network File System): NFS是一个文件共享协议, 也是是在类Unix系统中在内核中实现的文件...

38670
来自专栏散尽浮华

ELK实时日志分析平台环境部署--完整记录

在日常运维工作中,对于系统和业务日志的处理尤为重要。今天,在这里分享一下自己部署的ELK(+Redis)-开源实时日志分析平台的记录过程(仅依据本人的实际操作为...

65270
来自专栏openshift持续集成

jenkins邮件插件中的内容参数设置

众所周知,Jenkins默认提供了一个邮件通知,能在构建失败、构建不稳定等状态后发送邮件。但是它本身有很多局限性,比如它的邮件通知无法提供详细的邮件内容、无法定...

1K80
来自专栏王亚昌的专栏

【Zookeeper】Leader选举机制示例

一、 选项设置 提到Leader选举,先需要重点介绍下创建znode时的Flag选项。

11100
来自专栏魏艾斯博客www.vpsss.net

解决 WordPress 插件更新“需要访问您网页服务器权限”的问题

37460
来自专栏容器云生态

Docker1.12尝试

前言:在docker1.12中默认增加了swarm mode 编排功能,并且官方支持更多的插件来进行docker的网路和外接存储插件,不过目前测试swarm m...

494100

扫码关注云+社区

领取腾讯云代金券