前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Ceph编译安装教程

Ceph编译安装教程

作者头像
HappenLee
发布2018-09-05 11:27:35
2.6K0
发布2018-09-05 11:27:35
举报
文章被收录于专栏:HappenLee的技术杂谈

Ceph官方版本目前支持的纠删码很有限,实验室这块希望能够整合我们自主开发的纠删码BRS(Binary Reed–Solomon encoding),所以需要编译Ceph环境。Ceph官方目前推荐的安装方式都是通过Ceph-deploy的工具来安装配置,搭建起来十分简单。目前直接通过Ceph源码进行编译安装的中文教程有太多坑了。笔者亲身通过编译Ceph搭建环境之后,对这个流程进行了一个完整的小结,后续的童鞋可以做一个简单的参考。

1.Ceph简介

Ceph 的初创来自Sage Weil 博士的 PhD 论文,论文 “Ceph: A Scalable, High-Performance Distributed File System”详细的阐述了 Ceph 的设计架构。 简而言之,Ceph 作为一个分布式存储系统设计的目标定位为:

  • 可轻松扩展到数PB级别的容量(Ceph目前的版本可以轻松支持EB级别的存储容量)
  • 能够自动适应多种工作负载的高性能(每秒输入/输出操作[IOPS]和带宽)
  • 高可靠性
  • 提供了对象,块,文件系统一整套存储解决方案,大大降低运维的成本

笔者认为Ceph作为一个优秀的分布式存储系统,未来分布式存储系统提供了设计基础。自Linux内核2.6.34版开始,Ceph.ko已经集成到Linux内核之中,作为分布式文件系统的备选项之一。同时Ceph也是OpenStack中优秀的开源存储解决方案,支持通过Ceph作为块存储或对象存储进行读写访问。

2.编译Ceph的源码

Ceph的源码可以去Github之上clone下来,或者去Ceph官网下载。这里重点提一下Ceph的版本问题,Ceph在Hammer版本之后,采取了新的版本命名规则:

  • x.0.z - 开发版
  • x.1.z - 候选版
  • x.2.z - 稳定、修正版

目前对Ceph进行二次开发的版本基本上是基于稳定TLS版本来做,实验室选取了两个版本进行了开发。10.2.6版本与12.2.1版本,本文基于10.2.6的版本进行编写。(12.2.1版本不在使用autotools作为编译工具,同时添加了Mgr等新的组件,配置文件的编写方式也略有不同。)

由于实验室拟态系统的要求与设定,这里笔者选择了混用64位的Ubuntu 14.04与64位的Centos进行编译安装,二者流程大同小异,不同之处我会重点标记。通过cd 进入Ceph的源码目录,依次执行如下命令

代码语言:javascript
复制
 1.  ./install-deps.sh     //安装对应的Ceph依赖包
 2   ./autogen.sh          //调用autotools脚本,生成configure和makefile文件
 3.  ./configure           //这步是很麻烦的一步,由于第一步并不会完全安装好所有依赖,需要读者见招拆招,按照终端提示安装依赖。
    (注:Centos系列不会存在类似问题,嫌麻烦的可以直接用Centos进行编译安装)   
 4.  make                  //进入漫长的等待,多核可以添加-j{cpu核数} 如make -j4
 5.  make install          //安装Ceph  

PS:编译Ceph时需要超大的内存与硬盘空间,所以建议待安装节点的内存和硬盘空间要足够大,否则会出现:

virtual memory exhausted: Cannot allocate memoryfull disk等问题。

3.配置搭建Ceph的环境,启用Mon节点

编译成功后,也不要高兴得太早了,接下来我们按下面配置架构图来构建Ceph集群。

ceph集群图.png

这部分应该是最让人头疼的部分了。编译安装Ceph和直接通过包管理器安装Ceph的可大有不同。如/etc/ceph/的配置目录就自己新建,默认的/var/log/ceph路径也需要通过mkdir新建,否则Ceph会直接丢弃日志文件。

  • 编辑/etc/ceph/ceph.conf
    • (1) 为集群分配唯一的集群id uuidgen //生成uuid
    • (2) 编辑fsid fsid = {UUID} //填写生成的uuid
      • 例如: fsid = 236e7afe-7c61-41a0-b577-89df547fcef5
    • (3) 把初始监视器写入 Ceph 配置文件 mon initial members = {hostname}[,{hostname}]
      • 例如: mon initial members = slave1
    • (4) 把初始监视器的 IP 地址写入 Ceph 配置文件、并保存。 mon host = {ip-address}[,{ip-address}]
      • 例如: mon host = 192.168.1.4
    • (5) 为此集群创建密钥环、并生成监视器密钥。 ceph-authtool --create-keyring /tmp/ceph.mon.keyring --gen-key -n mon. --cap mon 'allow *'
    • (6) 生成管理员密钥环,生成 client.admin 用户并加入密钥环。 ceph-authtool --create-keyring /etc/ceph/ceph.client.admin.keyring --gen-key -n client.admin --set-uid=0 --cap mon 'allow *' --cap osd 'allow *' --cap mds 'allow'
    • (7) 把 client.admin 密钥加入 ceph.mon.keyring 。 ceph-authtool /tmp/ceph.mon.keyring --import-keyring /etc/ceph/ceph.client.admin.keyring
    • (8) 用规划好的主机名、对应 IP 地址、和 FSID 生成一个监视器图,并保存为 /tmp/monmap 。 monmaptool --create --add {hostname} {ip-address} --fsid {uuid} /tmp/monmap
      • 例如: monmaptool --create --add slave1 192.168.1.4 --fsid 236e7afe-7c61-41a0-b577-89df547fcef5 /tmp/monmap
    • (9) 在监视器主机上分别创建数据目录。 sudo mkdir /var/lib/ceph/mon/{cluster-name}-{hostname}
      • 例如: sudo mkdir /var/lib/ceph/mon/ceph-slave1
    • (10) 用监视器图和密钥环组装守护进程所需的初始数据。 ceph-mon [--cluster {cluster-name}] --mkfs -i {hostname} --monmap /tmp/monmap --keyring /tmp/ceph.mon.keyring
      • 例如: ceph-mon --mkfs -i slave1 --monmap /tmp/monmap --keyring /tmp/ceph.mon.keyring
    • (11) 仔细斟酌 Ceph 配置文件,公共的全局配置包括这些: [global] fsid = {cluster-id} mon initial members = {hostname}[, {hostname}] mon host = {ip-address}[, {ip-address}] auth cluster required = none //这里为了方便搭建测试环境,关闭了ceph的安全认证,建议在实际运行环境之中开启。 auth service required = none auth client required = none
    • (12) 建一个空文件 done ,表示监视器已创建、可以启动了: sudo touch /var/lib/ceph/mon/ceph-slave1/done
      • 启动监视器。 在 Ubuntu 上用 Upstart : sudo ceph-mon --id=slave1 [cluster={cluster-name}] 要使此守护进程开机自启,需要创建两个空文件,像这样: sudo touch /var/lib/ceph/mon/{cluster-name}-{hostname}/upstart 例如: sudo touch /var/lib/ceph/mon/ceph-slave1/upstart 在 Debian/CentOS/RHEL 上用 sysvinit : sudo /etc/init.d/ceph start mon.slave1
    • (13) 验证下 Ceph 已经创建了默认存储池。 ceph osd lspools 可以看到这样的输出: 1 rbd // Ceph会默认搭建一个rbd的存储池 确认下集群在运行。 ceph -s 你应该从输出里看到刚刚启动的监视器在正常运行,并且应该会看到一个健康错误:它表明归置组卡在了 stuck inactive 状态。输出大致如此: cluster a7f64266-0894-4f1e-a635-d0aeaca0e993 health HEALTH_ERR 64 pgs stuck inactive; 64 pgs stuck unclean; no osds monmap e1: 1 mons at {slave1=192.168.1.4:6789/0}, election epoch 1, quorum 0 slave1 osdmap e1: 0 osds: 0 up, 0 in pgmap v2: 64 pgs, 1 pools, 0 bytes data, 0 objects 0 kB used, 0 kB / 0 kB avail 64 creating 目前集群处于ERR状态,由于osd尚未启动,pgs没有分配。接下来我们要开始启动osd,将pgs分配到osd之上,可以让集群恢复健康。

4.编辑CrushMap,启用osd节点

你的初始监视器可以正常运行后就可以添加 osd 了。要想让集群达到 active + clean 状态,必须安装足够多的 osd 来处理pgs,在完成Mon启动之后,集群就有了默认的 CrushMap,但现在此图还是空的,里面没有任何 osd 映射到 Ceph 节点,所以我们要先启动osd节点,之后编辑CrushMap,并将其导入Mon节点。

  • (1) 准备OSD。 ssh {node-name} sudo ceph-disk prepare --cluster {cluster-name} --cluster-uuid {uuid} --fs-type {ext4|xfs|btrfs} {data-path} [{journal-path}]
    • 例如: ssh slave1 sudo ceph-disk prepare --cluster ceph --cluster-uuid 236e7afe-7c61-41a0-b577-89df547fcef5 --fs-type xfs /dev/sbb1
  • (2) 激活 osd,并启动osd设备: sudo ceph-disk activate {data-path} [--activate-key {path}] sudo start osd.{id}
    • 例如: sudo ceph-disk activate /dev/sdb1

接下来依次启动图中的3个osd节点,此次osd节点虽然启动了,但是并没有加入到CrushMap之中进行映射,接下来我们需要导出Mon上的CrushMap,并进行编辑,之后导回到Mon中。

  • (3) 从Mon节点获取 CrushMap的二进制文件: ceph osd getcrushmap -o crushmapbinary
  • (4) 通过CrushMap的二进制文件反编译它,成为文本文件: cephtool -d crushmapbinary -o crushmap.txt
  • (5) 接下来编辑crushmap.txt,主要添加osd device与osd的权重进行配置: 在 CrushMap里声明一个设备,在设备列表后面新建一行,输入 device 、之后是唯一的数字 ID 、之后是相应的 ceph-osd 守护进程例程名字。 device {num} {osd.name}
    • 例如: 添加好我们之前activate的osd设备 device 0 osd.0 device 1 osd.1 device 2 osd.2

    接下来我们要给这些osd设备分配权重 CrushMap主要有 4 个主要类型。 设备 由任意对象存储设备组成,即对应一个 ceph-osd 进程的存储器。 桶类型: 定义了 CRUSH 分级结构里要用的桶类型( types ),桶由逐级汇聚的存储位置(如行、机柜、机箱、主机等等)及其权重组成。 桶例程: 定义了桶类型后,还必须声明主机的桶类型、以及规划的其它故障域。 规则: 由选择桶的方法组成。 目前我们只要大概有个概念,接下来我们只需要简单的将我们的设备添加到CrushMap之中: root default { id -1 # do not change unnecessarily # weight 3.240 alg straw hash 0 # rjenkins1 item slave1 weight 1.00 item slave2 weight 1.00 item slave3 weight 1.00 } host slave1 { id -4 alg straw hash 0 item osd.0 weight 1.00 } host slave2 { id -2 alg straw hash 0 item osd.1 weight 1.00 } host slave3 { id -3 alg straw hash 0 item osd.2 weight 1.00 }

  • (6) 重新编译这个新的CRUSH map crushtool -c crushmap.txt -o crushmap-compiled
  • (7) 将新的CRUSH map 应用到ceph 集群中 ceph osd setcrushmap -i crushmap-compiled
  • (8)再次确认Ceph集群的运行状态。 ceph -s cluster a7f64266-0894-4f1e-a635-d0aeaca0e993 health HEALTH_OK 64 pgs stuck active and clean; 3 osds monmap e1: 1 mons at {node1=192.168.0.1:6789/0}, election epoch 1, quorum 0 node1 osdmap e1: 3 osds: 3 up, 3 in pgmap v2: 64 pgs, 1 pools, 0 bytes data, 0 objects 3465 kB used, 923421 kB / 919956 kB avail 64 active and clean 我们可以确认,Ceph集群已经恢复健康,我们已经成功编译安装了Ceph。
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2017.12.01 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1.Ceph简介
  • 2.编译Ceph的源码
  • 3.配置搭建Ceph的环境,启用Mon节点
  • 4.编辑CrushMap,启用osd节点
相关产品与服务
对象存储
对象存储(Cloud Object Storage,COS)是由腾讯云推出的无目录层次结构、无数据格式限制,可容纳海量数据且支持 HTTP/HTTPS 协议访问的分布式存储服务。腾讯云 COS 的存储桶空间无容量上限,无需分区管理,适用于 CDN 数据分发、数据万象处理或大数据计算与分析的数据湖等多种场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档