查看ceph配置 查看ceph默认配置: ceph --show-config 查看 type.num 的ceph默认配置: 如需查看osd.1,mon.node1的ceph配置 ceph -n osd....asok config show 该命令要求必须在 osd.1 , mon.node1节点上才能执行 这三种方法显示结果都是一样的,不过第三种方法的显示格式和一二种不同而已。...查看 type.num 的ceph默认配置中的某一个字段: 如查看 osd.1 或 mon.node1的 osd_scrub_max_interval 设置 ceph -n osd.1 --show-config...ceph-mon.node1.asok config get osd_scrub_max_interval 同样这个命令要求必须在 osd.1 , mon.node1节点上才能执行 这三种方法显示结果都是一样的...修改 type.num 的ceph默认配置中的某一个字段: 如修改 osd.1 或 mon.node1的 osd_scrub_max_interval为 5 分钟 cd /var/run/ceph ceph
查看OSD的状态 # 查看集群的osd状态 # 查看指定osd的状态:ceph osd dump 3 [root@node1 ~]# ceph osd dump epoch 242 fsid a1001d7b-e11e...开启OSD #开启后再次接收数据 [root@node1 ~]# ceph osd unpause 16....查看OSD参数 [root@node1 ~]# ceph --admin-daemon /var/run/ceph/ceph-osd.1.asok config show 17....#ceph osd primary-affinity [root@node1 ~]# ceph osd primary-affinity 2 1.0 #...提取crush图 # 提取最新crush图 # ceph osd getcrushmap -o {compiled-crushmap-filename} [root@node1 ~]# ceph osd
28d936b8b4567 root@Kylin:/sys# rados -p test2rbd rmomapkey rbd_directory name_creatrbd-del 删除到回收站 rbd -h 没有trash命令...="10484711424" # 配额用户组配额 # 配置用户组文件数配额 root@Kylin:/tmp/test# setfattr -n group.file.used.1509 -v 0 /...tmp/test root@Kylin:/tmp/test# setfattr -n group.file.total.1509 -v 200 /tmp/test # 配置用户组容量配额 root@...="10484711424" # 目录文件数配额 # 配置目录文件数配额 root@Kylin:/tmp/test# setfattr -n file.quota -v 100 /tmp/test/...Kylin:/tmp/test# # 配置worm高级功能 WORM将在08,09,10(月)01,02,03,04,05,06,07,08,09,10(日)周一,周二00:00:00-11:00
安装软件包 yum -y install ceph-mgr-dashboard 查看模块 ceph mgr module ls |less 启动模块 ceph mgr module enable dashboard..."enabled_modules": [ "dashboard", "iostat", "restful" ] 配置 生成证书 [root@node...-1 ~]# ceph dashboard create-self-signed-cert Self-signed certificate created 配置dashboard [root@node-...1 ~]# ceph config set mgr mgr/dashboard/server_addr 172.16.10.224 [root@node-1 ~]# ceph config set mgr...查看 root@node-1 ~]# ceph mgr services { "dashboard": "https://node-1:8443/" } 启用一个用户,配置用户名密码,授予一个角色
/pool-pg-config-ref/ 所属配置段:【global】 格式:osd pool default pg num = 250 每个存储池最大pg数:mon max pool pg num 同一个...错误重连的初始等待时间:ms initial backoff 错误重连的最大等待时间:ms max backoff 禁用crc校验(在CPU有限的情况下能都提升性能):ms nocrc debug设置(不配置...):ms die on bad msg 等待派遣的最大消息数:ms dispatch throttle bytes 将进程绑定为IPV6的IP:ms bind ipv6 堆栈大小的debug设置(不配置...):ms rwthread stack bytes 等待多少秒关闭空闲连接:ms tcp read timeout debug设置(不配置):ms inject socket failures 4、GENERAL...:fsid 执行管理命令的socket路径(/var/run/ceph/$cluster-$name.asok):admin socket mom,osd,mds写PID的文件(/var/run/$cluster
服务相关: stemctl status ceph*.service ceph*.target #查看所有服务 systemctl stop ceph*.service ceph*.target #关闭所有服务...systemctl start ceph.target #启动服务 systemctl stop ceph-osd*.service # 关闭所有osd服务 systemctl stop ceph-mon...systemctl start ceph-mds@{hostname} 查看 ceph -help #查看命令帮助 ceph -s #查看状态 ceph osd pool set rbd pg_num...1024 # 修改pg_num数量 ceph osd pool set rbd pg_num 1024 # 修改pgp_num数量 ceph osd tree #查看osd树 ceph osd pool...tell # 使用tell命令手动临时修改组件的配置 [例如:集群状态恢复涉及数据回填时,加速回填速度] ceph tell 'osd.*' injectargs '--osd-max-backfills
之前有读者问有没有ceph缓冲池配置教程,刚好之前在这本书上看到过,就转载给大家学习一下。...1)写回模式: 当用户配置了写回模式,所有来自客户端的写入请求都会在抵达前端高速缓冲池后收到ACK确认,之后由高速缓冲池按照一定的策略将数据写入后端低速存储池,完成数据的最终写入。...下面开始配置以ssd-pool作为sata-pool的前端高速缓冲池。 1)新建缓冲池,其中,ssd-pool作为sata-pool的前端高速缓冲池。...ceph osd tier set-overlay sata-pool ssd-pool 缓冲池的参数配置 关于缓冲池的参数配置,遵循以下格式: ceph osd pool set {cachepool...ceph osd pool set ssd-pool hit_set_count 1 ceph osd pool set ssd-pool hit_set_period 3600 ceph osd pool
服务相关: stemctl status ceph*.service ceph*.target #查看所有服务 systemctl stop ceph*.service ceph*.target #关闭所有服务...systemctl start ceph.target #启动服务 systemctl stop ceph-osd*.service # 关闭所有osd服务 systemctl stop ceph-mon...systemctl start ceph-mds@{hostname} 查看: ceph -help #查看命令帮助 ceph -s #查看状态 ceph osd pool set rbd pg_num...tell # 使用tell命令手动临时修改组件的配置 [例如:集群状态恢复涉及数据回填时,加速回填速度] ceph tell 'osd.*' injectargs '--osd-max-backfills...16' #默认为1 ceph tell 'osd.*' injectargs '--osd-recovery-max-active 8' #默认为4 ---- 标题:ceph常用命令 作者:Eric1997
📷 image.png 📷 image.png 📷 image.png 📷 image.png
配置参考 默认创建好集群后,会生成ceph.conf配置文件 ceph-deploy new ceph-admin 配置段落 Ceph 配置文件可用于配置存储集群内的所有守护进程、或者某一类型的所有守护进程...要配置一系列守护进程,这些配置必须位于能收到配置的段落之下,比如: [global] [global] 下的配置影响 Ceph 集群里的所有守护进程。... ceph -c {cluster-name}.conf health ceph -c openstack.conf health 配置参考 [global]#全局设置 fsid = xxxxxx...会设置系统的max open fds mon initial members = node1, node2, node3 #初始monitor (由创建monitor命令而定
只有一个网络,尤其是有新的存储节点加入时,Ceph 集群的性能会因为大量的数据拷贝而变得很糟糕。所以对于性能有一定要求的用户,还是有必要配置内外网分离的。 2....如何配置 Ceph 内外分离网络结构 建立内网是为了降低 OSD 节点间数据复制对 Ceph 整体的影响,那么只要在 OSD 节点上加内网就可以了,上图非常清晰的描述了内网和外网覆盖的范围。 ...2.1 iptables 配置 如果 Linux 服务器上开启了防火墙,就有必要配置 iptables 规则,让服务器的防火墙放开对 OSD 新开放的 端口限制。...配置修改好后,就需要把配置上传到服务器上了,配置 Ceph 环境,通常都是使用 ceph-deploy,现在也可以用这个命令上传配置。...ceph-deploy --overwrite-conf config push [...] 最后,配置需要重启 ceph 相关的进程才能生效。
1.rbd ls 查看ceph默认资源池rbd里面的镜像 2.rbd info xxx.img 查看xxx.img的具体的具体信息 3.rbd rm xxx.img 删除xxx.img 4....aaa.img为bbb.img 5.rbd rename aaa.img bbb.img 重命名aaa.img为bbb.img 6.rbd import aaa.img 将本地的aaa.img导入ceph...集群中 7.rbd export aaa.img 将ceph集群中aaa.img导出到本地 8.rbd import --image-format 2 win2008_32.img rbd/win2008...命令: 查看osd 的目录树: ceph osd tree 查看机器的实时运行状态 :ceph –w 查看ceph的存储空间 :ceph df 查看mon的状态信息 :ceph mon stat 查看...osd运行状态 : ceph osd stat
1、基于Jerasure,默认 📷 image.png 📷 📷 📷 2、基于ISA-L:效率更高 3、基于LRC:效率更高
前言 前一篇介绍了docker在命令行下面进行的ceph部署,本篇用docker的UI进行ceph的部署,目前来说市面上还没有一款能够比较简单就能直接在OS上面去部署Ceph的管理平台,这是因为OS的环境差异化太大...检查endpoint,可以看到就是我刚才命令行当中加入的sock 获取image ?...在上面填写ceph/daemon 然后点击pull 有可能会超时,如果多次失败,就去后台命令行执行,这个地方等同于后台的命令 docker pull ceph/daemon 也可以直接在后台执行这个命令...配置CEPH集群 配置集群可以都在页面做了,因为之前有篇命令行部署docker的ceph,建议先回顾一下,再看这个比较好 创建MON 点击增加容器 ?...基本上一个简单的集群就配置好了,跨主机的情况,就提前把配置文件拷贝到另外一台主机,还有bootstrap keyring也拷贝过去,就可以了,这里就不做过多的赘述 总结 本篇基于portainer以及一个现有的
介绍一些ceph中用到的命令及相关配置 ceph osd df - 可以查看每个osd的用量,每个osd的pg数,权重 ceph osd find - 可以查找到osd的位置,在osd比较多时用到...radosgw-admin bucket limit check - 查看bucket的配置信息,例如索引分片值 ceph daemon osd.1 config show - 显示指定的osd的所有配置情况.../ceph-client.rgw.hostname -s.asok config show - 查看指定的asok的配置 ceph-bluestore-tool bluefs-export --path...系统相关: 命令 查看ib卡属于那个numa node,使用命令: 1、mst start 2、mst status -v perf top -p -查看osd进程在哪些事情花费的时间比较多...这一步将会释放掉所有swap的占用 swapon -a -打开swap,重新将swap打开,此时完全free 在/etc/bashrc中加入export HISTTIMEFORMAT="%F %T " 可对命令的记录加上时间戳
当配置此参数后,使用--yes-i-really-really-mean-it选项,ceph osd池删除命令不会导致池的删除。...命令: ceph osd erasure-code-profile ls #列出现有的配置文件 ceph osd erasure-code-profile rm profile-name #删除现有配置文件...6.3 查看配置 命令:ceph daemon type.id config show #查看所有参数和值 示例:ceph daemon osd.0 config show 命令:ceph daemon...提示:部署新的配置到节点时候,需要在/usr/share/ceph-ansible目录使用ansibe-playbook site.yml命令。...,当运行ceph和rados等命令时使用。通常创建一个名为client.admin超级账户,具有允许它访问所有内容和修改集群配置的功能。
rbd命令把镜像导入ceph中(但是直接导入是不能用的, 因为没有经过 openstack,openstack 是看不到的) 导入镜像 命令:rbd import 路径和镜像名 -p 池 --image
进到Ceph集群的目录 交互模式 直接输入ceph进入交互模式 $ ceph 查看集群状态 ceph> status 检查集群的健康状态 ceph> health 查看monitors的状态 ceph...> mon_status 检查集群状态 ceph status 或 ceph -s 检查OSD状态 ceph osd stat 或 ceph osd dump $ ceph osd stat...sudo systemctl start ceph-osd@{id} 这里的id对应这里的的{0,1,2} 查看任意一个状态 # systemctl status ceph-osd@0 ● ceph-osd...) CGroup: /system.slice/system-ceph\x2dosd.slice/ceph-osd@0.service └─2277 /usr/bin/ceph-osd...-f --cluster ceph --id 0 --setuser ceph --setgroup ceph May 17 09:31:11 ceph-node1 ceph-osd[2277]:
Ceph Swift Api 配置与使用 一、Ceph Swift Api 说明 在 ceph 的使用上, 互联网大规模的文件场景下, fs 并不能满足生产的使用要求, rados 本地化操作也不便于服务的接入与使用...Ceph 存储结构 : 五、Ceph Swift Api 服务端的配置 1、确保集群正常安装并启动: 如果rgw没有显示, 检查服务状态: systemctl list-unit-files...|grep enabled|grep ceph 重启RGW服务: ceph-deploy --overwrite-conf --ceph-conf ceph.conf rgw create CENTOS7...container; /** * 进行Ceph的初始化配置 */ public SwiftOperator() { // 1....Ceph的账户信息配置 AccountConfig config = new AccountConfig(); config.setUsername(username);
/ceph-node1/keyring 10、查看ceph集群中的认证用户及相关的key ceph auth list 11、删除集群中的一个认证用户 ceph auth del osd.0 12、查看集群的详细配置...,pausewr 15、查看一个集群osd.2参数的配置 ceph --admin-daemon /var/run/ceph/ceph-osd.2.asok config show | less 五、PG...rbd, 2、在ceph集群中创建一个pool ceph osd pool create jiayuan 100 #这里的100指的是PG组 3、为一个ceph pool配置配额...set data pgp_num 100 set pool 0 pgp_num to 100 七、rados和rbd指令 1、rados命令使用方法 (1)、查看ceph集群中有多少个pool (只是查看...]# rados -p test ls test-object (6)、删除一个对象 [root@admin-node ~]# rados rm test-object-1 -p test 2、rbd命令的用法
领取专属 10元无门槛券
手把手带您无忧上云