首页
学习
活动
专区
工具
TVP
发布

Ceph对象存储方案

专栏成员
64
文章
150228
阅读量
86
订阅数
RGW endpoint绑定多域名
参考:https://github.com/ceph/ceph/blob/d038e1da7a6c9b31ba4463b8ebedb9908981a55e/doc/radosgw/s3/commons.rst#bucket-and-host-name
用户1260683
2018-10-25
8.1K0
Luminous版本PG 分布调优
Luminous版本开始新增的balancer模块在PG分布优化方面效果非常明显,操作也非常简便,强烈推荐各位在集群上线之前进行这一操作,能够极大的提升整个集群资源的使用率,同时在减少热点数据访问方面也有一定优化,对集群整体的性能提升有一定帮助。
用户1260683
2018-10-25
2.4K0
由OSD class配置引发的PG异常状态修复
ceph版本12.2.8,一个PG卡在remapped状态,但是集群状态是OK的,为了修复这个remapped状态,才有了下面的操作。
用户1260683
2018-10-25
3.2K0
远程管理openresty的reload
默认情况下,nginx/openresty会启动一个root权限运行的master进程,之后再用指定的普通用户权限启动对应的worker,如果需要对整个openresty进行reload或者重启操作,则必须使用root权限才行,为了解决普通worker的提权问题,openresty提供了一个privileged agent的patch来对这些提权操作进行处理,本文就是利用privileged agent来实现对nginx进程状态的控制,最终来实现远程reload。
用户1260683
2018-10-25
2.6K0
Ceph的磁盘管理tips
换盘的时候一定要验明正身,原生的ceph-disk方式对磁盘分区的信息标记实在是太粗糙,很容易看花眼,比如下面这个例子,虽然通过PARTLABEL可以区分journal或者data分区,但是很难搞清楚Journal和Data分区具体对应哪个OSD
用户1260683
2018-07-31
1.4K0
Luminous下删除和新建OSD的正确姿势
L版本开始极大的降低了对运维操作复杂度,新增了很多命令去确保数据安全,很多新手在删除OSD的时候很容易忽视了集群PGs的状态最终导致数据丢失,因此官方加入以下几个命令
用户1260683
2018-07-31
3.2K0
RGW 服务端加密爬坑记
参考了官方文档,决定采用 Customer-Provided Keys(Amazon SSE-C)方式进行加密
用户1260683
2018-07-31
2.5K0
Ceph亚太峰会RGW议题分享
Ceph亚太峰会RGW部分议题分享 本次Ceph亚太峰会干货最实在的的要数Redhat的《Common Support Issues and How to Troubleshoot Them》这里把RGW部分摘出来,和大家分享一下,本次议题主要是涉及到RGW中Object数量过多导致的OSD异常如何处理。 故障现象描述 Flapping OSD's when RGW buckets have millions of objects ● Possible causes ○ The first issue h
用户1260683
2018-06-11
2.5K1
RGW Bucket Shard设计与优化-上
1 bucket index背景简介 bucket index是整个RGW里面一个非常关键的数据结构,用于存储bucket的索引数据,默认情况下单个bucket的index全部存储在一个shard文件(shard数量为0,主要以OMAP-keys方式存储在leveldb中),随着单个bucket内的Object数量增加,整个shard文件的体积也在不断增长,当shard文件体积过大就会引发各种问题,常见的问题有: 对index pool进行scrub或deep-scrub的时候,如果shard对应的Obj
用户1260683
2018-01-31
5.1K0
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档