首页
学习
活动
专区
工具
TVP
发布

Ceph对象存储方案

专栏成员
64
文章
150159
阅读量
86
订阅数
如何创建自定义数据pool的RGW实例
本文适用于jewel以上版本(含) 本文用到的软件版本如下 ceph:version 10.2.7 OS: Linux 3.16.0-4-amd64 #1 SMP Debian 3.16.7-ckt11-1+deb8u6 (2015-11-09) x86_64 GNU/Linux 1新建pool 创建数据pool,注意每个pool的pg配置规划,可以参考http://ceph.com/pgcalc/进行设计 ceph osd pool create .rgw.root 16 16 ceph osd pool
用户1260683
2018-01-31
2.9K0
实弹军演-基于Ceph对象存储的实战兵法
1 知己知彼,百战不殆 剖析业务IO模型 了解业务基本存储模型: 最高并发多少,最高读写带宽需求。 并发多少决定了在知道单个RGW最大并发数上限的前提下你需要用多少个RGW的实例去支撑这些并发。 最高读写带宽决定了你要用多少OSD去支撑这么大的读写带宽,同时还要考虑endpoint入口处的带宽是否满足这个需求。 客户端分布在内外还是外网。 客户端主要分布在外网,意味着在公网这种复杂的网络环境下,数据读写会受到一些不可控因素的影响,所以现在做对象存储的公有云都不敢把自己的带宽和延时和并发数告诉你。 客户端分布
用户1260683
2018-01-31
1.6K0
源码走读rgw内置civetweb的参数初始化过程
1. 初始化civetweb时刻的参数传递 src/civetweb/civetweb.h /* Start web server. Parameters: callbacks: mg_callbacks structure with user-defined callbacks. options: NULL terminated list of option_name, option_value pairs that specify Civetwe
用户1260683
2018-01-31
2K1
使用udev增强对ceph储存设备的管理
需求描述 默认情况下磁盘可以使用by-id/by-partlabel/by-parttypeuuid/by-partuuid/by-path/by-uuid等多种形式的名称对磁盘设备进行管理,但是在ceph中,如果磁盘数量过多,加上为了更好的区别每一个OSD对应的磁盘分区用途(比如filestore or journal),同时确保物理磁盘发生变更(故障盘替换后)后对应的名称不变,对OSD对应的磁盘设备命名提出新的管理需求。 本例使用udev的方式,将磁盘按照osd[N]的方式进行命名,比如/dev/osd
用户1260683
2018-01-31
1.4K0
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档