存储世界最近发生了很大变化。十年前,Fibre Channel SAN 文件管理器是企业存储的标准。而在目前的环境中,受到基础架构即服务云的影响,数据存储需要更加灵活。
RBD 是 Ceph 的块存储方案,最近需要在一台 Linux 服务器上挂载 Ceph 镜像,做法和 Kubernetes 挂 RBD 很像,但部分操作由于 Kubernetes 在镜像中已经固化了,所以将这次完全自己控制的步骤记录下来,加深对 Ceph 挂载的理解。
请注意,本文档假设 Ceph 和 OpenStack 环境已经可用,在此基础上,配置 OpenStack 使用 Ceph RBD 作为镜像和卷的后端存储。
今天我们来体验下Ceph原生的ISCSI,可能会有人说哪来的原生ISCSI啊,相信细心的童鞋在Ceph L版本发布的时候官网手册里面就出现了一个iscsi的字样。是的,没错,这就是原声版的ISCSI雏形,有好消息就有坏消息,不幸的是,截至到目前为止还不能使用rpm安装,因为红帽没有把rpm释放出来,只能通过git源码或别人分享的rpm包进行安装。
ceph Vol 45 Issue 3 1.Crash in ceph_readdir. Hello, I’ve been investigating the following crash with cephfs: ··· According to the state of the ceph_inoide_info this means that ceph_dir_is_complete_ordered would return true and the second condition should a
2018年11月12日,北京时间16:00,Linux基金会在德国柏林“Ceph Day”上正式宣布成立“Ceph基金会”来支持Ceph开源项目。Ceph基金会接受Linux基金会的管理,它的成立将为Ceph社区的合作和成长提供一个中立的机构。高级会员和一般会员每年缴纳会员费,准会员是教育机构或政府组织,并被邀请免费加入。
本文是在 Ubuntu 16.04 最新版基础上安装 Prometheus 监控系统,Ceph 版本为 Luminous 12.2.8。
Ceph支持两种客户端挂载方式:使用Linux内核支持的mount命令进行的挂载方式。使用用户空间文件系统FUSE(Filesystem in Userspace)进行的网络磁盘挂载方式。
之前用的是 ceph-deploy 部署 ceph 集群,在官网的最新介绍中有如下描述:
最近需要研究Ceph,也部署了一下环境,本文分为1,2,3,4章为概念介绍,第5章为实践环节。
确认硬件和软件要求 在安装Ceph集群之前,您需要确保您的服务器符合Ceph的硬件和软件要求。Ceph支持多种操作系统,包括Linux、FreeBSD和Windows。在Linux系统中,推荐使用CentOS、Red Hat Enterprise Linux(RHEL)和Ubuntu。此外,您还需要确保每个节点至少有2个网卡,并且每个节点上的所有磁盘都是相同的大小。
要学习使用Ceph,首先需要有一个Ceph集群,本文通过ceph-deploy一个自动化部署Ceph的工具部署一个Ceph集群,掌握Ceph集群部署的方法。
Complete Example Using Ceph RBD - Persistent Storage Examples | Installation and Configuration | OpenShift Enterprise 3.1
之前介绍了 RBD 的使用方法,有了 RBD,远程磁盘挂载的问题就解决了,但 RBD 的问题是不能多个主机共享一个磁盘,如果有一份数据很多客户端都要读写该怎么办呢?这时 CephFS 作为文件系统存储解决方案就派上用场了。
上回书讲到了运维小哥的调优方法论(上),对于Ceph运维人员来说最头痛的莫过于两件事:一、Ceph调优;二、Ceph运维。调优是件非常头疼的事情,下面来看看运维小哥是如何调优的。
Ceph 是一个将数据存储在单一分布式计算机集群上的开源软件平台。当你计划构建一个云时,你首先需要决定如何实现你的存储。开源的 Ceph 是红帽原生技术之一,它基于称为 RADOS 的对象存储系统,用一组网关 API 表示块、文件、和对象模式中的数据。由于它自身开源的特性,这种便携存储平台能在公有云和私有云上安装和使用。Ceph 集群的拓扑结构是按照备份和信息分布设计的,这种内在设计能提供数据完整性。它的设计目标就是容错、通过正确配置能运行于商业硬件和一些更高级的系统。
Ceph基础介绍 Ceph是一个可靠地、自动重均衡、自动恢复的分布式存储系统,根据场景划分可以将Ceph分为三大块,分别是对象存储、块设备存储和文件系统服务。在虚拟化领域里,比较常用到的是Ceph的块设备存储,比如在OpenStack项目里,Ceph的块设备存储可以对接OpenStack的cinder后端存储、Glance的镜像存储和虚拟机的数据存储,比较直观的是Ceph集群可以提供一个raw格式的块存储来作为虚拟机实例的硬盘。
Ceph 的监控可视化界面方案很多----grafana、Kraken。但是从Luminous开始,Ceph 提供了原生的Dashboard功能,通过Dashboard可以获取Ceph集群的各种基本状态信息。 mimic版 (nautilus版) dashboard 安装。如果是 (nautilus版) 需要安装 ceph-mgr-dashboard
本来想使用ceph-fuse,结果一直在报mount can't read super block的错误,但是我只给主机安装了ceph-fuse的rpm包,kublet居然在使用内核的挂载方式挂载cephfs,这简直是不能再有的错误,可是如何指定kubelet来使用ceph-fuse来进行cephfs的挂载呢,我google了一大圈,都没人讲这个小问题。 后来实在无奈,直接翻了源码: kubernetes/pkg/volume/cephfs/cephfs.go
上回书讲完了部署,部署完成之后,就开始了无休止的调优,对于Ceph运维人员来说最头痛的莫过于两件事:一、Ceph调优;二、Ceph运维。调优是件非常头疼的事情,下面来看看运维小哥是如何调优的,运维小哥根据网上资料进行了一个调优方法论(调优总结)。
本文作者 / Wenda 关注存储以及周边生态,独立的存储系统生存太艰难,融入生态才体现价值。 1、背 景 我们Ceph作为后端存储时,这里只针对块存储空间的使用进行讨论。 对于块存储空间,Linux用户的使用方法有多种,如:rbd map方式、rbd-nbd map方式、 rbd-fuse方式, 但是对于Windows用户,如何使用呢?--- 答案:通过ISCSI访问。 2、说 明 针对块存储场景,iSCSI gateway的作用: 1) 采用ceph作为后端存储时,通过iSCSI协议为Wi
首先必须了解Ceph里面的MON、OSD、MDS、MGR、RGW各种服务的软硬件需求,知道你规划的Ceph规模是多大,当前分配给对应容器的资源是否合适,不然到了后期你需要做各种硬件资源调整而不得不重启容器的时候,你的服务可用性会可能会大打折扣。总之就是一句话,硬件资源一步到位,不要瞎折腾。别让OOM成为常态!
这个工具我第一次看到是在填坑群里面看到,是由研发-北京-蓝星同学分享的,看到比较有趣,就写一篇相关的记录下用法
yum install -y https://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm
1.harbor harbor主要是用来存储容器镜像的开源项目,也就是所谓的容器镜像仓库,跟OpenStack的glance功能类似,不同的是后者存放的是虚拟机镜像。 harbor除了可以存储容器镜像,还可以存储chart,chart是容器环境下的应用打包格式,类似于centos下的rpm包,ubuntu下的debian包。 下图是harbor的架构图 这两种资源都需要放在存储介质上,镜像和chart可以分开用不同的存储,也可以使用相同的存储后端,这里主要讨论一下镜像的存储。 从上图可以看到ha
创建账号 进入ceph-tools pod kubectl -n rook-ceph exec -it rook-ceph-tools-6ccb958485-j7pvb bash 查看可用的对象存储 [root@rook-ceph-tools-6ccb958485-j7pvb /]# radosgw-admin realm list { "default_info": "11f77019-6723-4932-9bd4-d253077d8bca", "realms": [
在 ceph 的使用上, 互联网大规模的文件场景下, fs 并不能满足生产的使用要求, rados 本地化操作也不便于服务的接入与使用, 这里我们就要采用 Ceph Swift Api 来实现文件的存储管理。
1. 查看FS客户端连接 $ ceph daemon mds.0 session ls [ { "id": 5122511, "num_leases": 0, "num_caps": 655, "state": "open", "replay_requests": 0, "completed_requests": 1, "reconnecting": false, "ins
每天感叹一下 Ceph 的复杂,不仅体现在运维上,也体现在部署上。Ceph 提供很多工具来部署,还有官方支持的 ceph-ansible,但实际上,如果本身不熟悉 ceph-ansible,你还得去理解 ansible 是怎么用的,一堆需要配置的变量,如果部署小集群,并不见得比 ceph 官方提供的一些文档方便,这里一定要推荐看 redhat 的文档去部署,为什么呢?因为人家给了命令,还给了命令的 example…在这种复杂软件的部署上,真的是相当良心了。 举个栗子吧,如果要给 Ceph 集群部署几个 rgw 对象存储网关的话,请参考这个 redhat 文档,写的相当详细了。
https://docs.nvidia.com/doca/sdk/erasure-coding-programming-guide/index.html
哈喽大家好呀! 这次给大家带来的Liunx软件分享是鼎鼎大名的Ceph分布式文件系统,笔者了解到Ceph也是遇到了一个问题就是在使用Kubeneters的时候在各个容器中都需要使用同一套文件,但是使用NAS盘的方式不管是更新还是读取都要忍受2分钟之久而且还会出现文件占用失败的问题,笔者找了找现有和Kuberneters结合比较好的文件系统才发现Ceph,那么就开始进行Ceph的搭建和使用吧
部署Ceph之前我们需要对自身机器的环境做初始化。主要涉及到防火墙,主机名等设置。
Ceph是一个可靠地、自动重均衡、自动恢复的分布式存储系统,根据场景划分可以将Ceph分为三大块,分别是对象存储、块设备存储和文件系统服务。在虚拟化领域里,比较常用到的是Ceph的块设备存储,比如在OpenStack项目里,Ceph的块设备存储可以对接OpenStack的cinder后端存储、Glance的镜像存储和虚拟机的数据存储,比较直观的是Ceph集群可以提供一个raw格式的块存储来作为虚拟机实例的硬盘。
前一篇介绍了docker在命令行下面进行的ceph部署,本篇用docker的UI进行ceph的部署,目前来说市面上还没有一款能够比较简单就能直接在OS上面去部署Ceph的管理平台,这是因为OS的环境差异化太大,并且包的版本,以及各种软件的适配都可能造成失败,而docker比较固化环境,因此即使一个通用的UI也能很方便的部署出一个Cpeh集群
旧地址https://cloud.tencent.com/developer/user/6387369
统一作战平台 在军工界,为了降低成本,美军发起F35战斗机研发项目。与传统而昂贵空战的F-22战斗力不同,F35不再是一款简单的战机,而是开启云作战新模式。F-35有三个型号:F35-A适用于空军、F-35B适用于海军陆战队、F-35C适用于海军。因此,F-35战斗机,成为了美军统一云作战平台,那么在存储界,谁是统一的存储平台呢? 为什么需要统一存储平台? 在云计算时代,计算虚拟化、软件定义的存储、软件定义的网络是三大基础支柱。目前在软件定义存储市场,很多厂商均有自己的产品。有的基于文件系统、有的基于块设备
在 Kubernetes 中,PVC 用于向存储系统请求指定大小的存储空间。如果请求的 PVC 大小无法得到强制执行,则无法保证所请求的存储空间大小。由于存储配额在较旧的内核上无法得到强制执行,因此在使用 CephFS 创建卷时,如果使用较旧的内核版本,则可能无法正确地管理和分配存储空间。因此,rook 官方建议使用至少 4.17 版本的内核。
整体构架来看还是比较简单,用户态还是基于librdb和librados,内核态通过实现WNDB.sys驱动,来实现块设备的远程映射。
作者:星辰算力平台 1. 背景 随着大数据、人工智能技术的蓬勃发展,人类对于算力资源的需求也迎来大幅度的增长。在腾讯内部,星辰算力平台以降本增效为目标,整合了公司的GPU训练卡资源,为算法工程师们提供统一的底层GPU算力服务。借助于虚拟化、算力挖掘等技术,平台服务公司内各BG的AI训练场景,GPU利用率业界领先。同时,通过云原生任务化的方式,对接了内部各大业务,促进了AI技术研究效率的提升和创新研究。 当下,由于AI训练时的高性能计算设备(如NVIDIA GPU)成本高昂,如果任务在训练过程中不能保证
本文适用于jewel以上版本(含) 本文用到的软件版本如下 ceph:version 10.2.7 OS: Linux 3.16.0-4-amd64 #1 SMP Debian 3.16.7-ckt11-1+deb8u6 (2015-11-09) x86_64 GNU/Linux 1新建pool 创建数据pool,注意每个pool的pg配置规划,可以参考http://ceph.com/pgcalc/进行设计 ceph osd pool create .rgw.root 16 16 ceph osd pool
原文:https://www.fullstackmemo.com/2018/10/11/cephfs-ha-mount-storage/
几年前,用Proxmox Virtual Environment(一个VMWare Vsphere的开源替代,以后简称PVE)搭建了一个测试云平台,使用了PVE自带的分布式存储Ceph。加上PVE自带的KVM虚拟机和LXC容器,再配置了虚拟交换机Open vSwitch,勉强算是一个所谓的超融合构架。
2、块设备:LIBRBD 对象存储:LIBRGW CEPHFS:libcephfs
生产环境建议多网络模式,测试环境可以多网络,也可以单网络模式,需要注意的是的,测试服务器4个磁盘,一个系统盘。2个osd(vdb,vdc),一个日志盘(vdd)
这些集群范围内的配置参数定义在Ceph的配置文件中,因此任何一个Ceph守护进程启动时都将会遵循已定义的设置。缺省的配置文件是ceph.conf,放在/etc/ceph目录下。这个配置文件有一个global部分和若干个服务类型部分。任何时候一个Ceph服务启动,都会应用[gloabl]部分,以及进程特定部分的配置。一个Ceph配置文件有多个部分,如下图所示。
这几天都在学习搭建Ceph集群,这真是一部心酸的血泪史。下面我就将我的安装过程以及踩过坑,一五一十的陈述出来。
VDO的技术来源于收购的Permabit公司,一个专门从事重删技术的公司,所以技术可靠性是没有问题的
ceph文件系统提供了任何大小的符合posix标准的分布式文件系统,它使用Ceph RADOS存储数据。要实现ceph文件系统,需要一个正在运行的ceph存储集群和至少一个ceph元数据服务器(MDS)来管理其元数据并使其与数据分离,这有助于降低复杂性和提高可靠性。
Cephadm使用容器和systemd安装和管理Ceph集群,并与CLI和仪表板GUI紧密集成。
ceph块设备,以前称为RADOS块设备,为客户机提供可靠性、分布式和高性能的块存储磁盘。RADOS块设备利用librbd库并以顺序的形式在ceph集群的多个osd上存储数据块。RBD是由ceph的RADOS层支持,因此每个块设备都分布在多个ceph节点上,提供了性能和优异的可靠性。RBD有linux内核的本地支持,这意味着RBD驱动程序从过去几年就与linux内核集成的很好。除了可靠性和性能外,RBD还提供了企业特性,例如完整和增量快照、瘦配置、写时复制克隆、动态调整大小等,RBD还支持内存缓存,这大大提高了性能。
领取专属 10元无门槛券
手把手带您无忧上云