Ceph 存储一个重要的使用场景就是其块设备,本文将会介绍一下如何挂载 Ceph RBD 到远程服务器上。从安全角度考虑,一般不建议这样做。
Continue readingGrafana 是一套开源的跨平台的可视化工具,可以将采集的数据进行可视化展示,并进行通知,展示方式多样,能够让我们随时掌控系统的运行情况。这里我们介绍如何使用 Grafana 来对 Ceph 集群进行性能和运行状态的监控。
Continue reading利用 NFS-Ganesha 或 ceph-fuse 与 nfsd, 我们可以将 CephFS 通过 NFS 协议对外发布出去,用户可以通过 NFS 客户端挂载 CephFS 文件系统进行访问。
Continue readingCeph 集群运行久了,需要对其进行停机维护。 而停止 Ceph 服务需要按照一定的流程来进行,以避免 Ceph 集群出现性能问题。
Continue readingCeph File System (CephFS) 是与 POSIX 标准兼容的文件系统, 能够提供对 Ceph 存储集群上的文件访问. Jewel 版本(10.2.0) 是第一个包含稳定 CephFS 的 Ceph 版本. CephFS 需要至少一个元数据服务器 (Metadata Server - MDS
) daemon (ceph-mds
) 运行, MDS daemon 管理着与存储在 CephFS 上的文件相关的元数据, 并且协调着对 Ceph 存储系统的访问.
Ceph 提供了 ceph-deploy
工具可以很方便地部署一个 Ceph 集群,为了更好理解和管理 Ceph 集群, 我们也可以手动部署一个 Ceph 集群。
Ceph RBD 块设备存储是十分适合作为虚拟化平台的存储后端的, 这也是其最常用的情景之一. 这篇主要介绍如何将 Ceph RBD 作为 QEMU 等的存储端.
Continue reading从 2015 年的 Jewel
版本开始, Ceph 引入了 RBD 的 Mirror
功能, 其主要目的是对 Ceph 进行异地防灾备份和故障自动恢复.
块设备 (block device) 是一系列的数据块序列。基于数据块的存储接口是最常用的用来存储 硬盘
, CD
, 软盘
, 磁盘
等数据的方式。正因为这种普适性,虚拟块设备成了与大容量数据存储系统交互的非常理想的选择。
在 Ceph 中,我们可以对一个 Pool 的空间大小
和文件数
设置配额大小, 对 RBD
的 image/volume
也可心进行在线调整大小, 十分方便.