创建存储池
Ceph 14.2.1及以后的版本没有默认的存储池,需自行创建存储池,然后再在存储池中创建块设备。本章节主要介绍如何创建存储池。

仅需在主节点ceph1节点上执行。
- 创建存储池,存储池的名字可自行命名,此处以vdbench为例进行说明。
1
ceph osd pool create vdbench 32 32
- 命令中的vdbench是存储池名字。
- 创建存储池命令最后的两个数字,比如ceph osd pool create vdbench 32 32中的两个32分别代表存储池的pg和pgp的数量。
- Ceph官方文档建议整个集群所有存储池的pg数量之和大约为:(OSD数量 * 100)/数据冗余因数。数据冗余因数对副本模式而言是副本数,对EC模式而言是数据块+校验块之和。例如,三副本模式的数据冗余因数是3,EC4+2模式的数据冗余因数是6。
- 举个例子,假设整个集群3台服务器,每台服务器12个OSD,总共36个OSD,三副本模式的数据冗余因数是3,按照上述公式计算应为1200,一般建议pg数取2的整数次幂,可将vdbench存储池的pg数量设置为1024。
- 创建存储池后,需指定池类型(cephFS、rbd、rgw),此处以创建块存储为例进行说明。
1
ceph osd pool application enable vdbench rbd
- 命令中vdbench是存储池名字,rbd是指存储池类型。
- 命令后加上--yes-i-really-mean-it可对存储池类型进行修改。
- 可选:(可选)存储池使能zlib压缩。
1 2 3
ceph osd pool set vdbench compression_algorithm zlib ceph osd pool set vdbench compression_mode force ceph osd pool set vdbench compression_required_ratio .99
- 上述命令执行成功后,查看存储池是否创建成功。
ceph -s
返回信息如下所示代表存储池创建成功。cluster: id: 0207ddea-2150-4509-860d-365e87420b3e health: HEALTH_OK services: mon: 3 daemons, quorum ceph1,ceph2,ceph3 (age 25h) mgr: ceph3(active, since 2d), standbys: ceph2, ceph1 osd: 1 osds: 1 up (since 25h), 1 in (since 9d) data: pools: 1 pools, 32 pgs usage:46MiB used, 2.2 TiB / 2.2 TiB avail pgs: 32 active+clean
父主题: 使能Ceph块存储