部署OSD节点
对象存储设备(Object Storage Device,OSD)是Ceph存储集群的核心,由对应的守护进程( OSD daemon)执行实际存储数据的过程。
部署OSD节点如下:
- 仅需在主节点ceph1节点上执行。
- 需要参考配置OSD节点相关内容完成OSD节点配置。
- 使用ceph-deploy操作ceph集群时,需在“/root/ceph-mycluster/”目录下执行。
部署OSD节点
- 根据磁盘情况部署OSD节点。磁盘分析情况可以参考配置OSD节点。在需要部署OSD节点的服务端上执行命令,此处以ceph1上的"/dev/sdb"、"/dev/nvme0n1"与"/dev/nvme1n1"为例进行说明。
1 2 3
cd /root/ceph-mycluster/ ceph-deploy disk zap ceph1 /dev/sdb ceph-deploy osd create ceph1 --data /dev/sdb
(可选)添加DB与WAL分区以提高写入性能。DB和WAL通常部署在NVMe SSD上以提高写入性能。如需配置,要在添加数据盘"/dev/sdb"的基础上,额外设置--block-wal与--block-db参数。
1 2 3 4 5
cd /root/ceph-mycluster/ ceph-deploy disk zap ceph1 /dev/sdb ceph-deploy disk zap ceph1 /dev/nvme0n1p1 ceph-deploy disk zap ceph1 /dev/nvme1n1p1 ceph-deploy osd create ceph1 --data /dev/sdb --block-wal /dev/nvme0n1p1 --block-db /dev/nvme1n1p1
- 创建成功后,查看是否正常,即OSD是否都为up。
1
ceph -s
返回信息如下所示:cluster: id: 0207ddea-2150-4509-860d-365e87420b3e health: HEALTH_OK services: mon: 3 daemons, quorum ceph1,ceph2,ceph3 (age 25h) mgr: ceph1(active, since 2d), standbys: ceph2, ceph3 osd: 1 osds: 1 up(since 2s), 1 in(since 2s)
- ceph-deploy disk zap用来清除目标磁盘,命令中:
- ${node}是节点的hostname。
- ceph-deploy osd create用来生成osd节点,命令中:
- ${node}是节点的hostname。
- --data选项后面是作为数据盘的设备。
- --block-db选项后面是DB分区。
- --block-wal选项后面是WAL分区。
DB和WAL通常部署在NVMe SSD上以提高写入性能,如果没有配置NVMe SSD或者直接使用NVMe SSD作为数据盘,则不需要--block-db和--block-wal,只需要--data指定数据盘即可。
- 关于如何部署多个OSD节点,请参见如何快速部署多个OSD节点。
- ceph-deploy disk zap用来清除目标磁盘,命令中:
父主题: 安装Ceph与部署节点