中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助

部署OSD节点

对象存储设备(Object Storage Device,OSD)是Ceph存储集群的核心,由对应的守护进程( OSD daemon)执行实际存储数据的过程。

部署OSD节点如下:

  • 仅需在主节点ceph1节点上执行。
  • 需要参考配置OSD节点相关内容完成OSD节点配置。
  • 使用ceph-deploy操作ceph集群时,需在“/root/ceph-mycluster/”目录下执行。

部署OSD节点

  1. 根据磁盘情况部署OSD节点。磁盘分析情况可以参考配置OSD节点。在需要部署OSD节点的服务端上执行命令,此处以ceph1上的"/dev/sdb"、"/dev/nvme0n1"与"/dev/nvme1n1"为例进行说明。
    1
    2
    3
    cd /root/ceph-mycluster/
    ceph-deploy disk zap ceph1 /dev/sdb
    ceph-deploy osd create ceph1 --data /dev/sdb 
    

    (可选)添加DB与WAL分区以提高写入性能。DB和WAL通常部署在NVMe SSD上以提高写入性能。如需配置,要在添加数据盘"/dev/sdb"的基础上,额外设置--block-wal与--block-db参数。

    1
    2
    3
    4
    5
    cd /root/ceph-mycluster/
    ceph-deploy disk zap ceph1 /dev/sdb
    ceph-deploy disk zap ceph1 /dev/nvme0n1p1
    ceph-deploy disk zap ceph1 /dev/nvme1n1p1
    ceph-deploy osd create ceph1 --data /dev/sdb --block-wal /dev/nvme0n1p1 --block-db /dev/nvme1n1p1
    
  2. 创建成功后,查看是否正常,即OSD是否都为up。
    1
    ceph -s
    
    返回信息如下所示:
    cluster:
    id:     0207ddea-2150-4509-860d-365e87420b3e
    health: HEALTH_OK
    
    services:
    mon: 3 daemons, quorum ceph1,ceph2,ceph3 (age 25h)
    mgr: ceph1(active, since 2d), standbys: ceph2, ceph3
    osd: 1 osds: 1 up(since 2s), 1 in(since 2s)
    • ceph-deploy disk zap用来清除目标磁盘,命令中:
      • ${node}是节点的hostname。
    • ceph-deploy osd create用来生成osd节点,命令中:
      • ${node}是节点的hostname。
      • --data选项后面是作为数据盘的设备。
      • --block-db选项后面是DB分区。
      • --block-wal选项后面是WAL分区。

      DB和WAL通常部署在NVMe SSD上以提高写入性能,如果没有配置NVMe SSD或者直接使用NVMe SSD作为数据盘,则不需要--block-db和--block-wal,只需要--data指定数据盘即可。

    • 关于如何部署多个OSD节点,请参见如何快速部署多个OSD节点