中文
注册

部署OSD节点

划分OSD分区

以下操作在3个ceph节点均执行一遍,此处以/dev/nvme0n1和/dev/nvme1n1为例说明,如果有多块NVMe SSD或SATA/SAS接口SSD,只需将脚本中的/dev/nvme0n1和/dev/nvme1n1盘符替换为对应盘符即可。对于非推荐配置,若NVMe盘划分的DB分区和WAL分区空间不足,将会放到HDD中,影响性能。

Ceph 14.2.8采用了BlueStore作为后端存储引擎,没有了Jewel版本的Journal盘分区的划分,而是变成DB分区(元数据分区)和WAL分区。这两个分区分别存储BlueStore后端产生的元数据和日志文件。在集群部署时,每个Ceph节点配置2块2.9TB(或2块7TB)的NVMe盘。一般WAL分区大于10GB就足够使用,Ceph官方文档建议每个DB分区不小于每个数据盘容量的4%,具体可根据NVMe盘容量灵活设置。基于当前NVMe盘,采用如下推荐配置,NVMe盘划分为12个10GB分区、12个25GB分区,分别对应WAL分区、DB分区,剩余NVMe盘额外划分为两个分区,后续Global Cache服务端部署中BDM初始化时使用。

表1 硬盘分区

数据盘大小

DB分区

WAL分区

BDM分区

2*2.9TB

12*25GB

12*10GB

2*2.7TB

2*7TB

12*25GB

12*10GB

2*6.8TB

  1. 创建一个partition.sh脚本。
    1
    vi partition.sh
    
  2. 添加如下内容:
    #!/bin/bash
    
    parted -s /dev/nvme0n1 mklabel gpt
    parted -s /dev/nvme1n1 mklabel gpt
    
    start=4
    # 交叉划分6个10G分区和6个25G分区
    for i in {1..6}
    do
    end=`expr $start + 10240`
    parted /dev/nvme0n1 mkpart primary ${start}MiB ${end}MiB
    parted /dev/nvme1n1 mkpart primary ${start}MiB ${end}MiB
    start=$end
    
    end=`expr $start + 25600`
    parted /dev/nvme0n1 mkpart primary ${start}MiB ${end}MiB
    parted /dev/nvme1n1 mkpart primary ${start}MiB ${end}MiB
    start=$end
    done
    parted /dev/nvme0n1 mkpart primary ${end}MiB 100%
    parted /dev/nvme1n1 mkpart primary ${end}MiB 100%

    此脚本内容只适用于当前硬件配置,其它硬件配置可参考此脚本。

  3. 创建完脚本后执行脚本。
    1
    bash partition.sh
    

部署OSD节点

以下脚本的“/dev/sda-/dev/sdl”12块硬盘均为数据盘,OS安装在“/dev/sdm”上。实际情况中可能会遇到OS硬盘位于数据盘中间的情况,例如系统盘安装到了“/dev/sde”,则不能直接使用以下脚本直接运行,否则部署到“/dev/sde”时会报错。此时需要重新调整脚本,避免脚本中包含数据盘以外的如OS盘、做DB/WAL分区的SSD盘等。

  1. 确认各个节点各硬盘的sd*。
    1
    lsblk
    

    如图代表/dev/sda是系统盘。

    有一些硬盘可能是以前Ceph集群里的数据盘或者曾经安装过操作系统,那么这些硬盘上很可能有未清理的分区,lsblk命令可以看到各个硬盘下是否有分区。假如/dev/sdb硬盘下发现有分区信息,可用如下命令清除:

    1
    ceph-volume lvm zap /dev/sdb --destroy
    

    必须先确定哪些盘做为数据盘使用,当数据盘有未清理的分区时再执行清除命令。

  2. 在ceph1上创建脚本create_osd.sh,将每台服务器上的12块硬盘部署OSD。
    1
    2
    cd /etc/ceph/
    vi /etc/ceph/create_osd.sh
    

    添加以下内容:

     1
     2
     3
     4
     5
     6
     7
     8
     9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    #!/bin/bash
    
    for node in ceph1 ceph2 ceph3
    do
    j=1
    k=2
    for i in {a..f}
    do
    ceph-deploy osd create ${node} --data /dev/sd${i} --block-wal /dev/nvme0n1p${j} --block-db /dev/nvme0n1p${k}
    ((j=${j}+2))
    ((k=${k}+2))
    sleep 3
    done
    
    j=1
    k=2
    for i in {g..l}
    do
    ceph-deploy osd create ${node} --data /dev/sd${i} --block-wal /dev/nvme1n1p${j} --block-db /dev/nvme1n1p${k}
    ((j=${j}+2))
    ((k=${k}+2))
    sleep 3
    done
    
    done
    
    • 此脚本内容只适用于当前硬件配置,其他硬件配置可参考此脚本。
    • ceph-deploy osd create命令中:
      • ${node}是节点的hostname。
      • --data选项后面是作为数据盘的设备。
      • --block-db选项后面是DB分区。
      • --block-wal选项后面是WAL分区。

      DB和WAL通常部署在NVMe SSD上以提高写入性能,如果没有配置NVMe SSD或者直接使用NVMe SSD作为数据盘,则不需要--block-db和--block-wal,只需要--data指定数据盘即可。

  3. 在ceph1上运行脚本。
    1
    bash create_osd.sh
    
  4. 创建成功后,查看是否正常,即36个OSD是否都为up。
    1
    ceph -s
    
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词