中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
鲲鹏小智

添加OSD

OSD是Ceph集群数据管理服务。添加OSD需满足以下所有条件。

  • 设备必须没有分区。
  • 设备不得具有任何LVM状态。
  • 不得安装设备。
  • 该设备不得包含文件系统。
  • 该设备不得包含Ceph BlueStore OSD。
  • 设备必须大于5GB。
  1. 查看系统可用盘。
    1
    ceph orch device ls --wide --refresh
    

  2. 添加OSD。
    方式1. 自动添加所有满足条件的OSD。
    ceph orch apply osd --all-available-devices
    方式2. 手动方式添加OSD(此处以ceph1节点和NVMe SSD盘为例说明)。
    ceph orch daemon add osd ceph1:/dev/nvme0n1
    for node in {1..3};do for i in {0..7};do ceph orch daemon add osd ceph${node}:/dev/nvme${i}n1;done;done
    方式3. 高级服务规格部署OSD。

    通过.yaml配置文件,启动一个部署OSD的服务,通过此方式部署OSD服务有以下优势。

    • 可以指定设备。
    • 一个盘起多个OSD。
    • 可以通过控制服务来重启等。
    1. 编写osd_spec.yaml文件,在文件中添加如下内容(下面编写两种常用文件),指定可用ssd的方式。
      vi osd_spec.yaml
      添加如下内容(下面编写两种常用文件):
      指定可用ssd的方式
      service_type: osd
      service_id: x18_bluestore
      placement:
        hosts: #根据实际各节点名编写
          - node1
          - node2
          - node3
      osds_per_device: 1 #一个ssd启osd的数量
      #unmanaged: True         
      spec:
        data_devices:
      paths: #按ceph orch device ls 得到的可用盘写
      - /dev/nvme0n3
      - /dev/nvme0n3
      - /dev/nvme0n3
      - /dev/nvme0n3
      通过ssd的model的方式自动筛选可用硬盘,并限定该硬盘启动几个osd。
      service_type: osd
      service_id: osd_nvme_1.5T
      placement:
      #  host_pattern: '*'
        hosts: #根据实际各节点名编写
          - node1
          - node2
          - node3
      osds_per_device: 1 #一个ssd启osd的数量
      #unmanaged: True         
      spec:
        data_devices:
          model: HWE56P431T6M002N #通过ceph-volume inventory 命令获取ssd的Model
          limit: 1 #限定该model的盘只能用一块
    2. 启动OSD服务。
      ceph orch apply -i osd_spec.yaml
  3. 查看集群状态。
    ceph -s

搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词