前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >外包技能--Ceph(L版)手动剔除osd与增加osd

外包技能--Ceph(L版)手动剔除osd与增加osd

原创
作者头像
Godev
发布2023-08-02 18:28:05
6420
发布2023-08-02 18:28:05
举报
文章被收录于专栏:GodevGodev

Ceph手动剔除osd与增加osd

代码语言:javascript
复制
[root@server1 ceph-ansible]# ceph --version
ceph version 12.2.13 (584a20eb0237c657dc0567da126be145106aa47e) luminous (stable)
[root@server1 ceph-ansible]# 

进入维护模式

代码语言:javascript
复制
ceph osd set noout
ceph osd set nobackfill
ceph osd set norecover
ceph osd set norebalance

手动停止OSD

代码语言:javascript
复制
#首先收集osd信息
[root@server3 ~]# ceph osd tree
ID CLASS WEIGHT  TYPE NAME        STATUS REWEIGHT PRI-AFF 
-1       0.14575 root default                             
-3       0.04858     host server1                         
 1   hdd 0.02429         osd.1        up  1.00000 1.00000 
 2   hdd 0.02429         osd.2        up  1.00000 1.00000 
-7       0.04858     host server2                         
 4   hdd 0.02429         osd.4        up  1.00000 1.00000 
 5   hdd 0.02429         osd.5        up  1.00000 1.00000 
-5       0.04858     host server3                         
 0   hdd 0.02429         osd.0        up  1.00000 1.00000 
 3   hdd 0.02429         osd.3        up  1.00000 1.00000 
[root@server3 ~]# 
?
?
#查看osd挂载
?
ot@server3 ~]# df -TH
Filesystem              Type      Size  Used Avail Use% Mounted on
/dev/mapper/centos-root xfs        19G  1.5G   17G   9% /
devtmpfs                devtmpfs  969M     0  969M   0% /dev
tmpfs                   tmpfs     982M     0  982M   0% /dev/shm
tmpfs                   tmpfs     982M   11M  972M   2% /run
tmpfs                   tmpfs     982M     0  982M   0% /sys/fs/cgroup
/dev/sda1               xfs       1.1G  149M  915M  14% /boot
tmpfs                   tmpfs     197M     0  197M   0% /run/user/0
/dev/sdb1               xfs       102M  5.6M   96M   6% /var/lib/ceph/osd/ceph-0
/dev/sdc1               xfs       102M  5.6M   96M   6% /var/lib/ceph/osd/ceph-3
[root@server3 ~]# 
?
代码语言:javascript
复制
[root@server1 ceph-ansible]# ceph-disk list
/dev/dm-0 other, xfs, mounted on /
/dev/dm-1 other, swap
/dev/sda :
 /dev/sda1 other, xfs, mounted on /boot
 /dev/sda2 other, LVM2_member
/dev/sdb :
 /dev/sdb1 ceph data, active, cluster ceph, osd.1, block /dev/sdb2, block.db /dev/sdd2
 /dev/sdb2 ceph block, for /dev/sdb1
/dev/sdc :
 /dev/sdc1 ceph data, active, cluster ceph, osd.2, block /dev/sdc2, block.db /dev/sdd3
 /dev/sdc2 ceph block, for /dev/sdc1
/dev/sdd :
 /dev/sdd2 ceph block.db, for /dev/sdb1
 /dev/sdd3 ceph block.db, for /dev/sdc1
/dev/sr0 other, unknown
[root@server1 ceph-ansible]#
代码语言:javascript
复制
systemctl stop ceph-osd@3

手动剔除osd

代码语言:javascript
复制
[root@server3 ~]# systemctl stop ceph-osd@3
[root@server3 ~]# ceph osd out 3
marked out osd.3. 
[root@server3 ~]# ceph osd crush remove osd.3
removed item id 3 name 'osd.3' from crush map
[root@server3 ~]# ceph auth del osd.3
updated
[root@server3 ~]# ceph osd rm osd.3
removed osd.3
[root@server3 ~]# umount /var/lib/ceph/osd/ceph-3
[root@server3 ~]#

解除维护状态

代码语言:javascript
复制
ceph osd unset noout
ceph osd unset nobackfill
ceph osd unset norecover
ceph osd unset norebalance
代码语言:javascript
复制
[root@server3 ~]# ceph osd unset noout
noout is unset
[root@server3 ~]# ceph osd unset nobackfill
nobackfill is unset
[root@server3 ~]# ceph osd unset norecover
norecover is unset
[root@server3 ~]# ceph osd unset norebalance
norebalance is unset
[root@server3 ~]# 
代码语言:javascript
复制
[root@server1 ceph-ansible]# ceph -s
  cluster:
    id:     33852410-b6bd-46bc-a163-88a816221ecc
    health: HEALTH_OK
 
  services:
    mon: 3 daemons, quorum server1,server2,server3
    mgr: server1(active), standbys: server3, server2
    mds: cephfs-1/1/1 up  {0=server1=up:active}, 2 up:standby
    osd: 5 osds: 5 up, 5 in
    rgw: 3 daemons active
 
  data:
    pools:   6 pools, 48 pgs
    objects: 210 objects, 4.63KiB
    usage:   5.04GiB used, 119GiB / 125GiB avail
    pgs:     48 active+clean
 
  io:
    recovery: 57B/s, 7objects/s
 
[root@server1 ceph-ansible]# ceph osd tree
ID CLASS WEIGHT  TYPE NAME        STATUS REWEIGHT PRI-AFF 
-1       0.12146 root default                             
-3       0.04858     host server1                         
 1   hdd 0.02429         osd.1        up  1.00000 1.00000 
 2   hdd 0.02429         osd.2        up  1.00000 1.00000 
-7       0.04858     host server2                         
 4   hdd 0.02429         osd.4        up  1.00000 1.00000 
 5   hdd 0.02429         osd.5        up  1.00000 1.00000 
-5       0.02429     host server3                         
 0   hdd 0.02429         osd.0        up  1.00000 1.00000 
[root@server1 ceph-ansible]# 
?

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Ceph手动剔除osd与增加osd
    • 进入维护模式
      • 手动停止OSD
        • 手动剔除osd
          • 解除维护状态
          相关产品与服务
          对象存储
          对象存储(Cloud Object Storage,COS)是由腾讯云推出的无目录层次结构、无数据格式限制,可容纳海量数据且支持 HTTP/HTTPS 协议访问的分布式存储服务。腾讯云 COS 的存储桶空间无容量上限,无需分区管理,适用于 CDN 数据分发、数据万象处理或大数据计算与分析的数据湖等多种场景。
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
          http://www.vxiaotou.com