http://localnetwork.cn/project-1/doc-398/
ceph–osd–选择要下线的osd节点–out下线,等待ceph 恢复/重新平衡 数据完成后
ceph–osd–选择要下线的osd节点–查看此osd节点已经out-停止
查看下线服务器节点上的osd的状态
ceph osd tree
删除该节点上所有osd
[cephadmin@cephtest003 ~]$ ceph osd crush rm osd.8 removed item id 8 name 'osd.8' from crush map [cephadmin@cephtest003 ~]$ ceph osd crush rm osd.9 removed item id 9 name 'osd.9' from crush map [cephadmin@cephtest003 ~]$ ceph osd crush rm osd.10 removed item id 10 name 'osd.10' from crush map
查看osd 的crush map
ceph osd crush tree
OSD的Crush Map(Crush Placement Algorithm)是Ceph集群中的一种分段数据分布算法,它被用于在Ceph集群中选择并分配数据的位置。Crush Map的核心概念是CRUSH算法,该算法可以将数据分段并在整个集群中进行分布,以达到可扩展性,容错性和性能优化等目标。
Crush Map通过将集群节点(例如OSDs)按照规则(例如机架、主机等)聚合为桶(bucket),并将桶以一定的规则嵌套组合为更大的桶,直到形成树形结构来表示几个层次结构。Crush Map通过使用这种可扩展的嵌套桶结构来解决数据分布和副本复制的问题,并且可以在集群中动态地添加或删除节点。Crush Map是实现Ceph集群数据分布、权重计算、优化等问题的核心算法之一。
删除该节点上所有osd 的crush map
[cephadmin@cephtest003 ~]$ ceph auth list | grep osd.8 installed auth entries: osd.8 [cephadmin@cephtest003 ~]$ ceph auth del osd.8 updated [cephadmin@cephtest003 ~]$ ceph auth del osd.9 updated [cephadmin@cephtest003 ~]$ ceph auth del osd.10 updated
ceph–查看到 已自动开始 恢复/重新平衡 数据,等待完成后
查看osd 的认证信息
ceph auth list
删除该节点上所有osd 的认证
[cephadmin@cephtest003 ~]$ ceph auth list | grep osd.8installed auth entries:osd.8[cephadmin@cephtest003 ~]$ ceph auth del osd.8updated[cephadmin@cephtest003 ~]$ ceph auth del osd.9updated[cephadmin@cephtest003 ~]$ ceph auth del osd.10updated
ceph osd tree中删除此节点的crush map
[cephadmin@cephtest003 ~]$ ceph osd tree ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF -1 26.91316 root default -3 3.26669 host cephtest001 0 hdd 1.08890 osd.0 up 1.00000 1.00000 1 hdd 1.08890 osd.1 up 1.00000 1.00000 2 hdd 1.08890 osd.2 up 1.00000 1.00000 -5 5.45547 host cephtest002 3 hdd 1.09109 osd.3 up 1.00000 1.00000 4 hdd 1.09109 osd.4 up 1.00000 1.00000 5 hdd 1.09109 osd.5 up 1.00000 1.00000 6 hdd 1.09109 osd.6 up 1.00000 1.00000 7 hdd 1.09109 osd.7 up 1.00000 1.00000 -7 0 host cephtest003 -9 18.19099 host cephtest004 14 hdd 3.63820 osd.14 up 1.00000 1.00000 15 hdd 3.63820 osd.15 up 1.00000 1.00000 16 hdd 3.63820 osd.16 up 1.00000 1.00000 17 hdd 3.63820 osd.17 up 1.00000 1.00000 18 hdd 3.63820 osd.18 up 1.00000 1.00000 [cephadmin@cephtest003 ~]$ ceph osd crush rm cephtest003 removed item id -7 name 'cephtest003' from crush map [cephadmin@cephtest003 ~]$ ceph osd tree ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF -1 26.91316 root default -3 3.26669 host cephtest001 0 hdd 1.08890 osd.0 up 1.00000 1.00000 1 hdd 1.08890 osd.1 up 1.00000 1.00000 2 hdd 1.08890 osd.2 up 1.00000 1.00000 -5 5.45547 host cephtest002 3 hdd 1.09109 osd.3 up 1.00000 1.00000 4 hdd 1.09109 osd.4 up 1.00000 1.00000 5 hdd 1.09109 osd.5 up 1.00000 1.00000 6 hdd 1.09109 osd.6 up 1.00000 1.00000 7 hdd 1.09109 osd.7 up 1.00000 1.00000 -9 18.19099 host cephtest004 14 hdd 3.63820 osd.14 up 1.00000 1.00000 15 hdd 3.63820 osd.15 up 1.00000 1.00000 16 hdd 3.63820 osd.16 up 1.00000 1.00000 17 hdd 3.63820 osd.17 up 1.00000 1.00000 18 hdd 3.63820 osd.18 up 1.00000 1.00000 [cephadmin@cephtest003 ~]$
显示当前运行的Ceph集群的状态信息
ceph -s
ceph–CephFS
移除该节点mon
关闭mgr服务即可
PVE集群下线宿主机节点 http://localnetwork.cn/project-1/doc-398/
参考链接:https://blog.csdn.net/nasooo/article/details/117947537
推荐本站淘宝优惠价购买喜欢的宝贝:
本文链接:https://sg.hqyman.cn/post/5273.html 非本站原创文章欢迎转载,原创文章需保留本站地址!
休息一下~~