tidb安全移除tikv节点

先使用 pd-ctl 从集群中移除节点过程:

/home/tidb/tidb-ansible/resources/bin/pd-ctl -u "http://192.13.8.76:2379" -d store >> 1.log

之后去1.log里面找tikv的信息
{
"store": {
"id": 8,
"address": "192.13.8.96:20160",
"state_name": "Up"
},
"status": {
"capacity": "2.0 TiB",
"available": "1.9 TiB",
"leader_count": 79,
"leader_weight": 1,
"leader_score": 8669,
"leader_size": 8669,
"region_count": 223,
"region_weight": 1,
"region_score": 22780,
"region_size": 22780,
"start_ts": "2018-07-09T20:45:50+08:00",
"last_heartbeat_ts": "2018-07-18T21:03:17.579587867+08:00",
"uptime": "216h17m27.579587867s"
}
},


得到store的id为10

执行移除命令:
/home/tidb/tidb-ansible/resources/bin/pd-ctl -u "http://192.13.8.76:2379" -d store delete 8
返回 Success! 表示成功

使用 Grafana 或者 pd-ctl 检查节点是否下线成功(下线需要一定时间,下线节点的状态变为 Tombstone 就说明下线成功了):

1),./resources/bin/pd-ctl -u "http://192.13.8.43:2379" -d store 10,刚开始为Offline,等下线完成后,查看state_name状态是否为Tombstone

2),去grafana管理界面,看tikv里面store为10的节点的leader和region监控记录为0

有以上2个判断标志,这个tikv就可以stop了

执行命令:

[tidb@st3-goods-pd-1] /data0/tidb-ansible$ 
[tidb@st3-goods-pd-1] /data0/tidb-ansible$ ./resources/bin/pd-ctl -u "http://192.13.8.76:2379" -d store >> 2.log
[tidb@st3-goods-pd-1] /data0/tidb-ansible$

[tidb@st3-goods-pd-1] /data0/tidb-ansible$ more 2.log |grep 192.13.8.96
[tidb@st3-goods-pd-1] /data0/tidb-ansible$

下线成功后,停止 node9 上的服务:

ansible-playbook stop.yml -l 192.13.8.96

编辑 inventory.ini 文件,移除节点信息
[tikv_servers]
#192.13.8.96

[monitored_servers]
#192.13.8.96


然后在grafana管理节点上看不到这个tikv节点。

猜你喜欢

转载自blog.csdn.net/mchdba/article/details/83276415