先使用 pd-ctl 从集群中移除节点过程:
/home/tidb/tidb-ansible/resources/bin/pd-ctl -u "http://192.13.8.76:2379" -d store >> 1.log
之后去1.log里面找tikv的信息
{
"store": {
"id": 8,
"address": "192.13.8.96:20160",
"state_name": "Up"
},
"status": {
"capacity": "2.0 TiB",
"available": "1.9 TiB",
"leader_count": 79,
"leader_weight": 1,
"leader_score": 8669,
"leader_size": 8669,
"region_count": 223,
"region_weight": 1,
"region_score": 22780,
"region_size": 22780,
"start_ts": "2018-07-09T20:45:50+08:00",
"last_heartbeat_ts": "2018-07-18T21:03:17.579587867+08:00",
"uptime": "216h17m27.579587867s"
}
},
得到store的id为10
执行移除命令:
/home/tidb/tidb-ansible/resources/bin/pd-ctl -u "http://192.13.8.76:2379" -d store delete 8
返回 Success! 表示成功
使用 Grafana 或者 pd-ctl 检查节点是否下线成功(下线需要一定时间,下线节点的状态变为 Tombstone 就说明下线成功了):
1),./resources/bin/pd-ctl -u "http://192.13.8.43:2379" -d store 10,刚开始为Offline,等下线完成后,查看state_name状态是否为Tombstone
2),去grafana管理界面,看tikv里面store为10的节点的leader和region监控记录为0
有以上2个判断标志,这个tikv就可以stop了
执行命令: |
---|
[tidb@st3-goods-pd-1] /data0/tidb-ansible$ [tidb@st3-goods-pd-1] /data0/tidb-ansible$ more 2.log |grep 192.13.8.96 |
下线成功后,停止 node9 上的服务:
ansible-playbook stop.yml -l 192.13.8.96
编辑 inventory.ini 文件,移除节点信息
[tikv_servers]
#192.13.8.96
[monitored_servers]
#192.13.8.96
然后在grafana管理节点上看不到这个tikv节点。