k8s高可用集群搭建(三)

参考:蘑菇社区 - 专注于技术分享的社区平台

由于从有道笔记转过来,所以有些代码格式比较乱,需要更详细的可以参考我的有道笔记

文档:k8s高可用集群搭建(尚硅谷学习笔记)....
链接:http://note.youdao.com/noteshare?id=294d02f4133dccf37f6313bc12268134&sub=28BB5A24488F4253A0FD991F8A86BE7A
 

 安装Docker、Kubeadm、kubectl

所有节点安装Docker/kubeadm/kubelet ,Kubernetes默认CRI(容器运行时)为Docker,因此先安装Docker

安装Docker

首先配置一下Docker的阿里yum源

cat >/etc/yum.repos.d/docker.repo<<EOF [docker-ce-edge] name=Docker CE Edge - \$basearch baseurl=https://mirrors.aliyun.com/docker-ce/linux/centos/7/\$basearch/edge enabled=1 gpgcheck=1 gpgkey=https://mirrors.aliyun.com/docker-ce/linux/centos/gpg EOF

然后yum方式安装docker

# yum安装 yum -y install docker-ce # 查看docker版本 docker --version # 启动docker systemctl enable docker systemctl start docker 配置docker的镜像源 cat >> /etc/docker/daemon.json << EOF { "registry-mirrors": ["https://b9pmyelo.mirror.aliyuncs.com"] } EOF

然后重启docker

systemctl restart docker

添加kubernetes软件源

然后我们还需要配置一下yum的k8s软件源

cat > /etc/yum.repos.d/kubernetes.repo << EOF [kubernetes] name=Kubernetes baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64 enabled=1 gpgcheck=0 repo_gpgcheck=0 gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg EOF

安装kubeadm,kubelet和kubectl

由于版本更新频繁,这里指定版本号部署:

# 安装kubelet、kubeadm、kubectl,同时指定版本 yum install -y kubelet-1.18.0 kubeadm-1.18.0 kubectl-1.18.0 # 设置开机启动 systemctl enable kubelet

部署Kubernetes Master【master节点】

创建kubeadm配置文件

在具有vip的master上进行初始化操作,这里为master1

# 创建文件夹 mkdir /usr/local/kubernetes/manifests -p # 到manifests目录 cd /usr/local/kubernetes/manifests/ # 新建yaml文件 vi kubeadm-config.yaml

yaml内容如下所示:

apiServer: certSANs: - master1 - master2 - master.k8s.io - 192.168.44.158 - 192.168.44.155 - 192.168.44.156 - 127.0.0.1 extraArgs: authorization-mode: Node,RBAC timeoutForControlPlane: 4m0s apiVersion: kubeadm.k8s.io/v1beta1 certificatesDir: /etc/kubernetes/pki clusterName: kubernetes controlPlaneEndpoint: "master.k8s.io:16443" controllerManager: {} dns: type: CoreDNS etcd: local: dataDir: /var/lib/etcd imageRepository: registry.aliyuncs.com/google_containers kind: ClusterConfiguration kubernetesVersion: v1.18.0 networking: dnsDomain: cluster.local podSubnet: 10.244.0.0/16 serviceSubnet: 10.1.0.0/16 scheduler: {}

然后我们在 master1 节点执行

kubeadm init --config kubeadm-config.yaml

执行提示中的语句:

mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config

按照提示保存以下内容,一会要使用:

kubeadm join master.k8s.io:16443 --token rhbcl9.rzv0rktd95tsry01 \ --discovery-token-ca-cert-hash sha256:e24060c1bd81641d3c7dedfda94640ac13c1cf1040dc39cb0869e51b96e6d4fb \ --control-plane

--control-plane : 只有在添加master节点的时候才有

查看集群状态

# 查看集群状态 kubectl get cs # 查看pod kubectl get pods -n kube-system

安装集群网络

从官方地址获取到flannel的yaml,在master1上执行,

# 创建文件夹 mkdir flannel cd flannel # 下载yaml文件 wget -c https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml #执行 kubectl apply -f kube-flannel.yml

raw.githubusercontent.com网址拒绝访问解决办法:在host文件中添加映射此域名的ip,ip一直在变化,每次下载前都要查,域名IP在IP网站上查

vim /etc/hosts 185.199.109.133 raw.githubusercontent.com

master2节点加入集群

复制密钥及相关文件

从master1复制密钥及相关文件到master2

# ssh [email protected] mkdir -p /etc/kubernetes/pki/etcd # scp /etc/kubernetes/admin.conf [email protected]:/etc/kubernetes # scp /etc/kubernetes/pki/{ca.*,sa.*,front-proxy-ca.*} [email protected]:/etc/kubernetes/pki # scp /etc/kubernetes/pki/etcd/ca.* [email protected]:/etc/kubernetes/pki/etcd

master2加入集群

执行在master1上init后输出的join命令,需要带上参数--control-plane表示把master控制节点加入集群

kubeadm join master.k8s.io:16443 --token rhbcl9.rzv0rktd95tsry01 \ --discovery-token-ca-cert-hash sha256:e24060c1bd81641d3c7dedfda94640ac13c1cf1040dc39cb0869e51b96e6d4fb \ --control-plane

检查状态

kubectl get node kubectl get pods --all-namespaces

master2执行输出的提示

mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config

加入Kubernetes Node

在node1上执行

向集群添加新节点,执行在kubeadm init输出的kubeadm join命令:

注意需要把node1 的host文件更改的和master2一样

kubeadm join master.k8s.io:16443 --token rhbcl9.rzv0rktd95tsry01 \ --discovery-token-ca-cert-hash sha256:e24060c1bd81641d3c7dedfda94640ac13c1cf1040dc39cb0869e51b96e6d4fb \

集群网络重新安装,因为添加了新的node节点

重新安装flannel,安装见上面步骤

检查状态

kubectl get node kubectl get pods --all-namespaces

如果node长时间未ready,

查看状态:kubectl describe node node1

发现是 Kubelet stopped posting node status

可以尝试重启,node1的kubectl

测试下:

猜你喜欢

转载自blog.csdn.net/weixin_42821448/article/details/125449899