Kubernetes--集群安装
服务器准备
本地用VMware虚拟3台服务器,主机名分别命名node1,node2,master1
查看centos版本
cat /etc/redhat-release
推荐使用7.5及以上版本
这里使用xshell 同时操作3台服务器
工具->发送键输入到所以会话
配置host
查看各服务器ip
ifconfig
修改host 解析域名
vim /etc/hosts
# 内容 根据自己的ip配置
192.168.88.130 master1
192.168.88.128 node1
192.168.88.129 node2
# 保存
wq!
分别ping 一下node1,node2 ,master1 是不是配置成功
ping node1
ping node2
ping master1
时间同步
因为Kubernetes需要我们所以的服务器时间必须保持一致
# 启动chronyd服务
systemctl start chronyd
# 设置开机自启
systemctl enable chronyd
# 查看时间
date
禁用iptables和firewalld
Kubernetes和docker在运行时会产生大量iptables规则,为了不让系统规则和它们混淆,直接关闭系统的规则
# 关闭firewalld服务
systemctl stop firewalld
systemctl disable firewalld
# 关闭iptables
systemctl stop iptables
systemctl disable iptables
禁用selinux
selinux时Linux系统的一个安全服务,在集群的安装过程中可能会遇到各种奇葩问题,所以选择关闭它
vi /etc/selinux/config
SELINUX=disabled
禁用swap分区
Swap分区在系统的物理内存不够用的时候,把硬盘内存中的一部分空间释放出来,以供当前运行的程序使用。那些被释放的空间可能来自一些很长时间没有什么操作的程序,这些被释放的空间被临时保存到Swap分区中,等到那些程序要运行时,再从Swap分区中恢复保存的数据到内存中。但是这样非常影响性能
vim /etc/fstab
# 注释掉 最后一行就行
修改linux内核参数
修改Linux的内核参数,添加网桥过滤和地址转发
vi /etc/sysctl.d/kubernetes.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
wq
重新加载配置
sysctl -p
加载网桥过滤模块
modprobe br_netfilter
查看网桥过滤模块是否加载成功
lsmod | grep br_netfilter
配置ipvs功能
在kubernetes中service有两种代理模型,一种是基于iptables的,一种是基于ipvs的两者比较的话,ipvs的性能明显要高一些,但是如果要使用它,需要手动载入ipvs模块
安装 ipset ipvsadmin
yum install ipset ipvsadmin -y
添加需要加载的模块写入脚本文件
cat <<EOF> /etc/sysconfig/modules/ipvs.modules
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF
为脚本文件添加执行权限
chmod +x /etc/sysconfig/modules/ipvs.modules
执行脚本文件
/bin/bash /etc/sysconfig/modules/ipvs.modules
查看对应的模块是否加载成功
lsmod | grep -e ip_vs -e nf_conntrack_ipv4
重启服务器
reboot
检查之前关闭的各种配置是否生效
getenforce
free -m
Kubernetes安装
docker安装
切换镜像源
wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O/etc/yum.repos.d/docker-ce.repo
查看镜像源中支持的docker版本
yum list docker-ce --showduplicates
安装特定版本docker-ce
必须指定–setopt=obsoletes=0,否则yum会自动安装更高版本
yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y
添加配置文件
Docker在黑默认情况下使用的Cgroup Driver为cgroupfs,而kubernetes推荐使用systemd来代替cgroupfs
mkdir /etc/docker
cat <<EOF > /etc/docker/daemon.json
{
"exec-opts": ["native.cgroupdriver=systemd"],
"registry-mirrors": ["https://kn0t2bca.mirror.aliyuncs.com"]
}
EOF
启动docker
# 启动docker
systemctl start docker
# 开机启动
systemctl enable docker
安装Kubernetes组件
由于Kubernetes的镜像源在国外,速度比较慢,这里切换成国内的镜像源
编辑/etc/yum.repos.d/kubernetes.repo,添加下面的配置
cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
安装kubeadm,kubelet和kubectl
yum install --setopt=obsoletes=0 kubeadm-1.17.4-0 kubelet-1.17.4-0 kubectl-1.17.4-0 -y
配置kubelet的cgroup
# 编辑/etc/sysconfig/kubelet,添加下面的配置
KUBELET_CGROUP_ARGS="--cgroup-driver=systemd"
KUBE_PROXY_MODE="ipvs"
设置kubelet开机自启
systemctl enable kubelet
初始化集群
初始化集群
在master 上操作
# 由于默认拉取镜像地址 k8s.gcr.io 国内无法访问,这里指定阿里云镜像仓库地址
# apiserver-advertise-address 需要写自己的ip
kubeadm init \
--apiserver-advertise-address=192.168.88.130 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version=v1.17.4 \
--pod-network-cidr=10.244.0.0/16 \
--service-cidr=10.96.0.0/12
#使用 kubectl 工具
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
然后我们需要将node 节点加入集群中,在 node 服务器 上执行上述红框的命令加入到master
kubectl get nodes
但是我们这个时候查看集群状态都是为NotReady,这是因为还没有配置网络插件
网络插件安装
kubernetes支持多种网络插件,比如flannel、calico、canal等等,这里选择使用flannel
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
修改 quay.io 为 quay-mirror.qiniu.com 因为国内 quay.io 不好访问到
如果下载不到的报错 连接失败什么的
可以直接用下面的 记得文件名是kube-flannel.yml
apiVersion: policy/v1beta1
kind: PodSecurityPolicy
metadata:
name: psp.flannel.unprivileged
annotations:
seccomp.security.alpha.kubernetes.io/allowedProfileNames: docker/default
seccomp.security.alpha.kubernetes.io/defaultProfileName: docker/default
apparmor.security.beta.kubernetes.io/allowedProfileNames: runtime/default
apparmor.security.beta.kubernetes.io/defaultProfileName: runtime/default
spec:
privileged: false
volumes