使用vmware搭建k8s集群【转】

这是根据腾讯视频李老师的视频整理出来的k8s集群搭建教程,本人已经利用vmware成功搭建,建议大家可以边看视频边看文档去搭建,绝对可以成功,网上的很多文章都太烂了,我是没找到成功的,但这个绝对可以成功。

在这里插入图片描述

视频地址 https://ke.qq.com/course/379938?taid=2934291592236066

官方文档 https://kubernetes.io/docs/home/

kubeadm是官方社区推出的一个用于快速部署kubernetes集群的工具。

这个工具能通过两条指令完成一个kubernetes集群的部署:

# 创建一个 Master 节点
$ kubeadm init

# 将一个 Node 节点加入到当前集群中
$ kubeadm join <Master节点的IP和端口 >


1. 安装要求

在开始之前,部署Kubernetes集群机器需要满足以下几个条件:

    一台或多台机器,操作系统 CentOS7.x-86_x64
    硬件配置:2GB或更多RAM,2个CPU或更多CPU,硬盘30GB或更多
    集群中所有机器之间网络互通
    可以访问外网,需要拉取镜像
    禁止swap分区

2. 学习目标

    在所有节点上安装Docker和kubeadm
    部署Kubernetes Master
    部署容器网络插件
    部署 Kubernetes Node,将节点加入Kubernetes集群中
    部署Dashboard Web页面,可视化查看Kubernetes资源

3. 准备环境

#关闭防火墙:
 systemctl stop firewalld
 systemctl disable firewalld

#关闭selinux:
 sed -i 's/enforcing/disabled/' /etc/selinux/config
 setenforce 0

#关闭swap:
 swapoff -a   #临时关闭
 vi /etc/fstab   #永久关闭,删除swap配置哪一行

#添加主机名与IP对应关系(记得设置主机名):
cat /etc/hosts
192.168.31.63 k8s-master
192.168.31.65 k8s-node1
192.168.31.66 k8s-node2

将桥接的IPv4流量传递到iptables的链:
$ cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
$ sysctl --system

  

4. 所有节点安装Docker/kubeadm/kubelet

Kubernetes默认CRI(容器运行时)为Docker,因此先安装Docker。
4.1 安装Docker

$ wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
$ yum -y install docker-ce-18.06.1.ce-3.el7
$ systemctl enable docker && systemctl start docker
$ docker --version
Docker version 18.06.1-ce, build e68fc7a



4.2 添加阿里云YUM软件源

$ cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF



4.3 安装kubeadm,kubelet和kubectl

由于版本更新频繁,这里指定版本号部署:

$ yum install -y kubelet-1.14.0 kubeadm-1.14.0 kubectl-1.14.0
$ systemctl enable kubelet


5. 部署Kubernetes Master

在192.168.31.63(Master)执行,ip要更换成自己的节点ip。

$ kubeadm init \
  --apiserver-advertise-address=192.168.31.63 \
  --image-repository registry.aliyuncs.com/google_containers \
  --kubernetes-version v1.14.0 \
  --service-cidr=10.1.0.0/16 \
  --pod-network-cidr=10.244.0.0/16



由于默认拉取镜像地址k8s.gcr.io国内无法访问,这里指定阿里云镜像仓库地址。

使用kubectl工具:

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
$ kubectl get nodes


6. 安装Pod网络插件(CNI)

$ kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/a70459be0084506e4ec919aa1c114638878db11b/Documentation/kube-flannel.yml


#使用查看kube-flannel是否为running状态
kubectl get pods -n kube-system


#若不是则尝试重新下载镜像,
docker pull  quay.io/coreos/flannel:v0.11.0-amd64


确保能够访问到quay.io这个registery(quay.io/coreos/flannel:v0.11.0-amd64)

如果下载失败,可以先装git工具再下载试试,然后可以改成这个镜像地址:lizhenliang/flannel:v0.11.0-amd64

如果还是失败,可尝试以下方法
6.1 手动拉取镜像

将quay.io/coreos/flannel:v0.11.0-amd64改为quay-mirror.qiniu.com /coreos/flannel:v0.11.0-amd64,使用命令:

docker pull quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64



拉取完成之后,将quay-mirror.qiniu.com /coreos/flannel:v0.11.0-amd64改为quay.io/coreos/flannel:v0.11.0-amd64,使用命令:

docker tag docker pull quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64 quay.io/coreos/flannel:v0.11.0-amd64



按照3、4的方式,逐一将因拉取镜像失败而状态异常的pod的依赖镜像拉取到本地,之后重新执行

kubectl apply –f https://raw.githubusercontent.com/coreos/flannel/master/documentation/kube-flannel.yml



此时,所有的pod将运行正常另:将quay.io/coreos/flannel:v0.11.0-amd64也可改为registry.aliyuncs.com /coreos/flannel:v0.11.0-amd64
6.2 也可使用以下步骤从国内地址下载:

# cd ~
# git clone https://github.com/lprincewhn/googlecontainers.git
# bash googlecontainers/get_flannel_image.sh

使用以下命令查看是否运行正常

kubectl get pods -n kube-system


7. 加入Kubernetes Node

在192.168.31.65/66(Node)执行。

向集群添加新节点,执行在kubeadm init输出的kubeadm join命令:

$  kubeadm join 192.168.190.77:6443 --token zvj7eq.l5eenxi8ofhk3kxd \
    --discovery-token-ca-cert-hash sha256:49ceaed93cd973f6cd276cb036bd95333f4a70d7a6a588580b399fa3108002c4


8. 测试kubernetes集群

在Kubernetes集群中创建一个pod,验证是否正常运行:

$ kubectl create deployment nginx --image=nginx
$ kubectl expose deployment nginx --port=80 --type=NodePort
$ kubectl get pod,svc



访问地址:http://NodeIP:Port
9. 部署 Dashboard

$ kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v1.10.1/src/deploy/recommended/kubernetes-dashboard.yaml



#cd ~ 目录下下载配置文件
wget https://raw.githubusercontent.com/kubernetes/dashboard/v1.10.1/src/deploy/recommended/kubernetes-dashboard.yaml



#修改里面的配置信息
vi kubernetes-dashboard.yaml


默认镜像国内无法访问,修改镜像地址为: lizhenliang/kubernetes-dashboard-amd64:v1.10.1

默认Dashboard只能集群内部访问,修改Service为NodePort类型,暴露到外部:

kind: Service
apiVersion: v1
metadata:
  labels:
    k8s-app: kubernetes-dashboard
  name: kubernetes-dashboard
  namespace: kube-system
spec:
  type: NodePort
  ports:
    - port: 443
      targetPort: 8443
      nodePort: 30001
  selector:
    k8s-app: kubernetes-dashboard

 

$ kubectl apply -f kubernetes-dashboard.yaml



访问地址:http://NodeIP:30001

创建service account并绑定默认cluster-admin管理员集群角色:

$ kubectl create serviceaccount dashboard-admin -n kube-system
$ kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin
$ kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')


使用输出的token登录Dashboard。

若面板无法输出信息请在master节点执行以下命令

kubectl create clusterrolebinding system:anonymous   --clusterrole=cluster-admin   --user=system:anonymous


转自

(3条消息)使用vmware搭建k8s集群(keubernetes集群)_运维_qq_38904342的博客-CSDN博客 https://blog.csdn.net/qq_38904342/article/details/91358876

猜你喜欢

转载自www.cnblogs.com/paul8339/p/12938221.html