K8S usa kubeadm para implantar e instalar o nó do nó mestre e o programador de implantação (Ubuntu 18.4)

Instalação do Kubernetes (Ubuntu 18.4)

Fonte Ubuntu18 Ali
-backup /etc/apt/sources.list

cp /etc/apt/sources.list /etc/apt/sources.list.bak


--Modificar fontes domésticas Substitua /etc/apt/sources.list pelo seguinte

deb http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse

deb-src http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse

deb http://mirrors.aliyun.com/ubuntu/ bionic-security main restricted universe multiverse

deb-src http://mirrors.aliyun.com/ubuntu/ bionic-security main restricted universe multiverse

deb http://mirrors.aliyun.com/ubuntu/ bionic-updates main restricted universe multiverse

deb-src http://mirrors.aliyun.com/ubuntu/ bionic-updates main restricted universe multiverse

deb http://mirrors.aliyun.com/ubuntu/ bionic-backports main restricted universe multiverse

deb-src http://mirrors.aliyun.com/ubuntu/ bionic-backports main restricted universe multiverse

deb http://mirrors.aliyun.com/ubuntu/ bionic-proposed main restricted universe multiverse

deb-src http://mirrors.aliyun.com/ubuntu/ bionic-proposed main restricted universe multiverse

-Atualizar

sudo apt-get update

Um, instalação docker

1. Atualize o software do sistema

sudo apt-get update

2. Instale as dependências do docker e vim net-tools openssh-server

sudo apt-get install -y vim net-tools openssh-server apt-transport-https ca-certificates curl gnupg-agent software-properties-common

3. Adicionar a chave secreta oficial do docker

sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -

4. Verifique a impressão digital

sudo apt-key fingerprint 0EBFCD88

5. Adicionar armazém

sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"

6. Atualize o índice do pacote apt

sudo apt-get update

7. Instale a versão mais recente do docker

sudo apt-get install -y docker-ce docker-ce-cli containerd.io

-Instalar a versão especificada
(1) Liste as versões disponíveis no armazém

apt-cache madison docker-ce

(2) Instale a versão especificada. A segunda coluna da string é o número da versão, substitua VERSION_STRING no seguinte comando

sudo apt-get install docker-ce=<VERSION_STRING> docker-ce-cli=<VERSION_STRING> containerd.io

Dois, instale o kubernetes

1. Crie um arquivo de configuração

sudo touch /etc/apt/sources.list.d/kubernetes.list

2. Adicionar permissão de gravação

sudo chmod 666 /etc/apt/sources.list.d/kubernetes.list 

3. Adicione conteúdo ao arquivo acima

deb http://mirrors.ustc.edu.cn/kubernetes/apt kubernetes-xenial main

Ou use

echo "deb https://mirrors.aliyun.com/kubernetes/apt/ kubernetes-xenial main" | sudo tee -a /etc/apt/sources.list.d/kubernetes.list

4. Atualize a fonte do sistema operacional

sudo apt update

Falha de autenticação de assinatura de saídas
no seguinte não foi possível BE Assinaturas verificadas
porque o público na chave não está disponível: NO_PUBKEY
6A030B21BA07F4FB

5. Lembre-se dos últimos 8 dígitos de NO_PUBKEY acima, adicione a chave de autenticação e as chaves são seguidas pelos últimos 8 dígitos de NO_PUBKEY (BA07F4FB)

gpg --keyserver keyserver.ubuntu.com --recv-keys BA07F4FB

6. Digite o comando, OK significa sucesso, preste atenção aos últimos 8 bits de NO_PUBKEY

gpg --export --armor BA07F4FB | sudo apt-key add -

7. Atualize a fonte de download do sistema novamente

sudo apt update

8. Desative o firewall

sudo ufw disable

9. Feche a partição swap
(1) Feche

sudo swapoff -a

(2) Modifique o arquivo de configuração e feche-o permanentemente

sudo sed -i 's/.*swap.*/#&/' /etc/fstab

10. Proibir selinux
(1) Instalar comandos para manipular selinux

sudo apt install -y selinux-utils

(2) Proibir selinux

setenforce 0

(3) Reinicie o sistema operacional (Alibaba Cloud pode precisar reiniciar a instância)

shutdown -r now

(4) Verifique se o selinux foi fechado

sudo getenforce

11. Verifique se a partição swap está fechada

free -m

11. Instale kubenetes

sudo apt-get install -y kubelet=1.18.5-00 kubeadm=1.18.5-00 kubectl=1.18.5-00 kubernetes-cni=0.8.6-00

12. Defina autoinício após a inicialização

sudo systemctl enable kubelet && systemctl start kubelet

13. Reinicie (Alibaba Cloud reinicia a instância)

sudo shutdown -r now

14. Verifique a instalação e tente usar o comando kubectl

kubectl get nodes

Irá avisar A conexão com o servidor localhost: 8080 foi recusada - você especificou o host ou porta correto? (Indicando instalação bem-sucedida)

15. Veja a versão atual do kubernetes

kubectl version

Três, a inicialização do nó mestre

1. Exiba o arquivo de inicialização padrão kubeadm, imprima-o e grave-o no arquivo kubeadm-config.conf.

kubeadm config print init-defaults ClusterConfiguration> kubeadm-config.conf

2. Modifique o arquivo kubeadm-config.conf

	advertiseAddress 改为本主节点地址(192.168.x.x)
	imageRepository 修改镜像源(registry.aliyuncs.com/google_containers)
	kubernetesVersion修改为对应版本
	添加子网网络
	networking:
 		dnsDomain: cluster.local
 		podSubnet: 10.244.0.0/16
		serviceSubnet: 10.96.0.0/12
	scheduler: {
    
    }

Aqui, 10.244.0.0/16 e 10.96.0.0/12 são as redes de sub-rede de pods e serviços em k8s, respectivamente. É melhor usar esse endereço, e a rede de flanela subsequente precisa ser usada.

3. Verifique quais arquivos de imagem precisam ser puxados

kubeadm config images list --config kubeadm-config.conf

4. Puxe a imagem

kubeadm config images pull --config ./kubeadm-config.conf

Aqui você pode puxar o espelho doméstico e renomeá-lo
5. Inicializar e começar

sudo kubeadm init --config ./kubeadm-config.conf

6. Salve o conteúdo de saída, grave-o no arquivo e use-o para ingressar no nó do nó

Your Kubernetes master has initialized successfully!
To start using your cluster, you need to run the
following as a regular user:
 mkdir -p $HOME/.kube
 sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
 sudo chown $(id -u):$(id -g) $HOME/.kube/config
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of
the options listed at:
 https://kubernetes.io/docs/concepts/clusteradministration/addons/
You can now join any number of machines by running
the following on each node
as root:
 kubeadm join 192.168.x.x:6443 --token
xxxxxx.xxxxxxxxxxxxxx --discovery-token-ca-certhash
sha256:xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

7. Copie o arquivo admin.conf e altere o proprietário

 mkdir -p $HOME/.kube
 sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
 sudo chown $(id -u):$(id -g) $HOME/.kube/config

8. Verificação

kubectl get nodes

Neste momento, NotReady
9, baixe flanela

wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

Não é possível baixar e copiar diretamente

---
apiVersion: policy/v1beta1
kind: PodSecurityPolicy
metadata:
  name: psp.flannel.unprivileged
  annotations:
    seccomp.security.alpha.kubernetes.io/allowedProfileNames: docker/default
    seccomp.security.alpha.kubernetes.io/defaultProfileName: docker/default
    apparmor.security.beta.kubernetes.io/allowedProfileNames: runtime/default
    apparmor.security.beta.kubernetes.io/defaultProfileName: runtime/default
spec:
  privileged: false
  volumes:
  - configMap
  - secret
  - emptyDir
  - hostPath
  allowedHostPaths:
  - pathPrefix: "/etc/cni/net.d"
  - pathPrefix: "/etc/kube-flannel"
  - pathPrefix: "/run/flannel"
  readOnlyRootFilesystem: false
  # Users and groups
  runAsUser:
    rule: RunAsAny
  supplementalGroups:
    rule: RunAsAny
  fsGroup:
    rule: RunAsAny
  # Privilege Escalation
  allowPrivilegeEscalation: false
  defaultAllowPrivilegeEscalation: false
  # Capabilities
  allowedCapabilities: ['NET_ADMIN', 'NET_RAW']
  defaultAddCapabilities: []
  requiredDropCapabilities: []
  # Host namespaces
  hostPID: false
  hostIPC: false
  hostNetwork: true
  hostPorts:
  - min: 0
    max: 65535
  # SELinux
  seLinux:
    # SELinux is unused in CaaSP
    rule: 'RunAsAny'
---
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
  name: flannel
rules:
- apiGroups: ['extensions']
  resources: ['podsecuritypolicies']
  verbs: ['use']
  resourceNames: ['psp.flannel.unprivileged']
- apiGroups:
  - ""
  resources:
  - pods
  verbs:
  - get
- apiGroups:
  - ""
  resources:
  - nodes
  verbs:
  - list
  - watch
- apiGroups:
  - ""
  resources:
  - nodes/status
  verbs:
  - patch
---
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
  name: flannel
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: flannel
subjects:
- kind: ServiceAccount
  name: flannel
  namespace: kube-system
---
apiVersion: v1
kind: ServiceAccount
metadata:
  name: flannel
  namespace: kube-system
---
kind: ConfigMap
apiVersion: v1
metadata:
  name: kube-flannel-cfg
  namespace: kube-system
  labels:
    tier: node
    app: flannel
data:
  cni-conf.json: |
    {
    
    
      "name": "cbr0",
      "cniVersion": "0.3.1",
      "plugins": [
        {
    
    
          "type": "flannel",
          "delegate": {
    
    
            "hairpinMode": true,
            "isDefaultGateway": true
          }
        },
        {
    
    
          "type": "portmap",
          "capabilities": {
    
    
            "portMappings": true
          }
        }
      ]
    }
  net-conf.json: |
    {
    
    
      "Network": "10.244.0.0/16",
      "Backend": {
    
    
      "Type": "vxlan"
      }
    }
---
apiVersion: apps/v1
kind: DaemonSet
metadata:
  name: kube-flannel-ds
  namespace: kube-system
  labels:
    tier: node
    app: flannel
spec:
  selector:
    matchLabels:
      app: flannel
  template:
    metadata:
      labels:
        tier: node
        app: flannel
    spec:
      affinity:
        nodeAffinity:
          requiredDuringSchedulingIgnoredDuringExecution:
            nodeSelectorTerms:
            - matchExpressions:
              - key: kubernetes.io/os
                operator: In
                values:
                - linux
      hostNetwork: true
      priorityClassName: system-node-critical
      tolerations:
      - operator: Exists
        effect: NoSchedule
      serviceAccountName: flannel
      initContainers:
      - name: install-cni
        image: quay.io/coreos/flannel:v0.13.0-rc2
        command:
        - cp
        args:
        - -f
        - /etc/kube-flannel/cni-conf.json
        - /etc/cni/net.d/10-flannel.conflist
        volumeMounts:
        - name: cni
          mountPath: /etc/cni/net.d
        - name: flannel-cfg
          mountPath: /etc/kube-flannel/
      containers:
      - name: kube-flannel
        image: quay.io/coreos/flannel:v0.13.0-rc2
        command:
        - /opt/bin/flanneld
        args:
        - --ip-masq
        - --kube-subnet-mgr
        resources:
          requests:
            cpu: "100m"
            memory: "50Mi"
          limits:
            cpu: "100m"
            memory: "50Mi"
        securityContext:
          privileged: false
          capabilities:
            add: ["NET_ADMIN", "NET_RAW"]
        env:
        - name: POD_NAME
          valueFrom:
            fieldRef:
              fieldPath: metadata.name
        - name: POD_NAMESPACE
          valueFrom:
            fieldRef:
              fieldPath: metadata.namespace
        volumeMounts:
        - name: run
          mountPath: /run/flannel
        - name: flannel-cfg
          mountPath: /etc/kube-flannel/
      volumes:
      - name: run
        hostPath:
          path: /run/flannel
      - name: cni
        hostPath:
          path: /etc/cni/net.d
      - name: flannel-cfg
        configMap:
          name: kube-flannel-cfg

10. Edite esse arquivo para garantir que a rede de flanela esteja
correta e descubra se o conteúdo da tag net-conf.json está correto.

 net-conf.json: |
 {
    
    
 "Network": "10.244.0.0/16",
 "Backend": {
    
    
 "Type": "vxlan"
 }

Este "10.244.0.0/16" e o endereço podsubnet em ./kubeadm-config.conf
devem ser consistentes.
11. Aplique o arquivo de configuração de flanela atual

kubectl apply -f kube-flannel.yml

12. Defina a inicialização automática na inicialização e inicie o kubelet

sudo systemctl enable kubelet
sudo systemctl start kubelet

Neste momento, kubectl get nodes novamente exibirá o nó mestre Pronto

Quarto, o nó do nó (inicialização) se junta ao cluster k8s existente

1. Envie o arquivo /etc/kubernetes/admin.conf do nó mestre para o host do nó atual

scp /etc/kubernetes/admin.conf 节点1用户名@192.168.x.x:/home/xxx

2. Crie um ambiente de arquivo de configuração kube (o admin.conf aqui é passado do mestre)

mkdir -p $HOME/.kube
sudo cp -i $HOME/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

3. Junte-se ao cluster

Aqui está o comando kubeadm join, que é a última saída de comando quando o nó mestre foi inicializado.

sudo kubeadm join 192.168.x.x:6443 --token xxxxxxxxxxxxxxx --discovery-token-ca-cert-hash  sha256:xxxxxxxxxxxxxxxxxxxxxx

Observe que o hash usado aqui deve ser o código hash gerado após o host mestre kubeadm init ser bem-sucedido.

Por exemplo:

kubeadm join 192.168.64.131:6443 --token xxxxx.xxxxxxxxxx --discovery-token-ca-cert-hash sha256:xxxxxxxxxxxxxxxxxxxxxxxxxxxx

O token é válido por 24 horas. Se o mestre precisar gerar novamente o token e o código hash por mais de 24 horas, ele também pode ser gerado indefinidamente.

- Gerar token

kubeadm token create

Listado como:

	[kubeadm] WARNING: starting in 1.8, tokens expire after 24 hours by default (if you require a non-expiring token use --ttl 0)
xxxxxx.xxxxxxxxxxxx

-Gere um código hash (o valor hash geralmente não muda, o gerado é o mesmo de antes)

openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'

Listado como:

0fd95a9bc67a7bf0ef42da968a0d55d92e52898ec37asdfasfdadfa

Ver token

kubeadm token list

Ou use o seguinte comando para gerar e gerar o token

kubeadm token create --print-join-command

4. Se o nome do host for o mesmo, um erro será relatado, modifique o nome do host, arquivo / etc / hostname

5. Você pode encontrar os seguintes erros, exclua /etc/kubernetes/pki/ca.crt e depois junte-se ao master

[ERROR FileAvailable--etc-kubernetes-pki-ca.crt]: /etc/kubernetes/pki/ca.crt already exists
rm /etc/kubernetes/pki/ca.crt

6. O host do nó usa a rede de flanela
(1) para enviar o kube-flannel.yml no nó mestre para o host do nó atual

sudo scp kube-flannel.yml 节点1用户名@节点1ip:/home/xxx

(2) O host do nó permite a rede de flanela

kubectl apply -f kube-flannel.yml

Cinco, remoção manual do pod (pod criado pelo programador de implantação)

(1) Defina o nó onde o pod está localizado para o estado não programável,
conduza o pod no nó do nó (primeiro defina o nó para o estado não programável do cordão e, em seguida, expulse o pod)

kubectl drain <node name>

(2) Exclua o pod no nó (o pod será recriado pela implantação em outros nós neste momento; se nenhum nó estiver disponível, o pod estará no estado Pendente)

kubectl delete pod <pod name>

(3) Excluir nó

kubectl delete node <node name>

- Restaurar o nó para um estado programável

kubectl uncordon <node name>

O pod no estado Pendente será agendado para o nó neste momento

Seis, kubectl cria um programador de implantação e operações básicas de kubectl

1. Crie um arquivo yaml

apiVersion: apps/v1
kind: Deployment
metadata:
 name: mydeployment
 labels:
  app: myapp
spec:
 replicas: 1
 selector:
  matchLabels:
   app: app
 template:
  metadata:
   labels:
    app: app
  spec:
   hostNetwork: true
   dnsPolicy: ClusterFirstWithHostNet
   containers:
   - name: app1
     image: myapp:v1
     imagePullPolicy: IfNotPresent
     ports:
     - containerPort: 8880
   - name: app2
     image: myapp:v2
     imagePullPolicy: IfNotPresent
     ports:
     - containerPort: 8881

réplicas: 1 O número de réplicas de pod que devem ser mantidas.

Aqui, hostNetwork: true é usado para fazer o pod usar a rede do nó. No momento, o nó não pode criar uma cópia do pod do valor esperado (conflito de porta).

imagem: a imagem e a versão usada por myapp: v2.

imagePullPolicy: IfNotPresent indica que se o nó onde o pod atual está localizado, use o espelhamento local, se não, obtenha
portas de armazéns remotos :
-containerPort: porta 8880 exposta pelo contêiner, porque hostNetwork: true é usado, esta configuração é a mesma .

2. Use o arquivo yaml para criar o programador de implantação

kubectl apply -f xxxx.yaml --record

3. Visualize o nó do nó

kubectl get node -o wide

4. Veja todos os pods

kubectl get pod -o wide

5. Visualize o pod especificado

kubectl  get pod <pod name>

6. Informações de saída de POD no formato JSON

kubectl get pod <pod name> --output json

7. Informações de saída de POD no formato yaml

kubectl get pod <pod name> --output yaml

8. Excluir pod

kubectl delete pod <pod name>

Os pods gerenciados pelo agendador de exclusão serão criados novamente pelo agendador para manter o número desejado de pods

9. Visualize o programador de implantação

kubectl get deploy <deployment name> -o wide

10. Exclua o programador de implantação

kubectl delete deploy <deployment name>

Neste momento, todos os pods gerenciados pelo programador sairão um após o outro

11. Visualize o nó do nó

kubectl get node -o wide

12. Exclua o nó do nó

kubectl delete node <node name>

Sete, atualização contínua de implantação

1. Atualização do aplicativo (modificar imagem do contêiner)

kubectl set image deployment <deployment name> <containers name>=<image name>:<tags>

2. Verifique o status da atualização

kubectl rollout status deployment <deployment name>

3. Veja a versão histórica

kubectl rollout history deployment <deployment name>

4. Reverta para a versão anterior

kubectl rollout undo deployment <deployment name>

5. Reverta para a versão especificada

kubectl rollout undo deployment <deployment name> --to-revision=历史版本号

6. Escala elástica (expansão online)

kubectl scale deployment <deployment name> --replicas=期望副本数量

8. Conecte-se ao Alibaba Cloud Private Warehouse

1. Ver segredo

kubectl get secret [-n 名称空间默认default]

Há apenas um por padrão

root@master:~# kubectl get secret
NAME                  TYPE                                  DATA   AGE
default-token-cx7df   kubernetes.io/service-account-token   3      17d

2. Crie um segredo

kubectl create secret docker-registry ali-secret --namespace=default --docker-server=registry.cn-beijing.aliyuncs.com --docker-username=username --docker-password=password --docker-email=dockerEmail
 参数说明:
 ali-secret:secret名字
 --docker-serve:私有仓库地址
 --docker-username:私有仓库登录用户名
 --docker-password:私有仓库登录密码
 --docker-email:登录邮箱(可选)
 --namespace:指定命名空间 (可选) 

3. Marque mais um

root@master:~# kubectl get secret
NAME                  TYPE                                  DATA   AGE
ali-secret            kubernetes.io/dockerconfigjson        1      3m12s
default-token-cx7df   kubernetes.io/service-account-token   3      17d

4. Visualize em formato yaml

kubectl get secret ali-secret -n default -o yaml

5. Uso de implantação

apiVersion: apps/v1
kind: Deployment
metadata:
 name: mydeployment
 labels:
  app: myapp
spec:
 replicas: 1
 selector:
  matchLabels:
   app: app
 template:
  metadata:
   labels:
    app: app
  spec:
   imagePullSecrets:
   - name: ali-secret (使用刚才创建的secret)
   hostNetwork: true
   dnsPolicy: ClusterFirstWithHostNet
   containers:
   - name: app1
     image: registry.cn-beijing.aliyuncs.com/xxx/xxx:[镜像版本号]
     imagePullPolicy: IfNotPresent
     ports:
     - containerPort: 8880
注意
指定使用的secret
   imagePullSecrets:
   - name: ali-secret (使用刚才创建的secret)
指定使用镜像的全名称:版本号
image: registry.cn-beijing.aliyuncs.com/xxx/xxx:[镜像版本号]

6. Insira o recipiente

kubectl exec <pod名> -c <容器名> -it /bin/bash

7. Ver detalhes do pod

kubectl describe pod [pod名]

Acho que você gosta

Origin blog.csdn.net/weixin_44784018/article/details/107715262
Recomendado
Clasificación