Instalação do Kubernetes (Ubuntu 18.4)
Fonte Ubuntu18 Ali
-backup /etc/apt/sources.list
cp /etc/apt/sources.list /etc/apt/sources.list.bak
--Modificar fontes domésticas Substitua /etc/apt/sources.list pelo seguinte
deb http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ bionic-security main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ bionic-security main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ bionic-updates main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ bionic-updates main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ bionic-backports main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ bionic-backports main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ bionic-proposed main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ bionic-proposed main restricted universe multiverse
-Atualizar
sudo apt-get update
Um, instalação docker
1. Atualize o software do sistema
sudo apt-get update
2. Instale as dependências do docker e vim net-tools openssh-server
sudo apt-get install -y vim net-tools openssh-server apt-transport-https ca-certificates curl gnupg-agent software-properties-common
3. Adicionar a chave secreta oficial do docker
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
4. Verifique a impressão digital
sudo apt-key fingerprint 0EBFCD88
5. Adicionar armazém
sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable"
6. Atualize o índice do pacote apt
sudo apt-get update
7. Instale a versão mais recente do docker
sudo apt-get install -y docker-ce docker-ce-cli containerd.io
-Instalar a versão especificada
(1) Liste as versões disponíveis no armazém
apt-cache madison docker-ce
(2) Instale a versão especificada. A segunda coluna da string é o número da versão, substitua VERSION_STRING no seguinte comando
sudo apt-get install docker-ce=<VERSION_STRING> docker-ce-cli=<VERSION_STRING> containerd.io
Dois, instale o kubernetes
1. Crie um arquivo de configuração
sudo touch /etc/apt/sources.list.d/kubernetes.list
2. Adicionar permissão de gravação
sudo chmod 666 /etc/apt/sources.list.d/kubernetes.list
3. Adicione conteúdo ao arquivo acima
deb http://mirrors.ustc.edu.cn/kubernetes/apt kubernetes-xenial main
Ou use
echo "deb https://mirrors.aliyun.com/kubernetes/apt/ kubernetes-xenial main" | sudo tee -a /etc/apt/sources.list.d/kubernetes.list
4. Atualize a fonte do sistema operacional
sudo apt update
Falha de autenticação de assinatura de saídas
no seguinte não foi possível BE Assinaturas verificadas
porque o público na chave não está disponível: NO_PUBKEY
6A030B21BA07F4FB
5. Lembre-se dos últimos 8 dígitos de NO_PUBKEY acima, adicione a chave de autenticação e as chaves são seguidas pelos últimos 8 dígitos de NO_PUBKEY (BA07F4FB)
gpg --keyserver keyserver.ubuntu.com --recv-keys BA07F4FB
6. Digite o comando, OK significa sucesso, preste atenção aos últimos 8 bits de NO_PUBKEY
gpg --export --armor BA07F4FB | sudo apt-key add -
7. Atualize a fonte de download do sistema novamente
sudo apt update
8. Desative o firewall
sudo ufw disable
9. Feche a partição swap
(1) Feche
sudo swapoff -a
(2) Modifique o arquivo de configuração e feche-o permanentemente
sudo sed -i 's/.*swap.*/#&/' /etc/fstab
10. Proibir selinux
(1) Instalar comandos para manipular selinux
sudo apt install -y selinux-utils
(2) Proibir selinux
setenforce 0
(3) Reinicie o sistema operacional (Alibaba Cloud pode precisar reiniciar a instância)
shutdown -r now
(4) Verifique se o selinux foi fechado
sudo getenforce
11. Verifique se a partição swap está fechada
free -m
11. Instale kubenetes
sudo apt-get install -y kubelet=1.18.5-00 kubeadm=1.18.5-00 kubectl=1.18.5-00 kubernetes-cni=0.8.6-00
12. Defina autoinício após a inicialização
sudo systemctl enable kubelet && systemctl start kubelet
13. Reinicie (Alibaba Cloud reinicia a instância)
sudo shutdown -r now
14. Verifique a instalação e tente usar o comando kubectl
kubectl get nodes
Irá avisar A conexão com o servidor localhost: 8080 foi recusada - você especificou o host ou porta correto? (Indicando instalação bem-sucedida)
15. Veja a versão atual do kubernetes
kubectl version
Três, a inicialização do nó mestre
1. Exiba o arquivo de inicialização padrão kubeadm, imprima-o e grave-o no arquivo kubeadm-config.conf.
kubeadm config print init-defaults ClusterConfiguration> kubeadm-config.conf
2. Modifique o arquivo kubeadm-config.conf
advertiseAddress 改为本主节点地址(192.168.x.x)
imageRepository 修改镜像源(registry.aliyuncs.com/google_containers)
kubernetesVersion修改为对应版本
添加子网网络
networking:
dnsDomain: cluster.local
podSubnet: 10.244.0.0/16
serviceSubnet: 10.96.0.0/12
scheduler: {
}
Aqui, 10.244.0.0/16 e 10.96.0.0/12 são as redes de sub-rede de pods e serviços em k8s, respectivamente. É melhor usar esse endereço, e a rede de flanela subsequente precisa ser usada.
3. Verifique quais arquivos de imagem precisam ser puxados
kubeadm config images list --config kubeadm-config.conf
4. Puxe a imagem
kubeadm config images pull --config ./kubeadm-config.conf
Aqui você pode puxar o espelho doméstico e renomeá-lo
5. Inicializar e começar
sudo kubeadm init --config ./kubeadm-config.conf
6. Salve o conteúdo de saída, grave-o no arquivo e use-o para ingressar no nó do nó
Your Kubernetes master has initialized successfully!
To start using your cluster, you need to run the
following as a regular user:
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of
the options listed at:
https://kubernetes.io/docs/concepts/clusteradministration/addons/
You can now join any number of machines by running
the following on each node
as root:
kubeadm join 192.168.x.x:6443 --token
xxxxxx.xxxxxxxxxxxxxx --discovery-token-ca-certhash
sha256:xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
7. Copie o arquivo admin.conf e altere o proprietário
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
8. Verificação
kubectl get nodes
Neste momento, NotReady
9, baixe flanela
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
Não é possível baixar e copiar diretamente
---
apiVersion: policy/v1beta1
kind: PodSecurityPolicy
metadata:
name: psp.flannel.unprivileged
annotations:
seccomp.security.alpha.kubernetes.io/allowedProfileNames: docker/default
seccomp.security.alpha.kubernetes.io/defaultProfileName: docker/default
apparmor.security.beta.kubernetes.io/allowedProfileNames: runtime/default
apparmor.security.beta.kubernetes.io/defaultProfileName: runtime/default
spec:
privileged: false
volumes:
- configMap
- secret
- emptyDir
- hostPath
allowedHostPaths:
- pathPrefix: "/etc/cni/net.d"
- pathPrefix: "/etc/kube-flannel"
- pathPrefix: "/run/flannel"
readOnlyRootFilesystem: false
# Users and groups
runAsUser:
rule: RunAsAny
supplementalGroups:
rule: RunAsAny
fsGroup:
rule: RunAsAny
# Privilege Escalation
allowPrivilegeEscalation: false
defaultAllowPrivilegeEscalation: false
# Capabilities
allowedCapabilities: ['NET_ADMIN', 'NET_RAW']
defaultAddCapabilities: []
requiredDropCapabilities: []
# Host namespaces
hostPID: false
hostIPC: false
hostNetwork: true
hostPorts:
- min: 0
max: 65535
# SELinux
seLinux:
# SELinux is unused in CaaSP
rule: 'RunAsAny'
---
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
name: flannel
rules:
- apiGroups: ['extensions']
resources: ['podsecuritypolicies']
verbs: ['use']
resourceNames: ['psp.flannel.unprivileged']
- apiGroups:
- ""
resources:
- pods
verbs:
- get
- apiGroups:
- ""
resources:
- nodes
verbs:
- list
- watch
- apiGroups:
- ""
resources:
- nodes/status
verbs:
- patch
---
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
name: flannel
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: flannel
subjects:
- kind: ServiceAccount
name: flannel
namespace: kube-system
---
apiVersion: v1
kind: ServiceAccount
metadata:
name: flannel
namespace: kube-system
---
kind: ConfigMap
apiVersion: v1
metadata:
name: kube-flannel-cfg
namespace: kube-system
labels:
tier: node
app: flannel
data:
cni-conf.json: |
{
"name": "cbr0",
"cniVersion": "0.3.1",
"plugins": [
{
"type": "flannel",
"delegate": {
"hairpinMode": true,
"isDefaultGateway": true
}
},
{
"type": "portmap",
"capabilities": {
"portMappings": true
}
}
]
}
net-conf.json: |
{
"Network": "10.244.0.0/16",
"Backend": {
"Type": "vxlan"
}
}
---
apiVersion: apps/v1
kind: DaemonSet
metadata:
name: kube-flannel-ds
namespace: kube-system
labels:
tier: node
app: flannel
spec:
selector:
matchLabels:
app: flannel
template:
metadata:
labels:
tier: node
app: flannel
spec:
affinity:
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
nodeSelectorTerms:
- matchExpressions:
- key: kubernetes.io/os
operator: In
values:
- linux
hostNetwork: true
priorityClassName: system-node-critical
tolerations:
- operator: Exists
effect: NoSchedule
serviceAccountName: flannel
initContainers:
- name: install-cni
image: quay.io/coreos/flannel:v0.13.0-rc2
command:
- cp
args:
- -f
- /etc/kube-flannel/cni-conf.json
- /etc/cni/net.d/10-flannel.conflist
volumeMounts:
- name: cni
mountPath: /etc/cni/net.d
- name: flannel-cfg
mountPath: /etc/kube-flannel/
containers:
- name: kube-flannel
image: quay.io/coreos/flannel:v0.13.0-rc2
command:
- /opt/bin/flanneld
args:
- --ip-masq
- --kube-subnet-mgr
resources:
requests:
cpu: "100m"
memory: "50Mi"
limits:
cpu: "100m"
memory: "50Mi"
securityContext:
privileged: false
capabilities:
add: ["NET_ADMIN", "NET_RAW"]
env:
- name: POD_NAME
valueFrom:
fieldRef:
fieldPath: metadata.name
- name: POD_NAMESPACE
valueFrom:
fieldRef:
fieldPath: metadata.namespace
volumeMounts:
- name: run
mountPath: /run/flannel
- name: flannel-cfg
mountPath: /etc/kube-flannel/
volumes:
- name: run
hostPath:
path: /run/flannel
- name: cni
hostPath:
path: /etc/cni/net.d
- name: flannel-cfg
configMap:
name: kube-flannel-cfg
10. Edite esse arquivo para garantir que a rede de flanela esteja
correta e descubra se o conteúdo da tag net-conf.json está correto.
net-conf.json: |
{
"Network": "10.244.0.0/16",
"Backend": {
"Type": "vxlan"
}
Este "10.244.0.0/16" e o endereço podsubnet em ./kubeadm-config.conf
devem ser consistentes.
11. Aplique o arquivo de configuração de flanela atual
kubectl apply -f kube-flannel.yml
12. Defina a inicialização automática na inicialização e inicie o kubelet
sudo systemctl enable kubelet
sudo systemctl start kubelet
Neste momento, kubectl get nodes novamente exibirá o nó mestre Pronto
Quarto, o nó do nó (inicialização) se junta ao cluster k8s existente
1. Envie o arquivo /etc/kubernetes/admin.conf do nó mestre para o host do nó atual
scp /etc/kubernetes/admin.conf 节点1用户名@192.168.x.x:/home/xxx
2. Crie um ambiente de arquivo de configuração kube (o admin.conf aqui é passado do mestre)
mkdir -p $HOME/.kube
sudo cp -i $HOME/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
3. Junte-se ao cluster
Aqui está o comando kubeadm join, que é a última saída de comando quando o nó mestre foi inicializado.
sudo kubeadm join 192.168.x.x:6443 --token xxxxxxxxxxxxxxx --discovery-token-ca-cert-hash sha256:xxxxxxxxxxxxxxxxxxxxxx
Observe que o hash usado aqui deve ser o código hash gerado após o host mestre kubeadm init ser bem-sucedido.
Por exemplo:
kubeadm join 192.168.64.131:6443 --token xxxxx.xxxxxxxxxx --discovery-token-ca-cert-hash sha256:xxxxxxxxxxxxxxxxxxxxxxxxxxxx
O token é válido por 24 horas. Se o mestre precisar gerar novamente o token e o código hash por mais de 24 horas, ele também pode ser gerado indefinidamente.
- Gerar token
kubeadm token create
Listado como:
[kubeadm] WARNING: starting in 1.8, tokens expire after 24 hours by default (if you require a non-expiring token use --ttl 0)
xxxxxx.xxxxxxxxxxxx
-Gere um código hash (o valor hash geralmente não muda, o gerado é o mesmo de antes)
openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'
Listado como:
0fd95a9bc67a7bf0ef42da968a0d55d92e52898ec37asdfasfdadfa
Ver token
kubeadm token list
Ou use o seguinte comando para gerar e gerar o token
kubeadm token create --print-join-command
4. Se o nome do host for o mesmo, um erro será relatado, modifique o nome do host, arquivo / etc / hostname
5. Você pode encontrar os seguintes erros, exclua /etc/kubernetes/pki/ca.crt e depois junte-se ao master
[ERROR FileAvailable--etc-kubernetes-pki-ca.crt]: /etc/kubernetes/pki/ca.crt already exists
rm /etc/kubernetes/pki/ca.crt
6. O host do nó usa a rede de flanela
(1) para enviar o kube-flannel.yml no nó mestre para o host do nó atual
sudo scp kube-flannel.yml 节点1用户名@节点1ip:/home/xxx
(2) O host do nó permite a rede de flanela
kubectl apply -f kube-flannel.yml
Cinco, remoção manual do pod (pod criado pelo programador de implantação)
(1) Defina o nó onde o pod está localizado para o estado não programável,
conduza o pod no nó do nó (primeiro defina o nó para o estado não programável do cordão e, em seguida, expulse o pod)
kubectl drain <node name>
(2) Exclua o pod no nó (o pod será recriado pela implantação em outros nós neste momento; se nenhum nó estiver disponível, o pod estará no estado Pendente)
kubectl delete pod <pod name>
(3) Excluir nó
kubectl delete node <node name>
- Restaurar o nó para um estado programável
kubectl uncordon <node name>
O pod no estado Pendente será agendado para o nó neste momento
Seis, kubectl cria um programador de implantação e operações básicas de kubectl
1. Crie um arquivo yaml
apiVersion: apps/v1
kind: Deployment
metadata:
name: mydeployment
labels:
app: myapp
spec:
replicas: 1
selector:
matchLabels:
app: app
template:
metadata:
labels:
app: app
spec:
hostNetwork: true
dnsPolicy: ClusterFirstWithHostNet
containers:
- name: app1
image: myapp:v1
imagePullPolicy: IfNotPresent
ports:
- containerPort: 8880
- name: app2
image: myapp:v2
imagePullPolicy: IfNotPresent
ports:
- containerPort: 8881
réplicas: 1 O número de réplicas de pod que devem ser mantidas.
Aqui, hostNetwork: true é usado para fazer o pod usar a rede do nó. No momento, o nó não pode criar uma cópia do pod do valor esperado (conflito de porta).
imagem: a imagem e a versão usada por myapp: v2.
imagePullPolicy: IfNotPresent indica que se o nó onde o pod atual está localizado, use o espelhamento local, se não, obtenha
portas de armazéns remotos :
-containerPort: porta 8880 exposta pelo contêiner, porque hostNetwork: true é usado, esta configuração é a mesma .
2. Use o arquivo yaml para criar o programador de implantação
kubectl apply -f xxxx.yaml --record
3. Visualize o nó do nó
kubectl get node -o wide
4. Veja todos os pods
kubectl get pod -o wide
5. Visualize o pod especificado
kubectl get pod <pod name>
6. Informações de saída de POD no formato JSON
kubectl get pod <pod name> --output json
7. Informações de saída de POD no formato yaml
kubectl get pod <pod name> --output yaml
8. Excluir pod
kubectl delete pod <pod name>
Os pods gerenciados pelo agendador de exclusão serão criados novamente pelo agendador para manter o número desejado de pods
9. Visualize o programador de implantação
kubectl get deploy <deployment name> -o wide
10. Exclua o programador de implantação
kubectl delete deploy <deployment name>
Neste momento, todos os pods gerenciados pelo programador sairão um após o outro
11. Visualize o nó do nó
kubectl get node -o wide
12. Exclua o nó do nó
kubectl delete node <node name>
Sete, atualização contínua de implantação
1. Atualização do aplicativo (modificar imagem do contêiner)
kubectl set image deployment <deployment name> <containers name>=<image name>:<tags>
2. Verifique o status da atualização
kubectl rollout status deployment <deployment name>
3. Veja a versão histórica
kubectl rollout history deployment <deployment name>
4. Reverta para a versão anterior
kubectl rollout undo deployment <deployment name>
5. Reverta para a versão especificada
kubectl rollout undo deployment <deployment name> --to-revision=历史版本号
6. Escala elástica (expansão online)
kubectl scale deployment <deployment name> --replicas=期望副本数量
8. Conecte-se ao Alibaba Cloud Private Warehouse
1. Ver segredo
kubectl get secret [-n 名称空间默认default]
Há apenas um por padrão
root@master:~# kubectl get secret
NAME TYPE DATA AGE
default-token-cx7df kubernetes.io/service-account-token 3 17d
2. Crie um segredo
kubectl create secret docker-registry ali-secret --namespace=default --docker-server=registry.cn-beijing.aliyuncs.com --docker-username=username --docker-password=password --docker-email=dockerEmail
参数说明:
ali-secret:secret名字
--docker-serve:私有仓库地址
--docker-username:私有仓库登录用户名
--docker-password:私有仓库登录密码
--docker-email:登录邮箱(可选)
--namespace:指定命名空间 (可选)
3. Marque mais um
root@master:~# kubectl get secret
NAME TYPE DATA AGE
ali-secret kubernetes.io/dockerconfigjson 1 3m12s
default-token-cx7df kubernetes.io/service-account-token 3 17d
4. Visualize em formato yaml
kubectl get secret ali-secret -n default -o yaml
5. Uso de implantação
apiVersion: apps/v1
kind: Deployment
metadata:
name: mydeployment
labels:
app: myapp
spec:
replicas: 1
selector:
matchLabels:
app: app
template:
metadata:
labels:
app: app
spec:
imagePullSecrets:
- name: ali-secret (使用刚才创建的secret)
hostNetwork: true
dnsPolicy: ClusterFirstWithHostNet
containers:
- name: app1
image: registry.cn-beijing.aliyuncs.com/xxx/xxx:[镜像版本号]
imagePullPolicy: IfNotPresent
ports:
- containerPort: 8880
注意
指定使用的secret
imagePullSecrets:
- name: ali-secret (使用刚才创建的secret)
指定使用镜像的全名称:版本号
image: registry.cn-beijing.aliyuncs.com/xxx/xxx:[镜像版本号]
6. Insira o recipiente
kubectl exec <pod名> -c <容器名> -it /bin/bash
7. Ver detalhes do pod
kubectl describe pod [pod名]