【云原生】Kubernetes核心技术(中)

博主昵称:跳楼梯企鹅
博主主页面链接:博主主页传送门

博主专栏页面连接:专栏传送门--网路安全技术
创作初心:本博客的初心为与技术朋友们相互交流,每个人的技术都存在短板,博主也是一样,虚心求教,希望各位技术友给予指导。
博主座右铭:发现光,追随光,成为光,散发光;
博主研究方向:渗透测试、机器学习 ;
博主寄语:感谢各位技术友的支持,您的支持就是我前进的动力 ;

本篇文章分为3次分享完

四、持久化 Volume

1.数据卷 volume

数据卷 是一个可供一个或多个容器使用的特殊目录,实现让容器中的一个目录和宿主机中的一个文件或者目录进行绑定。数据卷 是被设计用来持久化数据的。

2. 分为三类:

(1)bind mount volume

(2)Docker Management Volume

(3)Container Data (基于现有的容器)

3.分别讲解

 (1)bind mount volume

1.创建本地目录
root@123  
mkdir  /webroom
root@123 ~  
echo "123" > /webroom/index.html

2.挂载和运行容器
docker run -v    # 挂载数据卷 Bind mount a volume
root123-z ~  
docker run -v /webroom:/usr/share/nginx/html -d -P nginx
root123-z ~  
docker ps -q

3.查看bind
root@123 /webroom  
docker inspect 553d7e454376|grep "Mounts" -A7
      "Mounts": [
          {
              "Type": "bind",
              "Source": "/webroom",
              "Destination": "/usr/share/nginx/html",
              "Mode": "",
              "RW": true,
              "Propagation": "rprivate"
root@123 /webroom  
docker inspect 553d7e454376|grep IPAddress       
            "SecondaryIPAddresses": null,
            "IPAddress": "ip地址",
                    "IPAddress": "ip地址",

4.验证
root@123 ~  
curl ip地址

(2)Docker Management Volume

1.开启容器
root@123 ~  
docker run -v /usr/share/nginx/html -d -P nginx
root@123 ~  
docker ps -q

2.查看配置
root@123 ~  
docker inspect acc5955cc2db |grep "Mounts" -A7
     "Mounts": [
        {
            "Type": "volume",
            "Name": "7f9f40b822f3353819401c0dc2df116f732c1e9ae839433d3de61d03fd84eccd",
            "Source": "/var/lib/docker/volumes/7f9f40b822f3353819401c0dc2df116f732c1e9ae839433d3de61d03fd84eccd/_data",
            "Destination": "/usr/share/nginx/html",
            "Driver": "local",
            "Mode": "",


3.查看目录
root@123 ~  
ls  /var/lib/docker/volumes

4.删除容器
root@123 ~  
docker stop acc5955cc2db
acc5955cc2db
root@123 ~  
docker rm -v  acc5955cc2db


5.批量删除其他
docker volume rm $(docker volume ls -qf dangling=true)

(3)Container Data (基于现有的容器)

1.运行容器
root@123 ~  
docker run -d --name nginx1 nginx

2.容器共享
root@123 ~  
docker run --volumes-from nginx1 -d nginxv

4.docker volume 命令

root@123 ~  
docker volume --help
Usage:	docker volume COMMAND
Manage volumes
Commands:
  create      Create a volume
  inspect     Display detailed information on one or more volumes
  ls          List volumes
  prune       Remove all unused local volumes
  rm          Remove one or more volumes

1.创建
root@123 ~  
docker volume create vol1

root@123 ~  
ls /var/lib/docker/volumes/

2.查询列表
root@123 ~  
docker volume ls        
DRIVER              VOLUME NAME
local               vol1

3.查看配置信息
root@123 ~  
docker volume inspect vol1
[
  {
     "CreatedAt": "2019-08-15T04:48:40-04:00",
     "Driver": "local",
     "Labels": {},
     "Mountpoint": "/var/lib/docker/volumes/vol1/_data",
     "Name": "vol1",
     "Options": {},
     "Scope": "local"
  }
]

4.批量删除
docker volume rm $(docker volume ls -qf dangling=true)

五、Ingress

1.简介

Ingress 使用开源的反向代理负载均衡器来实现对外暴漏服务,比如 Nginx、Apache、Haproxy等。Nginx Ingress 一般有三个组件组成:

  • ingress是kubernetes的一个资源对象,用于编写定义规则。
  • 反向代理负载均衡器,通常以Service的Port方式运行,接收并按照ingress定义的规则进行转发,通常为nginx,haproxy,traefik等,本文使用nginx
  • ingress-controller,监听apiserver,获取服务新增,删除等变化,并结合ingress规则动态更新到反向代理负载均衡器上,并重载配置使其生效。

扫描二维码关注公众号,回复: 14502707 查看本文章

2.实现方案

1、nginx:这是方式进行实现

2、Traefik:这种设计就是为微服务这种动态生成而生的

3.分布介绍

(1)nginx:这是方式进行实现

 nginx-ingress 模块在运行时主要包括三个主体:NginxController、Store、SyncQueue

 Store 主要负责从 kubernetes APIServer 收集运行时信息,感知各类资源(如 ingress、service等)的变化,并及时将更新事件消息(event)写入一个环形管道。

 SyncQueue 协程定期扫描 syncQueue 队列,发现有任务就执行更新操作,即借助 Store 完成最新运行数据的拉取,然后根据一定的规则产生新的 nginx 配置,(有些更新必须 reload,就本地写入新配置,执行 reload),然后执行动态更新操作,即构造 POST 数据,向本地 Nginx Lua 服务模块发送 post 请求,实现配置更新。

 NginxController 作为中间的联系者,监听 updateChannel,一旦收到配置更新事件,就向同步队列 syncQueue 里写入一个更新请求。

1.安装
ingress https://kubernetes.github.io/ingress-nginx/
ingress https://github.com/kubernetes/ingress-nginx

2.部署
$ wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/controller-v1.0.0/deploy/static/provider/baremetal/deploy.yaml

3.配置镜像
# 修改镜像地址
$ sed -i '[email protected]/ingress-nginx/controller:v1.0.0\(.*\)@willdockerhub/ingress-nginx-controller:v1.0.0@' deploy.yaml
$ sed -i '[email protected]/ingress-nginx/kube-webhook-certgen:v1.0\(.*\)$@hzde0128/kube-webhook-certgen:v1.0@' deploy.yaml
$ kubectl apply -f deploy.yaml
$ docker image load -i hzde0128-kube-webhook-certgen-v1.0.tar
$ docker image load -i willdockerhub-ingress-nginx-controller-v1.0.0.tar
$ docker images

4.运行
$ kubectl apply -f ingress-nginx.yaml

5.检查是否安装成功
$ kubectl get pod -n ingress-nginx
$ kubectl get svc -n ingress-nginx

 创建NGINX

1.创建目录

$ mkdir -p /opt/ingress/nginx-test
$ cd /opt/ingress/nginx-test

2.创建nginx-Deployment-Service.yaml文件

$ cat << EOF > nginx-Deployment-Service.yaml
apiVersion: apps/v1 
kind: Deployment   
metadata:             
  name: nginx-deployment     
  labels:       
    app: nginx  
spec:          
  replicas: 2 
  selector:      
    matchLabels: 
      app: nginx
  minReadySeconds: 1
  progressDeadlineSeconds: 60
  revisionHistoryLimit: 2
  strategy:
    type: RollingUpdate
    rollingUpdate:
      maxSurge: 1
      maxUnavailable: 1
  template:        
    metadata:  
      labels:  
        app: nginx
    spec:         
      containers:     
      - name: nginx     
        image: nginx:1.17.1    
        imagePullPolicy: Always          
        ports:
        - containerPort: 80
        resources:
          requests:
            memory: "1Gi"
            cpu: "80m"
          limits: 
            memory: "1Gi" 
            cpu: "80m"
---
apiVersion: v1
kind: Service
metadata:      
  name: nginx-service
  labels:      
    app: nginx
spec:        
  selector:   
    app: nginx
  ports:
  - name: nginx-port 
    protocol: TCP      
    port: 80  
    targetPort: 80
  type: ClusterIP 
EOF


3.部署 nginx应用

$ kubectl apply -f nginx-Deployment-Service.yaml
$ kubectl get svc -o wide|grep nginx-service
$ kubectl get pod -o wide|grep nginx-deployment-*


4.创建 ingress yaml文件,内容如下:

cat << EOF > nginx-Ingress.yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: nginx
  annotations:
    kubernetes.io/ingress.class: "nginx"
spec:
  rules:
  - host: ingress.nginx.com
    http:
      paths:
      - path: "/"
        pathType: Prefix
        backend:
          service:
            name: nginx-service
            port:
              number: 80
EOF

4.创建nginx-Ingress.yaml文件
$ kubectl apply -f nginx-Ingress.yaml
$ kubectl get ingress|grep nginx

5.配置ip
$ kubectl get ingress|grep nginx
$ cat /etc/hosts
$ kubectl get svc -n ingress-nginx

6.验证
curl -I http://ingress.nginx.com:端口号

(2)Traefik:这种设计就是为微服务这种动态生成而生的

 traefik----系统默认提供

[root@localhost k8sYmal]# kubectl get pods -n kube-system 
NAME                                      READY   STATUS      RESTARTS   AGE
helm-install-traefik-crd-gbnq4            0/1     Completed   0          54d
helm-install-traefik-tp89r                0/1     Completed   0          54d
metrics-server-86cbb8457f-xspd4           1/1     Running     4          54d
svclb-traefik-m42nh                       2/2     Running     8          54d
local-path-provisioner-5ff76fc89d-cx49l   1/1     Running     5          54d
coredns-7448499f4d-9gzt9                  1/1     Running     4          54d
traefik-97b44b794-dsldn                   1/1     Running     4          54d

配置:

1.安装 Traefik
$ kubectl apply -f https://www.qikqiak.com/k8strain/network/manifests/traefik/crd.yaml
$ kubectl apply -f https://www.qikqiak.com/k8strain/network/manifests/traefik/rbac.yaml
$ kubectl apply -f https://www.qikqiak.com/k8strain/network/manifests/traefik/deployment.yaml
$ kubectl apply -f https://www.qikqiak.com/k8strain/network/manifests/traefik/dashboard.yaml

2.traefik 代理------http协议方向
apiVersion: traefik.containo.us/v1alpha1
kind: IngressRoute
metadata:
  name: simpleingressroute
spec:
  entryPoints:
    - web
  routes:
  - match: Host(`who.qikqiak.com`) && PathPrefix(`/notls`)
    kind: Rule
    services:
    - name: whoami
      port: 80

3.traefik 代理------tcp协议方向
[root@localhost k8sYmal]# cat traefik-tcp.yaml 
apiVersion: traefik.containo.us/v1alpha1
kind: IngressRouteTCP
metadata:
  name: mongo-traefik-tcp
spec:
  entryPoints:
    - mongo
  routes:
  - match: HostSNI(`*`)
    services:
    - name: nginx-traefik
      port: 端口号


六、StatefulSet

1.简介

StatefulSet是k8s中有状态应用管理的标准实现,今天就一起来了解下其背后设计的场景与原理,从而了解其适用范围与场景。

2.特点

(1)有状态与无状态

 通常可以分为两大类:有状态与无状态,比如web服务通常都是无状态的,web应用数据主要来自后端存储、缓存等中间件,而本身并不保存数; 而诸如redis、es等其数据也是应用自身的一部分,由此可以看出有状态应用本身会包含两部分:应用与数据。

(2)一致性与数据

 一致性是分布式系统中很常见的问题,上面提到有状态应用包含数据部分,那数据和一致性是不是一个东西呢?答案是并不一定,在诸如zookeeper等应用中,会通过zab协议保证数据写入到集群中的大多数节点,而在诸如kafka之类的应用其一致性设计要求相对较低,由此可以看出有状态应用数据的一致性,更多的是由对应场景的系统设计而决定。

(3)单调有序

 通常分布式系统中都至少要保证分区容忍性,以防止部分节点故障导致整个系统不可用,在k8s中的statefulset中的 Pod的管理策略则是保证尽可能安全的逐个Pod更新,而不是并行启动或停止所有的Pod。

3.部署命令

##############所有命令##############
1.创建
kubectl create -f test-zk-ss.yaml

2.删除
kubectl delete -f test-zk-ss.yaml      #删除模板
kubectl delete statefulset test-zk-ss  #删除名称

3.更新
kubectl apply -f test-zk-ss-new.yaml   #更新模板
kubectl edit statefulset test-zk-ss    #更新名称

4.查询
kubectl get statefulset test-zk-ss -o yaml    #查询模板
kubectl describe statefulset test-zk-ss       #查询名称

七、小结

本篇云原生更行到第二部分----Kubernetes核心技术(中)

后面继续分享,敬请期待

猜你喜欢

转载自blog.csdn.net/weixin_50481708/article/details/126515062