Kubernetes ---- proceso de implementación con centos

Descripción:

192.168.1.5:master,etcd

192.168.1.6:node1

192.168.1.7:node2

 

 

 

1.5 Configuración:

Yum fuente de configuración:

  Cada nodo está listo este paquete de instalación K8S, o descargado de Internet es demasiado lenta.

 

[Root @ yum.repos.d amo] # mkdir yum yum && mv *

[Root @ yum.repos.d amo] # vim cdrom.repo 

 

Esta fuente de SCP yum para todos los nodos.

[Root @ yum.repos.d amo] # scp cdrom.repo [email protected]: /etc/yum.repos.d/

[Root @ yum.repos.d amo] # scp cdrom.repo [email protected]: /etc/yum.repos.d/

Desactivar el firewall:

[Root @ amo ~] # parada systemctl firewalld && systemctl desactivar firewalld

Servicios de instalación:

[Root @ amo ~] # yum install -y kubernetes ETCD franela NTP

Configurar el archivo hosts:

[Root @ master ~] # vim / etc / hosts

192.168.1.5 maestro
192.168.1.5 ETCD
192.168.1.6 node1
192.168.1.7 node2

Configuración ETCD:

[Root @ amo ~] # vim /etc/etcd/etcd.conf

改: ETCD_NAME = por defecto

为: ETCD_NAME = "ETCD" 

nombre de nodo ETCD, si sólo uno ETCD ETCD clúster, éste puede ser anotado con configuración Ji, el nombre predeterminado para el valor por defecto, este nombre se utilizará más adelante.

 

改: ETCD_LISTEN_CLIENT_URLS = "http: // localhost: 2379"

为: ETCD_LISTEN_CLIENT_URLS = "http: // localhost: 2379, http: //192.168.1.5: 2379" 

dirección de escucha del Servicio Exterior ETCD, designado en general con el puerto 2379, si 0.0.0.0 se escucha en todas las interfaces 

 

改: ETCD_ADVERTISE_CLIENT_URLS = "http: // localhost: 2379"

为: ETCD_ADVERTISE_CLIENT_URLS = "http://192.168.1.5:2379"

[Root @ amo ~] # systemctl reinicio ETCD 

[Root @ amo ~] # netstat -antup | grep 2379 # 2379 para ver si el puerto está escuchando

[Root @ amo ~] # etcdctl lista de miembros # cheque ETCD lista de miembros del cluster
8e9e05c52164694d: name = ETCD peerURLs = http : // localhost: 2380 clientURLs = http: //192.168.1.5: 2379 isLeader = true

kubernetes en la ubicación:

[Root @ amo ~] # vim / etc / kubernetes / config

改: KUBE_MASTER = "--master = http: //127.0.0.1: 8080"

为: KUBE_MASTER = "--master = http: //192.168.1.5: 8080" 

Configuración apiserver:

[Root @ amo ~] # vim / etc / kubernetes / apiserver 

改: KUBE_API_ADDRESS = "- inseguros-bind-address = 127.0.0.1"

为: KUBE_API_ADDRESS = "- inseguros-bind-address = 0.0.0.0"

interfaz de escuchar, si se configurarán sólo escuchas a 127.0.0.1 localhost, configurados para escuchar en todas las interfaces en 0.0.0.0 aquí como 0.0.0.0. 

 

改: KUBE_ETCD_SERVERS = "--etcd-servidores = http: //127.0.0.1: 2379"

为: KUBE_ETCD_SERVERS = "--etcd-servidores = http: //192.168.1.5: 2379"

ETCD dirección de servicio, ya la garganta Mai ETCD Servicio 

 

 

改: KUBE_ADMISSION_CONTROL = "--control de admisión = NamespaceLifecycle, NamespaceExist s, LimitRanger, SecurityContextDeny, ServiceAccount, ResourceQuota"

为: KUBE_ADMISSION_CONTROL = "- la admisión y controles = AlwaysAdmit"

No hay límite, permitiendo que todos los nodos pueden hablar apiserver acceso, todas las solicitudes de la luz verde. 

Colocado Kube-planificador:

[Root @ amo ~] # vim / etc / kubernetes / programador

改: KUBE_SCHEDULER_ARGS = ""

为: UBE_SCHEDULER_ARGS = "0.0.0.0"

predeterminado monitor de programador es 127.0.0.1

 

Configurar la red ETCD:

Crear un directorio / K8S / red que se utiliza para almacenar información de la red de franela:

[Root @ amo ~] # mkdir etcdctl / K8S / red

A / K8S / red / config le asigna un valor de cadena '{ "la Red": "10.255.0.0/16"}':
[el Maestro root @ ~] # etcdctl SET / K8S / red / config '{ "la Red": "10.255.0.0/16"} "

[Root @ amo ~] # etcdctl get / K8S / red / config

Nota: Antes de empezar franela, es necesario agregar un registro de configuración de red en ETCD, esta configuración será utilizada franela asignado a las direcciones IP virtuales de cada ventana acoplable. Minion ventana acoplable para la configuración de la dirección IP.
Desde la dirección de la franela docker0 cubierto, así que el servicio de franela lanzado por primera vez en la ventana acoplable servicios. Si el servicio de cargador de muelle se ha puesto en marcha, el primer servicio de cargador de muelle parada, y luego empezar a Lannel, a continuación, iniciar ventana acoplable

 

Configuración flanneld:

[Root @ amo ~] # vim / etc / sysconfig / flanneld

改: FLANNEL_ETCD_ENDPOINTS = "http://127.0.0.1:2379"

为: FLANNEL_ETCD_ENDPOINTS = "http://192.168.1.5:2379"

 

改: FLANNEL_ETCD_PREFIX = "/ atomic.io/network"

Es: FLANNEL_ETCD_PREFIX = "/ K8S / red" # Nota en donde / K8S / red de la red no se corresponde con el anterior ETCD

 

改: # FLANNEL_OPTIONS = ""

Es: FLANNEL_OPTIONS = "- del iface = ens33" nombre de la NIC física #

 

[Root @ amo ~] # systemctl reinicio flanneld 

[Root @ amo ~] # ifconfig flannel0

 

1.6 Configuración:

Desactivar el firewall:

[root @ nodo1  ~] # parada systemctl firewalld && systemctl desactivar firewalld

Servicios de instalación:

[Root @ nodo1 ~] # yum install -y kubernetes ETCD franela NTP

anfitriones de configuración:

[Root @ nodo1 ~] # vim / etc / hosts

192.168.1.5 maestro
192.168.1.5 ETCD
192.168.1.6 node1
192.168.1.7 node2

[Root @ nodo1 ~] # vim / etc / sysconfig / flanneld

改: FLANNEL_ETCD_ENDPOINTS = "http://127.0.0.1:2379"

为: FLANNEL_ETCD_ENDPOINTS = "http://192.168.1.5:2379" 

 

改: FLANNEL_ETCD_PREFIX = "/ atomic.io/network"

为: FLANNEL_ETCD_PREFIX = "/ K8S / red" 

 

改: # FLANNEL_OPTIONS = ""

为: FLANNEL_OPTIONS = "- del iface = ens33" 

 

[Root @ nodo1 ~] # vim / etc / kubernetes / config

改: 22 KUBE_MASTER = "--master = http: //127.0.0.1: 8080"

为: 22 KUBE_MASTER = "--master = http: //192.168.1.5: 8080" 

 

[Root @ nodo1 ~] # vim / etc / kubernetes / kubelet

改: 5 KUBELET_ADDRESS = "- address = 127.0.0.1"

为: 5 KUBELET_ADDRESS = "- address = 0.0.0.0"   

Por defecto sólo escuchan 127.0.0.1, quería cambiar: 0.0.0.0, ya que el proceso kubectl tarde para ser utilizado para conectarse al servicio de kubelet para ver el estado de la vaina y la vaina en el contenedor. Si no puede procesar 127 es un servicio kubelet conectado.

 

改: 11 KUBELET_HOSTNAME = "- hostname-override = 127.0.0.1"

为: 11 KUBELET_HOSTNAME = "- hostname-override = node1" 

 nombre de host subordinado, y configurado para presentar el mismo nombre de la máquina anfitrión para una fácil identificación.

 

改: 14 KUBELET_API_SERVER = "--api-servidores = http: //127.0.0.1: 8080"

为: 14 KUBELET_API_SERVER = "--api servers = http: //192.168.1.5 :: 8080" 

Dirección de un lote dado de apiserver 

 

[root @ nodo1 ~] # systemctl reinicio flanneld
[root @ nodo1 ~] # systemctl reinicio Kube-proxy
[root @ nodo1 ~] # systemctl reinicio ventana acoplable

[Root @ nodo1 ~] # systemctl reinicio kubelet

[Root @ nodo1 ~] # systemctl estado flanneld Kube-proxy kubelet ventana acoplable | grep consecutivo

 

1.7 Configuración:

Desactivar el firewall:

[root @ nodo2  ~] # parada systemctl firewalld && systemctl desactivar firewalld

Servicios de instalación:

[Root @ nodo2 ~] # yum install -y kubernetes ETCD franela NTP

anfitriones de configuración:

[Root @ nodo2 ~] # vim / etc / hosts

192.168.1.5 maestro
192.168.1.5 ETCD
192.168.1.6 node1
192.168.1.7 node2

 En el nodo nodo 1: 

 [Root @ nodo1 ~] # SCP / etc / sysconfig / flanneld [email protected]: / etc / sysconfig /

 [Root @ nodo1 ~] # SCP / etc / kubernetes / [email protected] de configuración: / etc / kubernetes /
 [root @ nodo1 ~] # SCP / etc / kubernetes / kubelet [email protected]: / etc / kubernetes /

 

[Root @ nodo2 ~] # vim / etc / kubernetes / kubelet

nodo1 Nodo2 cambió

[root @ nodo2 ~] # systemctl reinicio flanneld
[root @ nodo2 ~] # systemctl reinicio Kube-proxy
[root @ nodo2 ~] # systemctl reinicio cargador de muelle
[root @ nodo2 ~] # systemctl reinicio kubelet

   masetr reinicie el servicio de

[Root @ amo ~] # systemctl reinicio Kube-apiserver Kube-controlador-manager Kube-planificador flanneld

 

prueba:

[Root @ amo ~] # kubectl get nodo

NOMBRE ESTADO DE EDAD
nodo1 Ready 10s
nodo2 9s Ready

 

 

Sube un espejo para tratar

 

Supongo que te gusta

Origin www.cnblogs.com/meml/p/12606739.html
Recomendado
Clasificación