Realize a coleta de log efk com base em kubernetes - aliyun

Construção da plataforma EFK (ALIYUN) 

Preparação ambiental: k8s-master01 k8s-node2 k8s-node2

 Observação: este ambiente requer uma alocação de memória de cerca de 10 G, e vários pontos de memória precisam ser configurados para o nó do pod

Nó do medidor:

Adicionar aliyun, aliyuncs, google warehouse

helm repo add aliyun https://kubernetes.oss-cn-hangzhou.aliyuncs.com/charts 
helm repo add aliyuncs https://apphub.aliyuncs.com 
helm repo add incubator http://storage.googleapis.com/kubernetes- incubadora de gráficos

Veja as versões disponíveis 

elm search elasticsearch | grep aliyun


Imagem 1.png

Criar diretório de arquivo

mkdir efk 
cd efk /

Crie um namespace de namespace

kubectl create namespace efk

Baixe os arquivos elasticsearch, fluentd e kibana

helm fetch aliyuncs / elasticsearch --version = 11.0.4 (v2.4.0)
helm fetch aliyuncs / fluentd --version = 2.3.3 
helm fetch aliyuncs / kibana --version = 5.0.6

Descompactar

tar -xf elasticsearch-11.0.4.tgz 
tar -xf kibana-5.0.6.tgz 
tar -xf fluentd-elasticsearch-2.0.7.tgz

 Implantar ELASTICSEARCH

Com base nos recursos limitados do experimento, a configuração precisa ser reduzida

 vim elasticsearch / values.yaml 

mestre: nome: mestre

  ## Número de réplicas de nó (s) qualificado (s) mestre para implantar

  ##

  réplicas 1 # O número de réplicas é 1

  …

  persistência:

    ## Se verdadeiro, use uma reivindicação de volume persistente, se falso, use emptyDir

    ##

ativado falso   #Close pv disk montagem

coordenando:

  ## Número de réplicas de nó (s) apenas de coordenação para implantar

  ##

  réplicas # O número de réplicas é 1

dados:

  nome: dados

  ## Número de réplicas de nó (s) de dados para implantar

  ##

  réplicas # O número de réplicas é 1

  persistência:

    ## Se verdadeiro, use uma reivindicação de volume persistente, se falso, use emptyDir

    ##

ativado falso   #Close pv disk montagem

ingerir :

  habilitado: falso

  nome: ingest

  ## Número de réplicas de nó (s) de ingestão para implantar

  ##

  réplicas # O número de réplicas é 1

 Especifique onde os valores estão localizados no diretório es e implemente


cd 
elasticsearch helm install --name els1 --namespace = efk -f values.yaml.


Figura 2.png 

Ver pod

kubectl get pod -n efk

Ver svc

kubectl get svc -n efk


Figura 3.png 

Execute o pod para obter o teste de dados do cluster

kubectl run cirror- $ RANDOM --rm -it --image = cirros - / bin / sh

Obtenha esses dados por meio do curl Elasticsearch: Port / _cat / nodes

curl 10.96.228.76:9200/_cat/nodes

Figura 5.png
Implantar FLUENTD
cd fluentd- 
elasticsearch vim values.yaml

# Altere o endereço de acesso Elasticsearch

host: ' elasticsearch-client ' alterado para

host: '10.96.228.76 '

Implante fluentd-elasticsearch onde os valores estão localizados no diretório fluentd

helm install --name flu1 --namespace = efk -f values.yaml.


Figura 6.png

Ver pod

kubectl get pod -n efk | gripe grep


Imagem 7.png 

Departamento KIBANA 

cd kibana 
vim values.yaml

 persistência:

  ativado falso  #Close pv disk montagem

serviço:

  porta: 80

  tipo NodePort #svc modo de rede

elasticsearch:

  hosts :

     -10.96.228.76    #es endereço

 porta: porta  9200  #es

Especifique a localização dos valores no diretório kibana e implemente o kibana

helm install --name kib1 --namespace = efk -f values.yaml.


Figura 8.png

Ver pod

kubectl get pod -n efk | grep kib1


Figura 9.png

Verifique svc, obtenha a porta

kubectl get svc -n efk

Figura 10.png
Questão KIBANA

visita do google

http: // MasterIP: porta

  Novo índice


Figura 11.png

Veja os dados adquiridos


Figura 12.png

Até agora, está feito. Outros podem ser estudados lentamente.




Acho que você gosta

Origin blog.51cto.com/xiaozhagn/2553614
Recomendado
Clasificación