kubernetsクラスタ展開の問題

1、ホスト名「マスター」は到達することができませんでした

ホストでは構文解析を追加しません

2、カール-ssl HTTP:// localhostの:10248 / healthzの
カール:ローカルホストに失敗した接続(7):10248は、ローカルホストのホストを接続解析に拒絶されません

3、エラー起動デーモン:SELinuxはこのカーネル上overlay2グラフのドライバでサポートされていません。いずれかの新しいカーネルへのブートまたは...エーブル=偽)
のvimの/ etc / ssconfigの/ドッキングウィンドウ--selinux有効= Falseに

図4に示すように、ブリッジNF-call- iptablesの問題を硬化:
#以下は、ブリッジ上に配置されています。

net.bridge.bridge-NF-コールip6tablesを= 0

net.bridge.bridge-NF-コールのiptables = 1

#= 0フォワードiptablesのルールのパケットを転送する際、ネットワークの二階はnet.bridge.bridge-NF-CALL-arptables濾過されることを意味します

5、サーバーのローカルホストへの接続:8080は、拒否された-あなたは右のホストまたはポートを指定したのですか?
取得します。http:// localhost:?8080 / APIタイムアウト= 32S:8080::接続:TCP [:: 1]ダイヤル"KUBE-flannel.ymlを"認識できない接続は拒否しました

rootユーザーの下に実行した場合、エラーはしません

ます。mkdir -p $ HOME / .kube

sudoのcpは-i /etc/kubernetes/admin.conf $ HOME / .kube /設定

sudoのchownコマンド$(のid -u):$(IDの-g)の$ HOME / .kube /設定

6、エラー: "認識できない mycronjob.ymlを":バージョンで親切"cronジョブ"のためノーマッチ"バッチ/ v2alpha1"
KUBE-apiserver.yamlするファイルを、追加します- --runtime-config設定=バッチ/ v2alpha1 =真、 、サービスを再起動し、それをkubelet

7、コンテナランタイムネットワークの準備ができていません:NetworkReadyは= falseの理由:NetworkPluginNotReadyメッセージ:ドッキングウィンドウ:ネットワークプラグインの準備ができていない:CNI設定更新できません初期化されていないCNI設定:/etc/cni/net.dでは見つかりませんネットワークは、システム・コンテナを取得できませんでしたありません「/system.slice/kubelet.service」の統計情報は:「/system.slice/kubelet.service」のためのcgroupの統計情報の取得に失敗しました:「/system.slice/kubelet.service」のコンテナ情報の取得に失敗しました:不明コンテナ「 /system.slice/kubelet.service」

ドッキングウィンドウはquay.io/coreos/flannel:v0.10.0-amd64引き
ます。mkdir -p /etc/cni/net.d/ 
猫<< EOF> /etc/cni/net.d/10-flannel.conf 
{ "name"を"CBR0"、 "タイプ": "フランネル"、 "委任":{ "isDefaultGateway":真}} 
EOF 
MKDIR /usr/share/oci-umount/oci-umount.d -p 
MKDIR /実行/フランネル/ 
猫<< EOF> /run/flannel/subnet.env 
FLANNEL_NETWORK = 172.100.0.0 / 16 
FLANNEL_SUBNET = 172.100.1.0 / 24 
FLANNEL_MTU = 1450 
FLANNEL_IPMASQ =真
EOFの
kubectlが適用-f https://raw.githubusercontent.com/coreos/flannel /v0.9.1/Documentation/kube-flannel.yml

 

8、Unable to connect to the server: x509: certificate signed by unknown authority (possibly because of “crypto/rsa: verification error” while trying to verify candidate authority certificate “kubernetes”)
export KUBECONFIG=/etc/kubernetes/kubelet.conf

9、Failed to get system container stats for “/system.slice/docker.service”: failed to get cgroup stats for “/system.slice/docker.service”: failed to get container info for “/system.slice/docker.service”: unknown container “/system.slice/docker.service”
vim /etc/sysconfig/kubelet --runtime-cgroups=/systemd/system.slice --kubelet-cgroups=/systemd/system.slice systemctl restart kubelet

大概意思是Flag --cgroup-driver --kubelet-cgroups 驱动已经被禁用,这个参数应该通过kubelet 的配置指定配置文件来配置

10、The HTTP call equal to ‘curl -sSL http://localhost:10255/healthz’ failed with error: Get http://localhost:10255/healthz: dial tcp 127.0.0.1:10255: getsockopt: connection refused.
vim /etc/systemd/system/kubelet.service.d/10-kubeadm.conf Environment="KUBELET_SYSTEM_PODS_ARGS=--pod-manifest-path=/etc/kubernetes/manifests --allow-privileged=true --fail-swap-on=false"

11、failed to run Kubelet: failed to create kubelet: miscon figuration: kubelet cgroup driver: “systemd” is different from docker cgroup driver: “cgroupfs”
kubelet: Environment="KUBELET_CGROUP_ARGS=--cgroup-driver=systemd" docker:   vi /lib/systemd/system/docker.service -exec-opt native.cgroupdriver=systemd

12、[ERROR CRI]: unable to check if the container runtime at “/var/run/dockershim.sock” is running: exit status 1
rm -f /usr/bin/crictl

13、 Warning FailedScheduling 2s (x7 over 33s) default-scheduler 0/4 nodes are available: 4 node(s) didn’t match node selector.
如果指定的label在所有node上都无法匹配,则创建Pod失败,会提示无法调度:

14、kubeadm 生成的token过期后,集群增加节点

kubeadm token create
openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | 
openssl dgst -sha256 -hex | sed ‘s/^.* //‘
kubeadm join --token aa78f6.8b4cafc8ed26c34f --discovery-token-ca-cert-hash sha256:0fd95a9bc67a7bf0ef42da968a0d55d92e52898ec37c971bd77ee501d845b538  172.16.6.79:6443 --skip-preflight-checks

 

15、systemctl status kubelet告警
cni.go:171] Unable to update cni config: No networks found in /etc/cni/net.d
May 29 06:30:28 fnode kubelet[4136]: E0529 06:30:28.935309 4136 kubelet.go:2130] Container runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
删除 /etc/systemd/system/kubelet.service.d/10-kubeadm.conf 的 KUBELET_NETWORK_ARGS,然后重启kubelet服务 临时解决。没啥用
根本原因是缺少: k8s.gcr.io/pause-amd64:3.1

16 删除flannel网络

ifconfig cni0 down
ifconfig flannel.1 down
ifconfig del flannel.1
ifconfig del cni0

ip link del flannel.1
ip link del cni0

yum install bridge-utils
brctl delbr  flannel.1
brctl delbr cni0
rm -rf /var/lib/cni/flannel/* && rm -rf /var/lib/cni/networks/cbr0/* && ip link delete cni0 &&  rm -rf /var/lib/cni/network/cni0/*

 

17、E0906 15:10:55.415662 1 leaderelection.go:234] error retrieving resource lock default/ceph.com-rbd: endpoints “ceph.com-rbd” is forbidden: User “system:serviceaccount:default:rbd-provisioner” cannot get endpoints in the namespace “default”
添加下面的这一段 (会重新申请资源) kubectl apply -f ceph/rbd/deploy/rbac/clusterrole.yaml

apiGroups: [""]
resources: [“endpoints”]
verbs: [“get”, “list”, “watch”, “create”, “update”, “patch”]`

 

おすすめ

転載: www.cnblogs.com/xxd-qyr/p/11434014.html