CentOSのとKubernetes ----展開プロセス

説明:

192.168.1.5:master,etcd

192.168.1.6:node1

192.168.1.7:node2

 

 

 

1.5構成:

ヤム構成ソース:

  各ノードは、このK8Sインストールパッケージ準備ができている、またはインターネットからダウンロード遅すぎます。

 

[マスターyum.repos.d @ルート]#yumのMKDIR && MV * yumを

[マスターyum.repos.d @ルート]#vimのcdrom.repo 

 

すべてのノードにこのyumのソースSCP。

[マスターyum.repos.d @ルート]#scpコマンドcdrom.repo [email protected]:/etc/yum.repos.d/

[マスターyum.repos.d @ルート]#scpコマンドcdrom.repo [email protected]:/etc/yum.repos.d/

ファイアウォールをオフにします。

[ルートマスター@〜]#systemctlの停止firewalld && systemctl無効firewalld

インストールサービス:

[ルート@マスター〜]#yumをインストール-y kubernetes etcdフランネルNTP

hostsファイルを設定します。

[マスター@ルート〜]#vimの/ etc / hostsファイル

192.168.1.5マスター
192.168.1.5 etcd
192.168.1.6ノード1
192.168.1.7ノード2

設定はetcd:

[ルート@マスター〜]#vimの/etc/etcd/etcd.conf

改:ETCD_NAME =デフォルト

为:ETCD_NAME = "etcd" 

この1つは智の設定、デフォルトのデフォルト名で注釈を付けることができetcdノード名は、一つだけetcd etcdクラスタ場合、この名前は、後で使用されます。

 

改:ETCD_LISTEN_CLIENT_URLS = "のhttp:// localhostを:2379"

为:ETCD_LISTEN_CLIENT_URLS = "のhttp:// localhostを:2379は、http://192.168.1.5:2379" 

0.0.0.0は、すべてのインターフェイス上でリッスンする場合は、外国サービスのリスニングアドレス、一般的に指定ポート2379をetcd 

 

改:ETCD_ADVERTISE_CLIENT_URLS = "のhttp:// localhostを:2379"

为:ETCD_ADVERTISE_CLIENT_URLS = "http://192.168.1.5:2379"

[ルート@マスター〜]#systemctl再起動etcd 

[ルートマスター@〜]#netstatの-antup |ポートはリスニングであるかどうかを確認するために2379#2379をgrepします

[ルート@マスター〜]#のetcdctlメンバーリスト#のチェックは、クラスタメンバリストetcd
8e9e05c52164694d:名前は= etcd peerURLs =のhttp :// localhostを:2380 clientURLs =のhttp://192.168.1.5:2379 isLeader =真

配置 kubernetes:

[ルート@マスター〜]#のvimの/ etc / kubernetes /設定

改:KUBE_MASTER = "--master =のhttp://127.0.0.1:8080"

为:KUBE_MASTER = "--master =のhttp://192.168.1.5:8080" 

設定apiserver:

[ルート@マスター〜]#のvimの/ etc / kubernetes / apiserver 

改:KUBE_API_ADDRESS = " - 安全でないバインドアドレス= 127.0.0.1"

为:KUBE_API_ADDRESS = " - 安全でないバインドアドレス= 0.0.0.0"

0.0.0.0にすべてのインターフェイスでリッスンするように構成127.0.0.1はlocalhostのみリッスンは、0.0.0.0としてここで設定する場合は、インタフェースを聞きます。 

 

改:KUBE_ETCD_SERVERS = "--etcd-サーバ=のhttp://127.0.0.1:2379"

为:KUBE_ETCD_SERVERS = "--etcd-サーバ=のhttp://192.168.1.5:2379"

etcdサービスアドレス、すでに喉舞は、サービスをetcd 

 

 

改:KUBE_ADMISSION_CONTROL = " - アドミッションコントロール= NamespaceLifecycle、NamespaceExist S、LimitRanger、SecurityContextDeny、ServiceAccount、ResourceQuota"

为:KUBE_ADMISSION_CONTROL = " - 入場コントロール= AlwaysAdmit"

制限なし、すべてのノードがアクセスapiserver、緑色の光に対するすべての要求を話すことができることができます。 

配置kube-scheduler:

[ルート@マスター〜]#のvimの/ etc / kubernetes /スケジューラ

改:KUBE_SCHEDULER_ARGS = ""

为:UBE_SCHEDULER_ARGS = "0.0.0.0"

スケジューラモニタのデフォルトは127.0.0.1です

 

セットetcdネットワーク:

店舗フランネルのネットワーク情報に使用されるディレクトリ/ K8S /ネットワークを作成します。

[ルートマスター@〜]#etcdctlます。mkdir / K8S /ネットワーク

:文字列値'{: "10.255.0.0/16" "ネットワーク"}'割り当て/ K8S /ネットワーク/設定に
[ルートマスター@〜]#のetcdctlのSET / K8S /ネットワーク/ configの「{ "ネットワーク": "10.255.0.0/16"} '

[ルートマスター@〜]#etcdctlのget / K8S /ネットワーク/設定

注:フランネルを開始する前に、あなたはetcdでネットワーク構成レコードを追加する必要があり、この構成では、各ドッキングウィンドウの仮想IPアドレスに割り当てられた使用済みのフランネルとなります。IPアドレスを設定するためのミニオンドッキングウィンドウ。
docker0フランネル上のアドレスがカバーされているので、そのフランネルサービスは、最初のドッキングウィンドウサービスに発売します。ドッキングウィンドウのサービスは、最初のピットストップのドッキングウィンドウのサービスを開始し、その後lannelを開始されている場合は、ドッキングウィンドウを起動します

 

設定はflanneld:

[ルート@マスター〜]#のvimの/ etc /のsysconfig / flanneld

改:FLANNEL_ETCD_ENDPOINTS = "http://127.0.0.1:2379"

为:FLANNEL_ETCD_ENDPOINTS = "http://192.168.1.5:2379"

 

改:FLANNEL_ETCD_PREFIX = "/ atomic.io/network"

です:FLANNEL_ETCD_PREFIX = / K8S /ネットワークネットワークは、上記etcdに対応していないここで、「/ K8S /ネットワーク」#(注)

 

改:#FLANNEL_OPTIONS = ""

です:FLANNEL_OPTIONS = " - のiface = ens33" #物理NICの名前

 

[ルート@マスター〜]#systemctl再起動flanneld 

[ルート@マスター〜]#ifconfigコマンドflannel0

 

1.6構成:

ファイアウォールをオフにします。

[ルート@ノード1  〜]#systemctlの停止firewalld && systemctl無効firewalld

インストールサービス:

[ルート@ノード1〜]#yumをインストール-y kubernetes etcdフランネルNTP

コンフィギュレーション・ホスト:

[ルート@ノード1〜]#vimの/ etc / hostsファイル

192.168.1.5マスター
192.168.1.5 etcd
192.168.1.6ノード1
192.168.1.7ノード2

[ルート@ノード1〜]#のvimの/ etc /のsysconfig / flanneld

改:FLANNEL_ETCD_ENDPOINTS = "http://127.0.0.1:2379"

为:FLANNEL_ETCD_ENDPOINTS = "http://192.168.1.5:2379" 

 

改:FLANNEL_ETCD_PREFIX = "/ atomic.io/network"

为:FLANNEL_ETCD_PREFIX = "/ K8S /ネットワーク" 

 

改:#FLANNEL_OPTIONS = ""

为:FLANNEL_OPTIONS = " - のiface = ens33" 

 

[ルート@ノード1〜]#のvimの/ etc / kubernetes /設定

改:22 KUBE_MASTER = "--master =のhttp://127.0.0.1:8080"

为:22 KUBE_MASTER = "--master =のhttp://192.168.1.5:8080" 

 

[ルート@ノード1〜]#のvimの/ etc / kubernetes / kubelet

改:5 KUBELET_ADDRESS = " - アドレス= 127.0.0.1"

为:5 KUBELET_ADDRESS = " - アドレス= 0.0.0.0"   

0.0.0.0、後半kubectlプロセスは、コンテナ内のステータスポッドとポッドを表示するサービスkubeletへの接続に使用するため、デフォルトでのみ127.0.0.1を聞いて、私は変更するようでした。あなたは127を処理できない場合は、接続kubeletサービスです。

 

改:11 KUBELET_HOSTNAME = " - ホスト名、オーバーライド= 127.0.0.1"

为:11 KUBELET_HOSTNAME = " - ホスト名、オーバーライド=ノード1" 

 手先のホスト名、かつ容易な同定のために同一のホストマシン名を提示するように構成される。

 

改:14 KUBELET_API_SERVER = "--api-サーバ=のhttp://127.0.0.1:8080"

为:14 KUBELET_API_SERVER = "--api-サーバ=のhttp://192.168.1.5 :: 8080" 

apiserverの所与のバッチのための住所 

 

[ルート@ノード1〜]#systemctl再起動flanneld
[ルート@ノード1〜]#systemctl再起動KUBE-プロキシ
[ルート@ノード1〜]#systemctl再起動ドッカ

[ルート@ノード1〜]#systemctl再起動kubelet

[ルート@ノード1〜]#systemctl状況flanneld KUBE-プロキシkubeletドッキングウィンドウ| grepの実行

 

1.7構成:

ファイアウォールをオフにします。

[ルート@ノード2  〜]#systemctlの停止firewalld && systemctl無効firewalld

インストールサービス:

[ルート@ノード2〜]#yumをインストール-y kubernetes etcdフランネルNTP

コンフィギュレーション・ホスト:

[ルート@ノード2〜]#vimの/ etc / hostsファイル

192.168.1.5マスター
192.168.1.5 etcd
192.168.1.6ノード1
192.168.1.7ノード2

 ノード1ノードの場合: 

 [ルート@ノード1〜]#のSCPの/ etc /のsysconfig / flanneld [email protected]:の/ etc /のsysconfig /

 [ルート@ノード1〜]#のscpコマンドは/ etc / kubernetes / [email protected]:configとは/ etc / kubernetes /
 [ルート@ノード1〜]#のscpコマンドは/ etc / kubernetes / kubelet [email protected]ます。/ etc / kubernetes /

 

[ルート@ノード2〜]#のvimの/ etc / kubernetes / kubelet

ノード1ノード2が変更され

[ルート@ノード2〜]#systemctl再起動flanneld
[ルート@ノード2〜]#systemctl再起動KUBE-プロキシ
[ルート@ノード2〜]#systemctl再起動ドッキングウィンドウ
[ルート@ノード2〜]#systemctl再起動kubelet

   masetrは、サービスを再起動します

[ルートマスター@〜]#systemctl再起動KUBE-apiserver KUBE-コントローラマネージャKUBE-スケジューラflanneld

 

テスト:

[ルート@マスター〜]#kubectl GETノード

NAMEステータスAGE
レディ10Sノード1
ノード2レディー9S

 

 

しようとするミラーをアップロード

 

おすすめ

転載: www.cnblogs.com/meml/p/12606739.html