CEPH展開(CEPH環境の準備)
- CEPH前に建てられた環境の準備
- まず、それぞれのホストのIPとホスト名を対応する6つの展開
- 第二に、物理ホスト上に配置されたローカルDNS解析
- 第三には、マシンにキー・スキャン保存事前にリモートサーバのそれぞれは、sshはい答える必要はありません(物理ホスト操作)
- 無料の密な着陸を達成(物理ホスト操作)
- V.は、共有ディレクトリ(この場合はHTTPを使用して)(物理ホスト運用)にrhcs2.0-rhosp-20161113-x86_64.iso YUMミラーリングマウント
- 第六に、物理ホスト構成YUMソース(物理ホスト運用)
- セブンは、別のホスト6(物理ホスト運用)への物理ホスト上でYUM構成を渡し
- 実験トポロジ
- CEPHノードの構成
CEPH前に建てられた環境の準備
1.物理ホストおよび他の6つのホストの配備、設定、IPアドレス、ホスト名は、ファイアウォールとSELinux(最高の新しいホストまたは仮想マシン)をオフにする準備
2. 'rhcs2.0-rhosp-20161113-x86_64.iso' イメージファイル(母の検索)を準備
まず、それぞれのホストのIPとホスト名を対応する6つの展開
IPアドレス | ホスト名 |
---|---|
192.168.4.1 | ノード1 |
192.168.4.2 | ノード2 |
192.168.4.3 | ノード3 |
192.168.4.4 | ノード4 |
192.168.4.5 | NODE5 |
192.168.4.6 | node6 |
第二に、物理ホスト上に配置されたローカルDNS解析
プロファイル:/ etc / hostsファイル
ループのためのクイック設定#(↓の端末として使用)
for i in {1..6}
do
echo -e "192.168.4.$i\tnode$i.da.cn\tnode$i" >>/etc/hosts
#\t是tab键,echo命令需使用-e选项才能生效
done
第三には、マシンにキー・スキャン保存事前にリモートサーバのそれぞれは、sshはい答える必要はありません(物理ホスト操作)
ファイルを保存するキー:/root/.ssh/known_hosts
SSH-キースキャンコマンド#キースキャンコマンド
ssh-keyscan node{1..6} > /root/.ssh/known_hosts
#node{1..6},相当于for循环执行
無料の密な着陸を達成(物理ホスト操作)
#迅速な伝送ループに使用するSSH鍵
for i in {1..6}
do
ssh-copy-id node$i
done
V.は、共有ディレクトリ(この場合はHTTPを使用して)(物理ホスト運用)にrhcs2.0-rhosp-20161113-x86_64.iso YUMミラーリングマウント
mkdir /var/www/html/rhcs
mount -a /root/rhcs2.0-rhosp-20161113-x86_64.iso /var/www/html/rhcs
#mount -a选项是开机自动挂载,记录在/etc/fstab文件里
第六に、物理ホスト構成YUMソース(物理ホスト運用)
rhcs2.0-rhosp-20161113-x86_64.isoミラーは、それぞれ三のウェアハウス・ソースを含みます 「月」、「OSD」、「ツール」
vim /etc/yum.repos.d/da.repo
#配置文件开始
[rhel7]
name=rhel7
baseurl=http://192.168.4.254:83/rhel7 #自定义yum源分享目录路径
enabled=1
gpgcheck=0
[mon]
name=mon
baseurl=http://192.168.4.254:83/rhcs/mon #自定义yum源分享目录路径并查看步骤五创建的目录位置
enabled=1
gpgcheck=0
[osd]
name=osd
baseurl=http://192.168.4.254:83/rhcs/osd #自定义yum源分享目录路径并查看步骤五创建的目录位置
enabled=1
gpgcheck=0
[tools]
name=tools
baseurl=http://192.168.4.254:83/rhcs/tools #自定义yum源分享目录路径并查看步骤五创建的目录位置
enabled=1
gpgcheck=0
#配置文件结束,wq保存退出
セブンは、別のホスト6(物理ホスト運用)への物理ホスト上でYUM構成を渡し
forループを使用して#
for i in {1..6}
do
scp /etc/yum.repos.d/da.repo node$i:/etc/yum.repos.d/
done
実験トポロジ
実験的、実質的トポロジー
CEPHノードの構成
この場合は、管理ノードノードノード1として使用されます
まず、ローカルDNSは、各ホスト・ノードの構成がnode1で解析しました
プロファイル:/ etc / hostsファイル
ループのためのクイック設定#(↓の端末として使用)
for i in {1..6}
do
echo -e "192.168.4.$i\tnode$i.da.cn\tnode$i" >>/etc/hosts
#\t是tab键,echo命令需使用-e选项才能生效
done
I. 1.残りの5つのホストにローカルのDNS解決ファイルnode1の転送
forループを使用して#
for i in node{2..6}
do
scp /etc/hosts $i:/etc/
done
第二には、各ホストノードnode1のためのキーを保存します
ファイルを保存するキー:/root/.ssh/known_hosts
SSH-キースキャンコマンド#キースキャンコマンド
ssh-keyscan node{1..6} > /root/.ssh/known_hosts
#node{1..6},相当于for循环执行
第三には、公開鍵を生成し、ノードのキーがノード1であります
ssh-keygen -f /root/.ssh/id_rsa -N ''
#非交互式生成密钥对
第四には、個々のホスト無料の密な着陸(自分がnode1を含む)(ノード1の動作)NODE1リモートノードを実装します
#迅速な伝送ループに使用するSSH鍵
for i in node{1..6}
do
ssh-copy-id $i
done
図5に示すように、コンフィギュレーション・タイムサーバ(Node6動作)Node6ノード(クライアント)であります
五、1パック
yum -y install chrony
V. 2.設定ファイルのchronyを変更します
vimの /etc/chrony.conf
server 0.centes.pool.ntp.org iburst
#server 1.centes.pool.ntp.org iburst
#server 2.centes.pool.ntp.org iburst
#server 3.centes.pool.ntp.org iburst
#只保留0,其余三个全部注释
#在下面添加以下两行配置:
allow 192.168.4.0/24 #允许192.168.4.0网段校验时间
local stratum 10 #10为自定义数值
#时间服务器的层级为10级
#保存退出
V. 3.サービスの開始
systemctl restart chronyd
NTPサーバ(node6)クライアントとして構成node1-5するために、6
VI 1.プロファイルの変更
vimの /etc/chrony.conf
#server 0.centes.pool.ntp.org iburst
#server 1.centes.pool.ntp.org iburst
#server 2.centes.pool.ntp.org iburst
#server 3.centes.pool.ntp.org iburst
#注释掉0-3
#在下面添加以下一行配置:
server 192.168.4.6 iburst #指定NTP服务器地址
#保存退出
VI 2.サービスの開始
systemctl restart chronyd
第六に、3チェック時間(node6同期時間)
ntpdate 192.168.4.6
七、各添加剤は3ファスト10ギガバイトのハードnode1-3(物理ホスト運用)であります
#注:また、仮想マシンを使用して、この場合には、追加することができるグラフィックスコマンドを追加し、ハードな方法を追加するには、コマンドを使用することができます
仮想マシンの場合は、直接ハードディスクを追加して、シャットダウンすることはできません
cd /var/lib/libvirt/images
qemu-img create -f qcow2 node1-vdb.vol 10G
qemu-img create -f qcow2 node1-vdc.vol 10G
qemu-img create -f qcow2 node1-vdd.vol 10G
qemu-img create -f qcow2 node2-vdb.vol 10G
qemu-img create -f qcow2 node2-vdc.vol 10G
qemu-img create -f qcow2 node2-vdd.vol 10G
qemu-img create -f qcow2 node3-vdb.vol 10G
qemu-img create -f qcow2 node3-vdc.vol 10G
qemu-img create -f qcow2 node3-vdd.vol 10G3