CEPH展開(CEPH環境の準備)

CEPH展開(CEPH環境の準備)

CEPH前に建てられた環境の準備

1.物理ホストおよび他の6つのホストの配備、設定、IPアドレス、ホスト名は、ファイアウォールとSELinux(最高の新しいホストまたは仮想マシン)をオフにする準備
2. 'rhcs2.0-rhosp-20161113-x86_64.iso' イメージファイル(母の検索)を準備

まず、それぞれのホストのIPとホスト名を対応する6つの展開

IPアドレス ホスト名
192.168.4.1 ノード1
192.168.4.2 ノード2
192.168.4.3 ノード3
192.168.4.4 ノード4
192.168.4.5 NODE5
192.168.4.6 node6

第二に、物理ホスト上に配置されたローカルDNS解析

プロファイル:/ etc / hostsファイル

ループのためのクイック設定#(↓の端末として使用)

for i in {1..6}
do 
echo -e "192.168.4.$i\tnode$i.da.cn\tnode$i" >>/etc/hosts
#\t是tab键,echo命令需使用-e选项才能生效
done

第三には、マシンにキー・スキャン保存事前にリモートサーバのそれぞれは、sshはい答える必要はありません(物理ホスト操作)

ファイルを保存するキー:/root/.ssh/known_hosts

SSH-キースキャンコマンド#キースキャンコマンド

ssh-keyscan node{1..6} > /root/.ssh/known_hosts
#node{1..6},相当于for循环执行

無料の密な着陸を達成(物理ホスト操作)

#迅速な伝送ループに使用するSSH鍵

for i in {1..6}
do
ssh-copy-id node$i
done

V.は、共有ディレクトリ(この場合はHTTPを使用して)(物理ホスト運用)にrhcs2.0-rhosp-20161113-x86_64.iso YUMミラーリングマウント

mkdir /var/www/html/rhcs
mount -a /root/rhcs2.0-rhosp-20161113-x86_64.iso /var/www/html/rhcs
#mount -a选项是开机自动挂载,记录在/etc/fstab文件里

第六に、物理ホスト構成YUMソース(物理ホスト運用)

rhcs2.0-rhosp-20161113-x86_64.isoミラーは、それぞれ三のウェアハウス・ソースを含みます 「月」、「OSD」、「ツール」

vim /etc/yum.repos.d/da.repo
#配置文件开始
[rhel7]
name=rhel7
baseurl=http://192.168.4.254:83/rhel7 #自定义yum源分享目录路径
enabled=1
gpgcheck=0
[mon]
name=mon
baseurl=http://192.168.4.254:83/rhcs/mon #自定义yum源分享目录路径并查看步骤五创建的目录位置
enabled=1
gpgcheck=0
[osd]
name=osd
baseurl=http://192.168.4.254:83/rhcs/osd #自定义yum源分享目录路径并查看步骤五创建的目录位置
enabled=1
gpgcheck=0
[tools]
name=tools
baseurl=http://192.168.4.254:83/rhcs/tools #自定义yum源分享目录路径并查看步骤五创建的目录位置
enabled=1
gpgcheck=0
#配置文件结束,wq保存退出

セブンは、別のホスト6(物理ホスト運用)への物理ホスト上でYUM構成を渡し

forループを使用して#

for i in {1..6}
do
scp /etc/yum.repos.d/da.repo node$i:/etc/yum.repos.d/
done

実験トポロジ

実験的、実質的トポロジー

ここに画像を挿入説明

CEPHノードの構成

この場合は、管理ノードノードノード1として使用されます

まず、ローカルDNSは、各ホスト・ノードの構成がnode1で解析しました

プロファイル:/ etc / hostsファイル

ループのためのクイック設定#(↓の端末として使用)

for i in {1..6}
do 
echo -e "192.168.4.$i\tnode$i.da.cn\tnode$i" >>/etc/hosts
#\t是tab键,echo命令需使用-e选项才能生效
done

I. 1.残りの5つのホストにローカルのDNS解決ファイルnode1の転送

forループを使用して#

for i in node{2..6}
do
scp /etc/hosts $i:/etc/
done

第二には、各ホストノードnode1のためのキーを保存します

ファイルを保存するキー:/root/.ssh/known_hosts

SSH-キースキャンコマンド#キースキャンコマンド

ssh-keyscan node{1..6} > /root/.ssh/known_hosts
#node{1..6},相当于for循环执行

第三には、公開鍵を生成し、ノードのキーがノード1であります

ssh-keygen -f /root/.ssh/id_rsa -N ''
#非交互式生成密钥对

第四には、個々のホスト無料の密な着陸(自分がnode1を含む)(ノード1の動作)NODE1リモートノードを実装します

#迅速な伝送ループに使用するSSH鍵

for i in node{1..6}
do
ssh-copy-id $i
done

図5に示すように、コンフィギュレーション・タイムサーバ(Node6動作)Node6ノード(クライアント)であります

五、1パック

yum -y install chrony

V. 2.設定ファイルのchronyを変更します

vimの /etc/chrony.conf

server 0.centes.pool.ntp.org iburst
#server 1.centes.pool.ntp.org iburst
#server 2.centes.pool.ntp.org iburst
#server 3.centes.pool.ntp.org iburst
#只保留0,其余三个全部注释
#在下面添加以下两行配置:
allow 192.168.4.0/24 #允许192.168.4.0网段校验时间

local stratum 10 #10为自定义数值
#时间服务器的层级为10级

#保存退出

V. 3.サービスの開始

systemctl restart chronyd

NTPサーバ(node6)クライアントとして構成node1-5するために、6

VI 1.プロファイルの変更

vimの /etc/chrony.conf

#server 0.centes.pool.ntp.org iburst
#server 1.centes.pool.ntp.org iburst
#server 2.centes.pool.ntp.org iburst
#server 3.centes.pool.ntp.org iburst
#注释掉0-3
#在下面添加以下一行配置:
server 192.168.4.6 iburst #指定NTP服务器地址

#保存退出

VI 2.サービスの開始

systemctl restart chronyd

第六に、3チェック時間(node6同期時間)

ntpdate 192.168.4.6

七、各添加剤は3ファスト10ギガバイトのハードnode1-3(物理ホスト運用)であります

#注:また、仮想マシンを使用して、この場合には、追加することができるグラフィックスコマンドを追加し、ハードな方法を追加するには、コマンドを使用することができます

仮想マシンの場合は、直接ハードディスクを追加して、シャットダウンすることはできません

cd /var/lib/libvirt/images

qemu-img create -f qcow2 node1-vdb.vol 10G
qemu-img create -f qcow2 node1-vdc.vol 10G
qemu-img create -f qcow2 node1-vdd.vol 10G

qemu-img create -f qcow2 node2-vdb.vol 10G
qemu-img create -f qcow2 node2-vdc.vol 10G
qemu-img create -f qcow2 node2-vdd.vol 10G

qemu-img create -f qcow2 node3-vdb.vol 10G
qemu-img create -f qcow2 node3-vdc.vol 10G
qemu-img create -f qcow2 node3-vdd.vol 10G3

リリース6元記事 ウォンの賞賛0 ビュー81

おすすめ

転載: blog.csdn.net/a84050933/article/details/103396576