Openstack手动部署之环境部署(一)

Openstack手动部署之环境部署

一、环境配置

主机 cpu设置 内存和储存设置 双网卡设置net/vmnet1(仅主机) 操作系统
控制节点 双核双线,开启虚拟化 8g内存,300+300G硬盘(CEPH块存储) 192.168.171.20/192.168.100.30 Centos7.9最小化安装
计算节点 双核双线,开启虚拟化 8g内存,300+300G硬盘(CEPH块存储) 192.168.171.21/192.168.100.31 Centos7.9最小化安装
计算节点 双核双线,开启虚拟化 8g内存,300+300G硬盘(CEPH块存储) 192.168.171.22/192.168.100.32 Centos7.9最小化安装

二、基础环境配置(三个主机都要配置)

1、修改和添加nat网卡配置

配置第一个网卡

BOOTPROTO=static		
ONBOOT=yes					

IPADDR=192.168.171.20 		
NETMASK=255.255.255.0		
GATEWAY=192.168.171.2	
DNS1=8.8.8.8
DNS2=114.114.114.114
IPV4_ROUTE_METRIC=90		#设置网卡优先级,默认100,越低优先级越高,防止出现两张网卡为了抢占优先级导致无法连接问题

systemctl restart network

mark

配置第二个网卡,注释掉网关

mark

配置在线源

cd /etc/yum.repos.d/
mkdir repos.bak
mv *.repo repos.bak

curl -o /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo

yum clean all && yum makecache fast

记得关闭防火墙,修改主机名

systemctl stop firewalld
setenforce 0
hostnamectl set-hostname y1
su 

2、安装基础环境依赖包

最好都重复安装,防止出错

yum -y install net-tools bash-completion vim gcc gcc-c++ make pcre  pcre-devel expat-devel cmake  bzip2 lrzsz 

yum -y install centos-release-openstack-train python-openstackclient openstack-selinux openstack-utils

安装包解释:

net-tools:			#ifconfig命令行工具
bash-completion:	#辅助自动补全工具
vim:				#vim工具
gcc gcc-c++:		#编译环境
make:				#编译器
pcre pcre-devel:	#是一个Perl库,包括 perl 兼容的正则表达式库
expat-devel:		#Expat库,Expat是一个面向流的xml解析器
cmake:				#CMake是一个跨平台的编译工具,CMkae目前主要使用场景是作为make的上层工具,产生可移植的makefile文件
lrzsz:				#可使用rz、sz命令上传、下载数据

#OpenStack的train版本仓库源安装包、OpenStack客户端及openstack-selinux安装包

配置 DNS 映射

所有节点,将VMnet1IP与主机名添加到映射文件中,用于区分主机,便于相互访问

vim /etc/hosts

192.168.100.30   y1
192.168.100.31 	 y2
192.168.100.32   y3

免交互及配置 DNS

使用非对称密钥,即有公钥和私钥的一种保密方法

ssh-keygen -t rsa		#回车确认
ssh-copy-id y1
ssh-copy-id y2
ssh-copy-id y3

#参数 -t rsa 表示使用rsa算法进行加密,执行后,会在/home/当前用户/.ssh目录下找到id_rsa(私钥)和id_rsa.pub(公钥)
#将本机的公钥复制到远程机器中


同样查看一下节点配置
vim /etc/resolv.conf
nameserver 114.114.114.114
#一般会自动配置好

mark

mark

配置控制节点(192.168.171.20)

yum install chrony -y

vim /etc/chrony.conf 

#都注释掉
#server 0.centos.pool.ntp.org iburst						
#server 1.centos.pool.ntp.org iburst						
#server 2.centos.pool.ntp.org iburst						
#server 3.centos.pool.ntp.org iburst	
#添加
server ntp6.aliyun.com iburst		#配置阿里云时钟服务器源
allow 192.168.100.0/24				#允许192.168.100.0/24网段的主机来同步时钟服务
		
#使用chronyc sources命令查询时间同步信息

systemctl enable chronyd
systemctl restart chronyd
chronyc sources

mark

mark

配置计算节点时间同步(y2和y3)

vim /etc/chrony.conf

#都注释掉
#server 0.centos.pool.ntp.org iburst						
#server 1.centos.pool.ntp.org iburst						
#server 2.centos.pool.ntp.org iburst						
#server 3.centos.pool.ntp.org iburst	

server ct iburst		#配置阿里云时钟服务器源,同步指向控制节点ct

systemctl enable chronyd.service
systemctl restart chronyd.service		
chronyc sources   #查询时间同步信息

mark

mark

配置所有节点计划性任务,每隔2分钟同步一次

crontab -e		
*/2 * * * * /usr/bin/chronyc sources >>/var/log/chronyc.log
#每隔两分钟进行同步并将信息注入到日志文件当中

crontab -l

mark

三、系统环境配置

1、安装、配置MariaDB

控制节点y1(192.168.171.20)

yum -y install mariadb mariadb-server python2-PyMySQL
#此包用于openstack的控制端连接mysql所需要的模块,如果不安装,则无法连接数据库

yum -y install libibverbs

2、添加MySQL子配置文件

vim /etc/my.cnf.d/openstack.cnf

#增加如下内容
[mysqld]
bind-address = 192.168.100.30
default-storage-engine = innodb
innodb_file_per_table = on
max_connections = 4096
collation-server = utf8_general_ci
character-set-server = utf8

解释:
bind-address = 192.168.100.11			#控制节点局域网地址
default-storage-engine = innodb 		#默认存储引擎 
innodb_file_per_table = on 				#每张表独立表空间文件
max_connections = 4096 					#最大连接数 
collation-server = utf8_general_ci 		#默认字符集 
character-set-server = utf8				#字符集类型,避免乱码

systemctl enable mariadb
systemctl start mariadb

3、执行MariaDB 安装配置脚本

控制节点y1

mysql_secure_installation
#执行MariaDB安全配置脚本
Enter current password for root (enter for none):			//回车
OK, successfully used password, moving on...
Set root password? [Y/n] Y									//设置root密码?
Remove anonymous users? [Y/n] Y								//删除匿名用户?
 ... Success!
Disallow root login remotely? [Y/n] N						//是否不允许root用户远程登陆?
 ... skipping.
Remove test database and access to it? [Y/n] Y 				//是否删除test测试库?
Reload privilege tables now? [Y/n] Y 						//现在重新加载特权表?

mark

mark

安装RabbitMQ

控制节点y1

yum -y install rabbitmq-server

systemctl enable rabbitmq-server.service
systemctl start rabbitmq-server.service

--
rabbitmqctl add_user openstack RABBIT_PASS
#创建消息队列用户,用于controler和计算节点连接rabbitmq的认证(关联)

rabbitmqctl set_permissions openstack ".*" ".*" ".*"
#配置openstack用户的操作权限(正则,配置读写权限)

#查看rabbitmq插件列表
rabbitmq-plugins list

rabbitmq-plugins enable rabbitmq_management
#开启rabbitmq的web管理界面的插件,端口为15672

ss -natp | grep 5672
#检查端口

mark

mark

可访问192.168.171.20:15672

默认账号和密码是guest,点击login可以登录

mark

5、安装memcached

安装 memcached 是用于存储 session 信息

服务身份验证机制(keystone)使用 Memcached 来缓存令牌

在登录 openstack 的 dashboard 时,会产生一些 session 信息,这些 session 信息会存放到 memcached 中

控制节点y1

yum install -y memcached python-memcached
#python-*模块在OpenStack中起到连接数据库的作用

cat /etc/sysconfig/memcached
#查看Memcached配置文件

vim /etc/sysconfig/memcached 
PORT="11211"					#memcached端口11211
USER="memcached"				#用户memcached
MAXCONN="1024"					#最大连接数1024
CACHESIZE="64"					#字符集大小64位
OPTIONS="-l 127.0.0.1,::1,ct" 	#监听地址,127.0.0.1:本地地址,::是ipv6地址,ct是本地VMnet1地址

--

systemctl enable memcached
systemctl start memcached

netstat -nautp | grep 11211

mark

6、安装etcd

yum -y install etcd
#安装etcd

cd /etc/etcd/
vim etcd.conf
#修改etcd配置文件,全部删除后添加以下配置
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
ETCD_LISTEN_PEER_URLS="http://192.168.100.11:2380"
ETCD_LISTEN_CLIENT_URLS="http://192.168.100.11:2379"
ETCD_NAME="ct"
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.100.11:2380"
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.100.11:2379"
ETCD_INITIAL_CLUSTER="ct=http://192.168.100.11:2380"
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01"
ETCD_INITIAL_CLUSTER_STATE="new"


解释:
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
#数据目录位置
ETCD_LISTEN_PEER_URLS="http://192.168.100.11:2380"
#监听其他etcd member的url(2380端口,集群之间通讯,域名为无效值)
ETCD_LISTEN_CLIENT_URLS="http://192.168.100.11:2379"
#对外提供服务的地址(2379端口,集群内部的通讯端口)
ETCD_NAME="ct"
#集群中节点标识(名称)
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.100.11:2380"
#该节点成员的URL地址,2380端口:用于集群之间通讯
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.100.11:2379"
#对外公告的该节点客户端监听地址
ETCD_INITIAL_CLUSTER="ct=http://192.168.100.11:2380"
#
ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01"
#集群唯一标识
ETCD_INITIAL_CLUSTER_STATE="new"
#初始集群状态,new为静态,若为existing,则表示此ETCD服务将尝试加入已有的集群若为DNS,则表示此集群将作为被加入的对象

mark

mark

systemctl enable etcd.service
systemctl start etcd.service

netstat -anutp | grep 2379
netstat -anutp | grep 2380
#2379为对外提供服务的端口,2380为集群内部之间的通讯端口

mark

这样手动部署openstack环境就完成了!

猜你喜欢

转载自blog.csdn.net/Gloomyumenge/article/details/114968832