openstack运行系统环境基础配置以及安装openstack平台基础服务安装配置案例

一,配置前环境准备及要求

此案例我们使用三台虚拟机来进行部署,三台分别为控制节点,计算节点

三台节点的物理环境
  • CPU:双核双线程-CPU虚拟化开启

  • 内存:8G 硬盘:300G+300G

  • 双网卡:VM1-(局域网,192网段), NAT-(20网段)

  • 操作系统:Centos 7.6(1810)-最小化安装

    二,网络规划如下图

    在这里插入图片描述

    三,部署操作系统及OpenStack运行环境

1,虚拟机系统配置(以下三台节点都做)

1.1主机名

hostnamectl set-hostname ct(c1,c2)
bash

1.2核心防护,防火墙关闭

systemctl stop firewalld
setenforce 0

1.3 检查yum

yum clean all // 清空yum仓库
yum makecache //建立新缓存
yum repolist  // 查看yum的repo列表

如检查之后出现错误,可自行配置,配置之前先挂载光盘

1.4 挂载光盘

vi /etc/fstab 
/dev/cdrom /mnt iso9660 defaults 0 0

1.5修改Yum源

cd /etc/yum.repos.d/  // yum目录
mkdir backup // 新建目录,名字为backup
mv C* backup // 把所有的yum源文件全部剪切到backup下做备份,防止误删除
cp backup/CentOS-BXXX.repo  local.repo // 拷贝模板,模板名称叫local.repo
vi local.repo //进入模板
 1[base]
      2 name=CentOS-$releasever - Base
      3 mirrorlist=http://mirrorlist.centos.org/?release=$releasever&arch=$basearch&repo=os&infra=$infra
      4 baseurl=file:///mnt
      5 gpgcheck=0
      6 #gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7 // 将此行进行注释
      7 enable=1

1.6 添加ip

  • nat
vi /etc/sysconfig/network-scripts/ifcfg-ens33
BOOTPROTO=static

IPV4_ROUTE_METRIC=90                      ###调由优先级,NAT网卡优先

ONBOOT=yes

IPADDR=20.0.0.70/80/90

NETMASK=255.255.255.0

GATEWAY=20.0.0.2

  • VM
vi /etc/sysconfig/network-scripts/ifcfg-ens37

BOOTPROTO=static

ONBOOT=yes

IPADDR=192.168.100.70/80/90

NETMASK=255.255.255.0

#GATEWAY=192.168.100.2

配完之后重启

1,7 配置DNS

vim /etc/resolv.conf
nameserver 114.114.114.114

1.8 配置host

vi /etc/hosts

192.168.100.70  ct

192.168.100.80  c1

192.168.100.90 c2


1,9免交互

  • 非对称密钥
ssh-keygen -t rsa
ssh-copy-id ct /ssh-copy-id c1/ssh-copy-id c2

1.10 安装基础环境包

  • 装环境依赖包
yum -y install net-tools bash-completion vim gcc gcc-c++ make pcre  pcre-devel expat-devel cmake  bzip2 

yum -y install centos-release-openstack-train python openstackclient openstack-selinux openstack-utils

1.11 时间同步+周期性计划任务

  • 控制节点:
yum install chrony -y
vim /etc/chrony.conf 

#######注释掉4行#号
#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst

#####添加:
server ntp6.aliyun.com.iburst
allow 192.168.100.0/24


#####重启
systemctl enable chronyd
systemctl restart chronyd
chronyc sources   //查询同步信息

如下图所示:
在这里插入图片描述

  • 设置周期性任务
[root@ct ~]# crontab –l   //此步可以先进行crontab-e 进去之后保存退出然后再进行 crontab -l

crontab -e

*/2 * * * * /usr/bin/chronyc sources >> /var/log/chronyc.log


  • 两台计算节点设置时间同步
vim /etc/chrony.conf
server ct iburst
 systemctl enable chronyd
 systemctl restart chronyd
chronyc sources


如下图:
在这里插入图片描述

  • 两台计算节点设置周期性计划任务
[root@c1 ~]# crontab –l

crontab -e

*/2 * * * * /usr/bin/chronyc sources >> /var/log/chronyc.log


四,配置OpenStack平台基础服务

以下都在控制节点配置

1,安装、配置MariaDB

[root@ct ~]# yum -y install mariadb mariadb-server python2-PyMySQL
#此包用于openstack的控制端连接mysql所需要的模块,如果不安装,则无法连接数据库;此包只安装在控制端
[root@ct ~]# yum -y install libibverbs
  • 添加MySQL子配置文件,增加如下内容
 [root@ct ~]# vim /etc/my.cnf.d/openstack.cnf
[mysqld] 
bind-address = 192.168.100.11                   #控制节点局域网地址
default-storage-engine = innodb              #默认存储引擎 
innodb_file_per_table = on                         #每张表独立表空间文件
max_connections = 4096                             #最大连接数 
collation-server = utf8_general_ci              #默认字符集 
character-set-server = utf8

  • 开机自启动、开启服务
[root@ct my.cnf.d]# systemctl enable mariadb
[root@ct my.cnf.d]# systemctl start mariadb
  • 执行MariaDB 安全配置脚本


[root@ct my.cnf.d]# mysql_secure_installation
Enter current password for root (enter for none): #回车
OK, successfully used password, moving on...
Set root password? [Y/n] Y
Remove anonymous users? [Y/n] Y
 ... Success!
Disallow root login remotely? [Y/n] N
 ... skipping.
Remove test database and access to it? [Y/n] Y 
Reload privilege tables now? [Y/n] Y 

2、安装RabbitMQ

  • 所有创建虚拟机的指令,控制端都会发送到rabbitmq,node节点监听rabbitmq
[root@ct ~]# yum -y install rabbitmq-server
  • 配置服务,启动RabbitMQ服务,并设置其开机启动。
[root@ct ~]# systemctl enable rabbitmq-server.service
[root@ct ~]# systemctl start rabbitmq-server.service
  • 创建消息队列用户,用于controler和node节点连接rabbitmq的认证
[root@ct ~]# rabbitmqctl add_user openstack RABBIT_PASS Creating user "openstack"
  • 配置openstack用户的操作权限(正则,配置读写权限)
[root@ct ~]# rabbitmqctl set_permissions openstack ".*" ".*" ".*" Setting permissions for user "openstack" in vhost "/" #可查看25672和5672 两个端口(5672是Rabbitmq默认端口,25672是Rabbit的测试工具CLI的端口)
#可查看25672和5672 两个端口(5672是Rabbitmq默认端口,25672是Rabbit的测试工具CLI的端口)

[root@ct ~]# netstat -natp | grep 5672 tcp   
     0      0 0.0.0.0:25672           0.0.0.0:*               LISTEN      21580/beam.smp  
    tcp6       0      0 :::5672                 :::*                    LISTEN      21580/beam.smp     
     [root@ct ~]# ss -anpt | grep 5672
    LISTEN     0      128          *:25672                    *:*                   users:(("beam.smp",pid=21580,fd=46)) LISTEN     0      128         :::5672                    :::*                   users:(("beam.smp",pid=21580,fd=55)) 
    [root@ct ~]#
  • 查看rabbitmq插件列表
[root@ct ~]# rabbitmq-plugins list
  • 开启rabbitmq的web管理界面的插件,端口为15672
[root@ct ~]# rabbitmq-plugins enable rabbitmq_management
  • 检查端口(25672 5672 15672)
[root@ct my.cnf.d]# ss -natp | grep 5672
 LISTEN     0      128          *:25672                    *:*       
   users:(("beam.smp",pid=24596,fd=46)) 
   LISTEN     0      128         :::5672                    :::*                   users:(("beam.smp",pid=24596,fd=55))

此时网页可访问:可访问20.0.0.70:15672
默认账号密码均为guest
在这里插入图片描述

3、安装memcached

  • 作用:
    安装memcached是用于存储session信息;服务身份验证机制使用Memcached来缓存令牌 在登录openstack的dashboard时,会产生一些session信息,这些session信息会存放到memcached中

  • 安装Memcached

[root@ct ~]# yum install -y memcached python-memcached
#python-*模块在OpenStack中起到连接数据库的作用
  • 修改Memcached配置文件
[root@ct ~]# cat /etc/sysconfig/memcached 
PORT="11211"
USER="memcached" //文件环境配置
MAXCONN="1024"
CACHESIZE="64"
OPTIONS="-l 127.0.0.1,::1,ct"

[root@ct ~]# systemctl enable memcached
[root@ct ~]# systemctl start memcached
[root@ct ~]# netstat -nautp | grep 11211

4, 安装etcd

[root@ct ~]# yum -y install etcd
  • 修改etcd配置文件
[root@ct ~]# cd /etc/etcd/
[root@ct etcd]# ls
etcd.conf
[root@ct etcd]# vim etcd.conf 
#数据目录位置
#监听其他etcd member的url(2380端口,集群之间通讯,域名为无效值)
#对外提供服务的地址(2379端口,集群内部的通讯端口)
#集群中节点标识(名称)
#该节点成员的URL地址,2380端口:用于集群之间通讯。
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"

ETCD_LISTEN_PEER_URLS="http://192.168.100.11:2380"

ETCD_LISTEN_CLIENT_URLS="http://192.168.100.11:2379"    

ETCD_NAME="ct"     

ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.100.11:2380"

ETCD_ADVERTISE_CLIENT_URLS="http://192.168.100.11:2379

ETCD_INITIAL_CLUSTER="ct=http://192.168.100.11:2380"     

ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster-01"        #集群唯一标识

ETCD_INITIAL_CLUSTER_STATE="new"   #初始集群状态,new为静态,若为existing,则表示此ETCD服务将尝试加入已有的集群

若为DNS,则表示此集群将作为被加入的对象



[root@ct ~]# systemctl enable etcd.service
[root@ct ~]# systemctl start etcd.service
[root@ct ~]# netstat -anutp |grep 2379
[root@ct ~]# netstat -anutp |grep 2380

基础配置完毕,下篇开始组件配置

猜你喜欢

转载自blog.csdn.net/Lihuihui006/article/details/111238914
今日推荐