云计算openstack核心组件——neutron网络服务(8)
-
控制节点只负责通过 neutron server 响应 API 请求。
-
由独立的网络节点实现数据的交换,路由以及 load balance等高级网络服务。
-
可以通过增加网络节点承担更大的负载。
-
可以部署多个控制节点、网络节点和计算节点。
-
为了支持各种现有或者将来会出现的优秀网络技术。
-
支持分布式部署,获得足够的扩展性。
Neutron Server 接收到创建 network 的请求,通过 Message Queue(RabbitMQ)通知已注册的 Linux Bridge Plugin。 Plugin 将要创建的 network 的信息(例如名称、VLAN ID等)保存到数据库中,并通过 Message Queue 通知运行在各节点上的 Agent。 Agent 收到消息后会在节点上的物理网卡(比如 eth2)上创建 VLAN 设备(比如 eth2.100),并创建 bridge (比如 brqXXX) 桥接 VLAN 设备。
-
plugin 解决的是 What 的问题,即网络要配置成什么样子?而至于如何配置 How 的工作则交由 agent 完成。
-
plugin,agent 和 network provider 是配套使用的,比如上例中 network provider 是 linux bridge,那么就得使用 linux bridge 的 plungin 和 agent;如果 network provider 换成了 OVS 或者物理交换机,plugin 和 agent 也得替换。
-
plugin 的一个主要的职责是在数据库中维护 Neutron 网络的状态信息,这就造成一个问题:所有 network provider 的 plugin 都要编写一套非常类似的数据库访问代码。为了解决这个问题,Neutron 在 Havana 版本实现了一个 ML2(Modular Layer 2)plugin,对 plgin 的功能进行抽象和封装。有了 ML2 plugin,各种 network provider 无需开发自己的 plugin,只需要针对 ML2 开发相应的 driver 就可以了,工作量和难度都大大减少。ML2 会在后面详细讨论。
-
plugin 按照功能分为两类: core plugin 和 service plugin。core plugin 维护 Neutron 的 netowrk, subnet 和 port 相关资源的信息,与 core plugin 对应的 agent 包括 linux bridge, OVS 等; service plugin 提供 routing, firewall, load balance 等服务,也有相应的 agent。后面也会分别详细讨论。
-
vlan type driver 会确保将 vlan100 的信息保存到 Neutron 数据库中,包括 network 的名称,vlan ID 等。
-
linux bridge mechanism driver 会确保各节点上的 linux brige agent 在物理网卡上创建 ID 为 100 的 vlan 设备 和 brige 设备,并将两者进行桥接。
-
Firewall 安全策略位于 router,保护的是某个 project 的所有 network。
-
Security Group 安全策略位于 instance,保护的是单个 instance。
-
Neutron 通过 plugin 和 agent 提供的网络服务。
-
plugin 位于 Neutron server,包括 core plugin 和 service plugin。
-
agent 位于各个节点,负责实现网络服务。
-
core plugin 提供 L2 功能,ML2 是推荐的 plugin。
-
使用最广泛的 L2 agent 是 linux bridage 和 open vswitch。
-
service plugin 和 agent 提供扩展功能,包括 dhcp, routing, load balance, firewall, vpn 等。
一 neutron 控制节点 部署
1. 3 网卡(eth0, eth1, eth2),计算节点 2 网卡(eth0, eth1)
nmtui 图形化界面设置 第三块网卡不启动
vim /etc/sysconfig/network-scripts/ifcfg-ens38 不设置ip地址
2 node1 登录数据库
mysql -uroot -p123
3 创立neutron数据库
CREATE DATABASE neutron;
4 设置密码 本地登录
GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'localhost' \ IDENTIFIED BY 'NEUTRON_DBPASS';
设置密码 远程登录 GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'%' \ IDENTIFIED BY 'NEUTRON_DBPASS';
5 创建neutron用户
openstack user create --domain default --password=nettron neutron
6 创建neutron角色
openstack role add --project service --user neutron admin
7 创建neutron服务
openstack service create --name neutron \
--description ''openstack networking" network
8 创建端口
openstack endpoint create --region RegionOne \ network public http://node1:9696
openstack endpoint create --region RegionOne \ network internal http://node1:9696 openstack endpoint create --region RegionOne \ network admin http://node1:9696 9 安装软件包
yum install openstack-neutron openstack-neutron-ml2 \ openvswith openstack-neutron-openvswitch ebtables -y openstack-neutron-openvswitch 简称ovs
10 配置文件 neutron.conf
备份
cp neutron.conf neutron.conf.beifen
配置
cd /etc/neutron/
ls
vim neutron.conf 删除文件原有内容
文件内容在下一章的末尾配置文件
11 配置文件 ml2
cd /etc/neutron/plugins/ml2
vim ml2_conf.ini
[DEFAULT]
[ml2]
type_drivers = flat,vxlan 网络类型
tenant_network_types = vxlan 租户网络类型
mechanism_drivers = openvswitch,l2population 机制驱动
extension_drivers = port_security 端口安全策略
[ml2_type_flat]
[ml2_type_geneve]
[ml2_type_gre]
[ml2_type_vlan]
[ml2_type_vxlan]
vni_ranges = 1:1000 vxlan范围
[securitygroup]
enable_ipset = true
文件内容在下一章的末尾配置文件
12 配置文件
vim openvswitch_agent.ini
[DEFAULT]
[agent]
tunnel_types = vxlan
l2_population = True
[ovs]
tunnel_bridge = br-tun
local_ip = 192.168.254.63
bridge_mappings =
[securitygroup]
firewall_driver = iptables_hybrid
enable_security_group = true
[xenapi]
13 配置文件
cd /etc/neutron
ls
vim l3_agent.ini
[DEFAULT]
interface_driver = openvswitch
external_network_bridge = br-ex
[agent]
[ovs]
14 配置文件
cd /etc/neutron
ls
vim dhcp_agent.ini
[DEFAULT]
interface_driver = openvswitch
dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq
enable_isolated_metadata = true
[agent]
[ovs]
15 配置文件
cd /etc/neutron
ls
vim metadata_agent.ini
[DEFAULT]
nova_metadata_ip = controller
metadata_proxy_shared_secret = METADATA_SECRET
[agent]
[cache]
16 修改nova 配置文件
cd /etc/nova/
vim nova.conf
url = http://controller:9696 auth_url = http://controller:35357 auth_type = password project_domain_name = default user_domain_name = default region_name = RegionOne project_name = service username = neutron password = NEUTRON_PASS service_metadata_proxy = true metadata_proxy_shared_secret = METADATA_SECRET
17 建立软连接
ln -s /etc/neutron/plugins/ml2/ml2_conf.ini /etc/neutron/plugin.ini
18 同步数据库
su -s /bin/sh -c "neutron-db-manage --config-file /etc/neutron/neutron.conf \ --config-file /etc/neutron/plugins/ml2/ml2_conf.ini upgrade head" neutron
19 启动nova api
systemctl restart openstack-nova-api.service
20 启动5项服务
systemctl start neutron-server.service \ neutron-dhcp-agent.service \ neutron-metadata-agent.service \
neutron-openvswitch-agent \
openvswitch
开机自启
systemctl enable neutron-server.service \ neutron-dhcp-agent.service \ neutron-metadata-agent.service \
neutron-openvswitch-agent \
openvswitch
21 布置外网用的网桥 连接第三块网卡 没有ip
vim l3_agent.ini
[DEFAULT]
interface_driver = openvswitch
external_network_bridge = br-ex 路由连接到br-ex上面 br-ex连接到第3块网卡
[agent]
[ovs]
ovs-vsctl add-br br-ex 创建br-ex的网桥
ovs-vsctl del-br br-ex 删除br-ex的网桥
ovs-vsctl show 显示查看
ovs-vsctl add-port br-ex ens38 br-ex 端口连接到第三块网卡ens38
ovs-vsctl show 显示查看 连接到一起了
22 开启路由agent
systemctl enable neutron-l3-agent.service
systemctl start neutron-l3-agent.service
查看状态
neutron agent-list
openstack network agent list
openstack compute service list 查看计算服务
nova service-list
openstack network service list
控制节点部署完成
二 neutron 计算节点 部署
1 下载包
yum install openvswitch openstack-neutron-openvswitch ebtables ipset -y
2 配置文件
vim /etc/neutron/neutron.conf 没有备注的注释掉
[DEFAULT] transport_url = rabbit://openstack:RABBIT_PASS@controller
[DEFAULT]. auth_strategy = keystone
[keystone_authtoken] auth_uri = http://controller:5000 auth_url = http://controller:35357 memcached_servers = controller:11211 auth_type = password project_domain_name = default user_domain_name = default project_name = service username = neutron password = NEUTRON_PASS
[oslo_concurrency] lock_path = /var/lib/neutron/tmp
3 配置文件
cd /etc/neutron/plugins/ml2/
vim openvswitch_agent.ini
[DEFAULT]
[agent]
tunnel_types = vxlan
l2_population = True
[ovs]
tunnel_bridge = br-tun
local_ip = 192.168.254.63 改成节点的第2个ip
bridge_mappings =
[securitygroup]
firewall_driver = iptables_hybrid
enable_security_group = true
[xenapi]
4 配置文件
vim /etc/nova/nova.conf
[neutron]
url = http://node1:9696 auth_url = http://node1:35357 auth_type = password project_domain_name = default user_domain_name = default region_name = RegionOne project_name = service username = neutron password =neutron
5 启动服务
systemctl restart openstack-nova-compute.service
6开启 neutron 服务
systemctl enable openvswitch neutron-openvswitch-agent
systemctl start openvswitch neutron-openvswitch-agent
在第一台控制节点查看
继续配置其他计算节点
-
控制节点只负责通过 neutron server 响应 API 请求。
-
由独立的网络节点实现数据的交换,路由以及 load balance等高级网络服务。
-
可以通过增加网络节点承担更大的负载。
-
可以部署多个控制节点、网络节点和计算节点。
-
为了支持各种现有或者将来会出现的优秀网络技术。
-
支持分布式部署,获得足够的扩展性。
Neutron Server 接收到创建 network 的请求,通过 Message Queue(RabbitMQ)通知已注册的 Linux Bridge Plugin。 Plugin 将要创建的 network 的信息(例如名称、VLAN ID等)保存到数据库中,并通过 Message Queue 通知运行在各节点上的 Agent。 Agent 收到消息后会在节点上的物理网卡(比如 eth2)上创建 VLAN 设备(比如 eth2.100),并创建 bridge (比如 brqXXX) 桥接 VLAN 设备。
-
plugin 解决的是 What 的问题,即网络要配置成什么样子?而至于如何配置 How 的工作则交由 agent 完成。
-
plugin,agent 和 network provider 是配套使用的,比如上例中 network provider 是 linux bridge,那么就得使用 linux bridge 的 plungin 和 agent;如果 network provider 换成了 OVS 或者物理交换机,plugin 和 agent 也得替换。
-
plugin 的一个主要的职责是在数据库中维护 Neutron 网络的状态信息,这就造成一个问题:所有 network provider 的 plugin 都要编写一套非常类似的数据库访问代码。为了解决这个问题,Neutron 在 Havana 版本实现了一个 ML2(Modular Layer 2)plugin,对 plgin 的功能进行抽象和封装。有了 ML2 plugin,各种 network provider 无需开发自己的 plugin,只需要针对 ML2 开发相应的 driver 就可以了,工作量和难度都大大减少。ML2 会在后面详细讨论。
-
plugin 按照功能分为两类: core plugin 和 service plugin。core plugin 维护 Neutron 的 netowrk, subnet 和 port 相关资源的信息,与 core plugin 对应的 agent 包括 linux bridge, OVS 等; service plugin 提供 routing, firewall, load balance 等服务,也有相应的 agent。后面也会分别详细讨论。
-
vlan type driver 会确保将 vlan100 的信息保存到 Neutron 数据库中,包括 network 的名称,vlan ID 等。
-
linux bridge mechanism driver 会确保各节点上的 linux brige agent 在物理网卡上创建 ID 为 100 的 vlan 设备 和 brige 设备,并将两者进行桥接。
-
Firewall 安全策略位于 router,保护的是某个 project 的所有 network。
-
Security Group 安全策略位于 instance,保护的是单个 instance。
-
Neutron 通过 plugin 和 agent 提供的网络服务。
-
plugin 位于 Neutron server,包括 core plugin 和 service plugin。
-
agent 位于各个节点,负责实现网络服务。
-
core plugin 提供 L2 功能,ML2 是推荐的 plugin。
-
使用最广泛的 L2 agent 是 linux bridage 和 open vswitch。
-
service plugin 和 agent 提供扩展功能,包括 dhcp, routing, load balance, firewall, vpn 等。
一 neutron 控制节点 部署
1. 3 网卡(eth0, eth1, eth2),计算节点 2 网卡(eth0, eth1)
nmtui 图形化界面设置 第三块网卡不启动
vim /etc/sysconfig/network-scripts/ifcfg-ens38 不设置ip地址
2 node1 登录数据库
mysql -uroot -p123
3 创立neutron数据库
CREATE DATABASE neutron;
4 设置密码 本地登录
GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'localhost' \ IDENTIFIED BY 'NEUTRON_DBPASS';
设置密码 远程登录 GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'%' \ IDENTIFIED BY 'NEUTRON_DBPASS';
5 创建neutron用户
openstack user create --domain default --password=nettron neutron
6 创建neutron角色
openstack role add --project service --user neutron admin
7 创建neutron服务
openstack service create --name neutron \
--description ''openstack networking" network
8 创建端口
openstack endpoint create --region RegionOne \ network public http://node1:9696
openstack endpoint create --region RegionOne \ network internal http://node1:9696 openstack endpoint create --region RegionOne \ network admin http://node1:9696 9 安装软件包
yum install openstack-neutron openstack-neutron-ml2 \ openvswith openstack-neutron-openvswitch ebtables -y openstack-neutron-openvswitch 简称ovs
10 配置文件 neutron.conf
备份
cp neutron.conf neutron.conf.beifen
配置
cd /etc/neutron/
ls
vim neutron.conf 删除文件原有内容
文件内容在下一章的末尾配置文件
11 配置文件 ml2
cd /etc/neutron/plugins/ml2
vim ml2_conf.ini
[DEFAULT]
[ml2]
type_drivers = flat,vxlan 网络类型
tenant_network_types = vxlan 租户网络类型
mechanism_drivers = openvswitch,l2population 机制驱动
extension_drivers = port_security 端口安全策略
[ml2_type_flat]
[ml2_type_geneve]
[ml2_type_gre]
[ml2_type_vlan]
[ml2_type_vxlan]
vni_ranges = 1:1000 vxlan范围
[securitygroup]
enable_ipset = true
文件内容在下一章的末尾配置文件
12 配置文件
vim openvswitch_agent.ini
[DEFAULT]
[agent]
tunnel_types = vxlan
l2_population = True
[ovs]
tunnel_bridge = br-tun
local_ip = 192.168.254.63
bridge_mappings =
[securitygroup]
firewall_driver = iptables_hybrid
enable_security_group = true
[xenapi]
13 配置文件
cd /etc/neutron
ls
vim l3_agent.ini
[DEFAULT]
interface_driver = openvswitch
external_network_bridge = br-ex
[agent]
[ovs]
14 配置文件
cd /etc/neutron
ls
vim dhcp_agent.ini
[DEFAULT]
interface_driver = openvswitch
dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq
enable_isolated_metadata = true
[agent]
[ovs]
15 配置文件
cd /etc/neutron
ls
vim metadata_agent.ini
[DEFAULT]
nova_metadata_ip = controller
metadata_proxy_shared_secret = METADATA_SECRET
[agent]
[cache]
16 修改nova 配置文件
cd /etc/nova/
vim nova.conf
url = http://controller:9696 auth_url = http://controller:35357 auth_type = password project_domain_name = default user_domain_name = default region_name = RegionOne project_name = service username = neutron password = NEUTRON_PASS service_metadata_proxy = true metadata_proxy_shared_secret = METADATA_SECRET
17 建立软连接
ln -s /etc/neutron/plugins/ml2/ml2_conf.ini /etc/neutron/plugin.ini
18 同步数据库
su -s /bin/sh -c "neutron-db-manage --config-file /etc/neutron/neutron.conf \ --config-file /etc/neutron/plugins/ml2/ml2_conf.ini upgrade head" neutron
19 启动nova api
systemctl restart openstack-nova-api.service
20 启动5项服务
systemctl start neutron-server.service \ neutron-dhcp-agent.service \ neutron-metadata-agent.service \
neutron-openvswitch-agent \
openvswitch
开机自启
systemctl enable neutron-server.service \ neutron-dhcp-agent.service \ neutron-metadata-agent.service \
neutron-openvswitch-agent \
openvswitch
21 布置外网用的网桥 连接第三块网卡 没有ip
vim l3_agent.ini
[DEFAULT]
interface_driver = openvswitch
external_network_bridge = br-ex 路由连接到br-ex上面 br-ex连接到第3块网卡
[agent]
[ovs]
ovs-vsctl add-br br-ex 创建br-ex的网桥
ovs-vsctl del-br br-ex 删除br-ex的网桥
ovs-vsctl show 显示查看
ovs-vsctl add-port br-ex ens38 br-ex 端口连接到第三块网卡ens38
ovs-vsctl show 显示查看 连接到一起了
22 开启路由agent
systemctl enable neutron-l3-agent.service
systemctl start neutron-l3-agent.service
查看状态
neutron agent-list
openstack network agent list
openstack compute service list 查看计算服务
nova service-list
openstack network service list
控制节点部署完成
二 neutron 计算节点 部署
1 下载包
yum install openvswitch openstack-neutron-openvswitch ebtables ipset -y
2 配置文件
vim /etc/neutron/neutron.conf 没有备注的注释掉
[DEFAULT] transport_url = rabbit://openstack:RABBIT_PASS@controller
[DEFAULT]. auth_strategy = keystone
[keystone_authtoken] auth_uri = http://controller:5000 auth_url = http://controller:35357 memcached_servers = controller:11211 auth_type = password project_domain_name = default user_domain_name = default project_name = service username = neutron password = NEUTRON_PASS
[oslo_concurrency] lock_path = /var/lib/neutron/tmp
3 配置文件
cd /etc/neutron/plugins/ml2/
vim openvswitch_agent.ini
[DEFAULT]
[agent]
tunnel_types = vxlan
l2_population = True
[ovs]
tunnel_bridge = br-tun
local_ip = 192.168.254.63 改成节点的第2个ip
bridge_mappings =
[securitygroup]
firewall_driver = iptables_hybrid
enable_security_group = true
[xenapi]
4 配置文件
vim /etc/nova/nova.conf
[neutron]
url = http://node1:9696 auth_url = http://node1:35357 auth_type = password project_domain_name = default user_domain_name = default region_name = RegionOne project_name = service username = neutron password =neutron
5 启动服务
systemctl restart openstack-nova-compute.service
6开启 neutron 服务
systemctl enable openvswitch neutron-openvswitch-agent
systemctl start openvswitch neutron-openvswitch-agent
在第一台控制节点查看
继续配置其他计算节点