SR-IOV Study

版权声明:未经作者允许,禁止转载本文任何内容。如需转载请留言。 https://blog.csdn.net/liyuenan93/article/details/82121315

作者:Maxwell Li
日期:2018/08/09
未经作者允许,禁止转载本文任何内容。如需转载请留言。


I/O 虚拟化

I/O 虚拟化技术有三种:Device Emulation、PCI Pass-through 和 SR-IOV。这三种虚拟化技术在不同程度上实现了 I/O 设备的虚拟化功能。

PCI Pass-through

该方式允许将宿主机中的物理 PCI 设备直接分配给虚拟机使用。KVM 支持虚拟机以独占方式访问这个宿主机的 PCI/PCI-E 设备。通过硬件支持的 VT-d 技术将设备分给虚拟机后,在虚拟机看来,设备是物理上连接在 PCI 或者 PCIe 总线上的,客户机对该设备的 I/O 交互操作和实际的物理设备操作完全一样,几乎不需要 KVM 的参与。运行在 VT-d 平台上的 QEMU/KVM 可以分配网卡、磁盘控制器、USB控制器等设备供虚拟机直接使用。

  • 优点:在执行 I/O 操作时绕过 Hypervisor 层,直接访问物理 I/O 设备,极大地提高了性能,可以达到几乎和原生系统一样的性能。
  • 缺点:
    1. 一台服务器主板上允许添加的 PCI 和 PCIe 设备有限,大量使用 VT-d 独立分配设备给客户机,让硬件设备数量增加,增加硬件投资成本。
    2. 对于使用 VT-d 直接分配了设备的客户机,无法进行动态迁移。

SR-IOV

基本原理

VT-d 的性能非常好,但是它的物理设备只能分配给一个虚拟机使用。为了实现多个虚拟机共享一个物理设备,并且达到直接分配的目的,PCI-SIG 组织发布了 SR-IOV (Single Root I/O Virtualization) 规范,它定义了一个标准化的机制用以原生地支持实现多个客户机共享一个设备。SR-IOV 广泛应用在网卡上。

SR-IOV 使得一个单一的功能单元(比如,一个以太网端口)能看起来像多个独立的物理设备。一个带有 SR-IOV 功能的物理设备能被配置为多个功能单元。SR-IOV 使用两种功能:

  • PF(Physical Functions):这是完整的带有 SR-IOV 能力的PCIe 设备。PF 能像普通 PCI 设备那样被发现、管理和配置。
  • VF(Virtual Functions):简单的 PCIe 功能,它只能处理 I/O。每个 VF 都是从 PF 中分离出来的。每个物理硬件都有一个 VF 数目的限制。一个 PF 能被虚拟成多个 VF 用于分配给多个虚拟机。

Hypervisor 能将一个或者多个 VF 分配给一个虚拟机。在某一时刻,一个 VF 只能被分配给一个虚拟机。

SR-IOV

先决条件

  1. 需要 CPU 支持 Intel VT-x 和 VT-d 并在 BIOS 中已启用。
  2. 硬件设备需要支持 SR-IOV 功能。
  3. 需要 QEMU/KAM 的支持。

SR-IOV 部署

官方配置文档请参考:SR-IOV-Passthrough-For-Networking

Step1 配置 BIOS 和 Linux 内核 (Compute)

在所有需要配置 SR-IOV 的计算节点上开启 Intel VT-d 和 SR-IOV 配置。
并且将以下参数添加到 /etc/default/grub 中的 GRUB_CMDLINE_LINUX 配置项中。

扫描二维码关注公众号,回复: 3015521 查看本文章
intel_iommu=on

执行以下命令并重启计算节点。

$ grub2-mkconfig -o /boot/grub2/grub.cfg

Step2 通过 PCI SYS 接口在网卡上创建多个 VF (Compute)

$ echo '0' > /sys/class/net/eth1/device/sriov_numvfs
$ echo '7' > /sys/class/net/eth1/device/sriov_numvfs

Step3 设置 nova-compute 设备白名单 (Compute)

$ crudini --set /etc/nova/nova.conf DEFAULT pci_passthrough_whitelist "{\"devname\": \"eth1\", \"physical_network\": \"physnet\"}"
$ service openstack-nova-compute restart

Step4 配置 sriov_agent.ini 并启动 sriov-agent 服务 (compute)

$ crudini --set /etc/neutron/plugins/ml2/sriov_agent.ini sriov_nic physical_device_mappings physnet:eth1
$ crudini --set /etc/neutron/plugins/ml2/sriov_agent.ini sriov_nic exclude_devices
$ crudini --set /etc/neutron/plugins/ml2/sriov_agent.ini securitygroup firewall_driver neutron.agent.firewall.NoopFirewallDriver

$ systemctl enable neutron-sriov-nic-agent.service
$ systemctl start neutron-sriov-nic-agent.service

Step5 Neutron 使用 ML2 机制驱动来支持 SR-IOV,执行以下步骤配置 SR-IOV 驱动。(controller || network)

$ crudini --set /etc/neutron/plugins/ml2/ml2_conf.ini ml2 tenant_network_types vlan,vxlan
$ crudini --set /etc/neutron/plugins/ml2/ml2_conf.ini ml2 mechanism_drivers openvswitch,sriovnicswitch
$ crudini --set /etc/neutron/plugins/ml2/ml2_conf_sriov.ini ml2_sriov supported_pci_vendor_devs 8086:1520
$ sed -i 's/plugin.ini/& --config-file \/etc\/neutron\/plugins\/ml2\/ml2_conf_sriov.ini/' /usr/lib/systemd/system/neutron-server.service

systemctl daemon-reload
service neutron-server restart

支持的 vendor_id 可以通过以下命令在计算节点上查询。

$ lspci -nn | grep "Ethernet Controller Virtual Function"

Step6 配置 FilterScheduler (controller)

$ crudini --set /etc/nova/nova.conf DEFAULT scheduler_available_filters nova.scheduler.filters.all_filters
$ crudini --set /etc/nova/nova.conf DEFAULT scheduler_default_filters RetryFilter,AvailabilityZoneFilter,RamFilter,ComputeFilter,ComputeCapabilitiesFilter,ImagePropertiesFilter,ServerGroupAntiAffinityFilter,ServerGroupAffinityFilter,PciPassthroughFilter

$ service openstack-nova-scheduler restart

Step7 测试验证

$ wget http://artifacts.opnfv.org/yardstick/third-party/yardstick-loopback-v1_1.img
$ source /opt/admin-openrc.sh
$ glance image-create \
    --name "yardstick" \
    --file yardstick-loopback-v1_1.img \
    --disk-format qcow2 \
    --container-format bare

$ openstack aggregate create --zone=sr-iov sr-iov
$ openstack aggregate add host sr-iov host4
$ openstack aggregate add host sr-iov host5

$ nova secgroup-add-rule default icmp -1 -1 0.0.0.0/0
$ nova secgroup-add-rule default tcp 22 22 0.0.0.0/0

$ neutron net-create ext-net \
    --provider:network_type vlan \
    --provider:segmentation_id 3603 \
    --provider:physical_network physnet \
    --router:external "True"

$ neutron subnet-create \
    --name ext-subnet \
    --gateway 192.168.36.1 \
    --allocation-pool \
    start=192.168.36.223,end=192.168.36.253 \
    ext-net 192.168.36.0/24

$ neutron port-create ext-net --name sr-iov --binding:vnic-type direct

$ openstack server create \
    --flavor m1.large \
    --image yardstick \
    --security-group default \
    --nic port-id=$(neutron port-list | grep sr-iov | awk '{print $2}') \
    --availability-zone sr-iov demo1

架构对比

PCI Pass-through 和 SR-IOV 架构

参考资料:

SR-IOV Configuration Guide
SR-IOV-Passthrough-For-Networking
Redhat OpenStack SR-IOV Configure
SDN Fundamentails for NFV, Openstack and Containers
KVM Introduction: SR-IOV
PCI Passthrough of host network devices
OpenStack Networking
Attaching physical PCI devices to guests

猜你喜欢

转载自blog.csdn.net/liyuenan93/article/details/82121315