揭开docker的神秘面纱?cgroup资源控制篇

一、Cgroup简介

cgroup是control group的简写,是Linux内核提供的一种限制所使用物理资源的机制,这些资源主要包括CPU、内存、blkio。Docker就是采用cgroup来控制容器对操作系统资源的使用。本篇博客暂只介绍部分控制方法

二、Cgroup资源配置方法

Docker通过Cgroup来控制容器使用的资源配额,包括CPU、内存、磁盘三大方面,基本覆盖了常见的资源配额和使用量控制。

Cgroup是Control Groups的缩写,是Linux内核提供的一种可以限制、记录、隔离进程组所使用的物理资源(如CPU、内存、磁盘I/O等等)的机制,被LXC、docker等很多项目用于实现进程资源控制。
Cgroup本身是提供将进程进行分组化管理的功能和接口的基础结构,I/O或内存的分配控制等具体的资源管理是通过该功能来实现的。
这些具体的资源管理功能称为Cgroup子系统,有以下几大子系统实现:

blkio: 设置限制每个块设备的输入输出控制。例如:磁盘,光盘以及usb等等。
CPU: 使用调度程序为cgroup任务提供CPU的访问。
cpuacct: 产生cgroup任务的CPU资源报告。
cpuset: 如果是多核心的CPU,这个子系统会为cgroup任务分配单独的CPU和内存。
devices: 允许或拒绝cgroup任务对设备的访问。
freezer: 暂停和恢复cgroup任务。
memory: 设置每个cgroup的内存限制以及产生内存资源报告。
net_cls: 标记每个网络包以供cgroup方便使用。
ns: 命名空间子系统。
perf_event: 增加了对每个group的监测跟踪的能力,可以监测属于某个特定的group的所有线程以及运行在特定CPU上的线程。

三、使用stress工具测试CPU和内存

下面开始利用stress压力测试工具来测试CPU和内存使用状况。

使用Dockerfile来创建一个基于Centos的stress工具镜像。

[root@localhost ~]# mkdir /opt/stress
[root@localhost ~]# vim /opt/stress/Dockerfile
FROM centos:7
MAINTAINER xing "[email protected]"
RUN yum install -y wget
RUN wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo
RUN yum install -y stress

[root@localhost ~]# cd /opt/stress/
[root@localhost stress]# docker build -t centos:stress .

使用如下命令创建容器,命令中的–cpu-shares参数值不能保证可以获得1个vcpu或者多少GHz的CPU资源,它仅是一个弹性的加权值

[root@localhost stress]# docker run -itd --cpu-shares 100 centos:stress

说明:默认情况下,每个Docker容器的CPU份额都是1024。单独一个容器的份额是没有意义的。只有在同时运行多个容器时,容器的CPU加权的效果才能体现出来。

例如,两个容器A、B的CPU份额分别为1000和500,在CPU进行时间片分配的时候,容器A比容器B多一倍的机会获得CPU的时间片。但分配的结果取决于当时主机和其他容器的运行状态,实际上也无法保证容器A一定能获得CPU时间片。比如容器A的进程一直是空闲的,那么容器B是可以获取比容器A更多的CPU时间片的。极端情况下,例如主机上只运行了一个容器,即使它的CPU份额只有50, 它也可以独占整个主机的CPU资源。

Cgroups只在容器分配的资源紧缺时,即在需要对容器使用的资源进行限制时,才会生效。因此,无法单纯根据某个容器的CPU份额来确定有多少CPU资源分配给它,资源分配结果取决于同时运行的其他容器的CPU分配和容器中进程运行情况。

可以通过cpu share来设置容器使用CPU的优先级,比如启动了两个容器及运行查看CPU使用百分比。

[root@localhost stress]# docker run -tid --name cpu512 --cpu-shares 512 centos:stress stress -c 10   //容器产生10个子函数进程

[root@localhost stress]# docker exec -it f6ab1f994819 bash  //进入容器使用top查看cpu使用情况

#再开启一个容器做比较
[root@localhost stress]# docker run -tid --name cpu1024 --cpu-shares 1024 centos:stress stress -c 10

[root@localhost stress]# docker exec -it ac924d13aba7 bash //进容器使用top对比两个容器的%CPU,比例是1:2

容器分配不同CPU的对比图如下:

在这里插入图片描述在这里插入图片描述

四、CPU周期限制

Docker提供了–cpu-period、–cpu-quota 两个参数控制容器可以分配到的CPU时钟周期。

  • -cpu-period 是用来指定容器对CPU的使用要在多长时间内做一次重新分配。
  • -cpu-quota 是用来指定在这个周期内,最多可以有多少时间用来跑这个容器。

与–cpu-shares不同的是,这种配置是指定一个绝对值,容器对CPU资源的使用绝对不会超过配置的值。

cpu-period和cpu-quota的单位为微秒(μs) 。cpu-period的最小值为1000微秒,最大值为1秒(10^6μs),默认值为0.1秒(100000 μs)。
cpu-quota的值默认为-1,表示不做控制。cpu-period和cpu-quota参数一般联合使用。

例如: 容器进程需要每1秒使用单个CPU的0.2秒时间,可以将cpu-period设置为1000000 (即1秒),cpu-quota设置为200000 (0.2秒)。
当然,在多核情况下,如果允许容器进程完全占用两个CPU,则可以将cpu-period设置为100000 (即0.1秒),cpu-quota设置为200000 (0.2秒)。

[root@localhost stress]# docker run -tid --cpu-period 100000 --cpu-quota 200000 centos:stress

[root@localhost stress]# docker exec -it a1e74331431e bash

[root@a1e74331431e /]# cat /sys/fs/cgroup/cpu/cpu.cfs_period_us
100000

[root@a1e74331431e /]# cat /sys/fs/cgroup/cpu/cpu.cfs_quota_us
200000

在这里插入图片描述

五、CPU Core控制

对多核CPU的服务器,Docker还可以控制容器运行使用哪些CPU内核,即使用–cpuset-cpus参数。
这对具有多CPU的服务器尤其有用,可以对需要高性能计算的容器进行性能最优的配置。

[root@localhost stress]# docker run -tid --name cpu1 --cpuset-cpus 0-1 centos:stress

执行以上命令需要宿主机为双核,表示创建的容器只能用0、1两个内核。最终生成的cgroup的CPU内核配置如下:

[root@localhost stress]# docker exec -it e13197ace9be bash
[root@e13197ace9be /]# cat /sys/fs/cgroup/cpuset/cpuset.cpus
0-1

通过下面指令可以看到容器中进程与CPU内核的绑定关系,达到绑定CPU内核的目的。

[root@localhost stress]# docker exec e13197ace9be taskset -c -p 1     //容器内部第一个进程号pid为1被绑定到指定CPU上运行
pid 1's current affinity list:0,1

在这里插入图片描述

六、CPU配额控制参数的混合使用

通过cpuset-cpus参数指定容器A使用CPU内核0,容器B只使用CPU内核1。
在主机上只有这两个容器使用对应CPU内核的情况,它们各自占用全部的内核资源,cpu-shares没有明显效果。

cpuset-cpus、cpuset-mems 参数只在多核、多内存节点上的服务器上有效,并且必须与实际的物理配置匹配,否则也无法达到资源控制的目的。

在系统具有多个CPU内核的情况下,需要通过cpuset-cpus参数为设置容器CPU内核才能方便地进行测试。

//提前将宿主系统修改为4核心CPU
[root@localhost stress]# docker run -tid --name cpu3 --cpuset-cpus 1 --cpu-shares 512 centos:stress stress -c 1
[root@localhost stress]# docker exec -it 21c55f6e61c1 bash
[root@21c55f6e61c1 /]# exit

[root@localhost stress]# docker run -tid --name cpu4 --cpuset-cpus 3 --cpu-shares 1024 centos:stress stress -c 1
[root@localhost stress]# top     #1查看每个核心的占用
[root@localhost ~]# top
top - 14:43:46 up 6 min,  1 user,  load average: 1.50, 0.66, 0.26
Tasks: 196 total,   3 running, 193 sleeping,   0 stopped,   0 zombie
%Cpu0  :  0.0 us,  0.0 sy,  0.0 ni,100.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu1  :100.0 us,  0.0 sy,  0.0 ni,  0.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu2  :  0.0 us,  0.0 sy,  0.0 ni,100.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu3  :100.0 us,  0.0 sy,  0.0 ni,  0.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu4  :  0.0 us,  0.3 sy,  0.0 ni, 99.7 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu5  :  0.0 us,  0.3 sy,  0.0 ni, 99.7 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu6  :  0.0 us,  0.0 sy,  0.0 ni,100.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
%Cpu7  :  0.0 us,  0.3 sy,  0.0 ni, 99.7 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st
KiB Mem :  1867048 total,   819316 free,   375080 used,   672652 buff/cache
KiB Swap:  4193276 total,  4193276 free,        0 used.  1240640 avail Mem 


[root@localhost stress]# docker exec -it 0eed2c8a20df bash

在这里插入图片描述
总结: 上面的 centos:stress 镜像安装了stress工具,用来测试CPU和内存的负载。通过在两个容器上分别执行stress -c 1命令,将会给系统一个随机负载,产生1个进程。这个进程都反复不停的计算由 rand() 产生随机数的平方根,直到资源耗尽。
观察到宿主机上的CPU使用率,第三个内核的使用率接近100%, 并且一批进程的CPU使用率明显存在2:1的使用比例的对比。

七、内存限额

与操作系统类似,容器可使用的内存包括两部分::物理内存和Swap。
Docker通过下面两组参数来控制容器内存的使用量。

-m或--memory: 设置内存的使用限额,例如100M、1024M。(软限额)
--memory-swap: 设置内存+swap的使用限额。(硬限额)

执行如下命令允许该容器最多使用200M的内存和300M的swap。

[root@localhost stress]# docker run -it -m 200M --memory-swap=300M progrium/stress --vm 1 --vm-bytes 280M
--vm 1: 启动1个内存工作线程。
--vm-bytes 280M: 每个线程分配280M内存。

默认情况下,容器可以使用主机上的所有空闲内存。
与CPU的cgroups配置类似,Docker会自动为容器在目录/sys/fs/cgroup/memory/docker/<容器的完整长ID>中创建相应cgroup配置文件

如果让工作线程分配的内存超过300M,分配的内存超过限额,stress线程报错,容器退出。

[root@localhost ~]# docker run -it -m 200M --memory-swap=300M progrium/stress --vm 1 --vm-bytes 310M
stress: info: [1] dispatching hogs: 0 cpu, 0 io, 1 vm, 0 hdd
stress: dbug: [1] using backoff sleep of 3000us
stress: dbug: [1] --> hogvm worker 1 [8] forked
stress: dbug: [8] allocating 325058560 bytes ...
stress: dbug: [8] touching bytes in strides of 4096 bytes ...
stress: FAIL: [1] (416) <-- worker 8 got signal 9
stress: WARN: [1] (418) now reaping child worker processes
stress: FAIL: [1] (422) kill error: No such process
stress: FAIL: [1] (452) failed run completed in 0s

在这里插入图片描述

八、Block IO 的限制

默认情况下,所有容器能平等地读写磁盘,可以通过设置–blkio-weight参数来改变容器block IO的优先级。
–blkio-weight与–cpu-shares类似,设置的是相对权重值,默认为500。
在下面的例子中,容器A读写磁盘的带宽是容器B的两倍。

[root@localhost ~]# docker run -it --name container_A --blkio-weight 600 centos:stress
[root@31fae45a1dd7 /]# cat /sys/fs/cgroup/blkio/blkio.weight
600


[root@localhost ~]# docker run -it --name container_B --blkio-weight 300 centos:stress
[root@6a61f7116dc2 /]# cat /sys/fs/cgroup/blkio/blkio.weight
300

在这里插入图片描述在这里插入图片描述

九、bps和iops的限制

bps 是byte per second, 每秒读写的数据量。
iops 是io per second, 每秒 IO 的次数。
可通过以下参数控制容器的bps和iops:

--device-read-bps, 限制读某个设备的bps。
--device-write-bps, 限制写某个设备的bps。
--device-read-iops, 限制读某个设备的iops。
--device-write-iops, 限制写某个设备的iops。

下面的示例是限制容器写/dev/sda的速率为5 MB/s。

[root@localhost docker]# docker run -it --device-write-bps /dev/sda:5MB centos:stress

[root@3b3c7202b821 /]# dd if=/dev/zero of=test bs=1M count=1024 oflag=direct   #可以按ctrI+c中断查看
^C21+0 records in
21+0 records out
22020096 bytes (22 MB) copied, 4.20164 s, 5.2 MB/s

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/weixin_51431591/article/details/115329654