Linux----Docker的网络类型详解

实验部署docker-ce

安装依赖包
yum install -y yum-utils device-mapper-persistent-data lvm2

加载docker源
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

安装docker
yum install -y docker-ce


永久关闭保护功能
setenforce 0
vim /etc/selinux/config
SELINUX=disabled(enabled改为disabled)

开启docker服务
systemctl start docker
systemctl enable docker

镜像加速
cd /etc/docker	服务开启之后生成
tee /etc/docker/daemon.json <<-'EOF'
{
  "registry-mirrors": ["https://o0lhkgnw.mirror.aliyuncs.com"]
} 
EOF

重新加载
systemctl daemon-reload

重启服务
systemctl restart docker

查看网卡信息,分析新虚拟出的网卡docker:0

Docker使用Linux桥接

  • 在宿主机虚拟一个Docker容器网桥(docker0),Docker启动一个容器时会根据Docker网桥的网段分配给容器一个IP地址,称为Container-IP,同时Docker网桥是每个容器的默认网关。因为在同一宿主机内的容器都接入同一个网桥,这样容器之间就能够通过容器的Container-IP直接通信。
  • Docker网桥是宿主机虚拟出来的,并不是真实存在的网络设备,外部网络是无法寻址到的,这也意味着外部网络无法通过直接Container-IP访问到容器。如果容器希望外部访问能够访问到,可以通过映射容器端口到宿主主机(端口映射),即docker run创建容器时候通过 -p 或 -P 参数来启用,访问容器的时候就通过[宿主机IP]:[容器端口]访问容器。

四类网络模式

[root@localhost docker]# docker network ls
NETWORK ID          NAME                DRIVER              SCOPE
9467580a69ac        bridge              bridge              local
273e60cc2f2f        host                host                local
cb945719a9fc        none                null                local
Docker网络模式 配置 说明
host模式 –net=host 容器和宿主机共享Network namespace。
container模式 -net=container:NAME_or_ID 容器和另外一个容器共享Network namespace。 kubernetes中的pod就是多个容器共享一个Network namespace。
none模式 –net=none 容器有独立的Network namespace,但并没有对其进行任何网络设置,如分配veth pair 和网桥连接,配置IP等。
bridge模式 –net=bridge 默认模式


host模式

  • 如果启动容器的时候使用host模式,那么这个容器将不会获得一个独立的Network Namespace,而是和宿主机共用一个Network Namespace。容器将不会虚拟出自己的网卡,配置自己的IP等,而是使用宿主机的IP和端口。但是,容器的其他方面,如文件系统、进程列表等还是和宿主机隔离的。
  • 使用host模式的容器可以直接使用宿主机的IP地址与外界通信,容器内部的服务端口也可以使用宿主机的端口,不需要进行NAT,host最大的优势就是网络性能比较好,但是docker host上已经使用的端口就不能再用了,网络的隔离性不好。


container模式

  • 这个模式指定新创建的容器和已经存在的一个容器共享一个 Network Namespace,而不是和宿主机共享。新创建的容器不会创建自己的网卡,配置自己的 IP,而是和一个指定的容器共享 IP、端口范围等。同样,两个容器除了网络方面,其他的如文件系统、进程列表等还是隔离的。两个容器的进程可以通过 lo 网卡设备通信。


none模式

  • 使用none模式,Docker容器拥有自己的Network Namespace,但是,并不为Docker容器进行任何网络配置。也就是说,这个Docker容器没有网卡、IP、路由等信息。需要我们自己为Docker容器添加网卡、配置IP等。
  • 这种网络模式下容器只有lo回环网络,没有其他网卡。none模式可以在容器创建时通过--network=none来指定。这种类型的网络没有办法联网,封闭的网络能很好的保证容器的安全性。


bridge模式

  • 当Docker进程启动时,会在主机上创建一个名为docker0的虚拟网桥,此主机上启动的Docker容器会连接到这个虚拟网桥上。虚拟网桥的工作方式和物理交换机类似,这样主机上的所有容器就通过交换机连在了一个二层网络中。
  • 从docker0子网中分配一个IP给容器使用,并设置docker0的IP地址为容器的默认网关。在主机上创建一对虚拟网卡veth pair设备,Docker将veth pair设备的一端放在新创建的容器中,并命名为eth0(容器的网卡),另一端放在主机中,以vethxxx这样类似的名字命名,并将这个网络设备加入到docker0网桥中。可以通过brctl show命令查看。
  • bridge模式是docker的默认网络模式,不写--net参数,就是bridge模式。使用docker run -p时,docker实际是在iptables做了DNAT规则,实现端口转发功能。可以使用iptables -t nat -vnL查看。

docker用户自定义网络使用命令

创建一个brige网络类型,指定固定IP地址

[root@localhost docker]# docker network create --subnet=172.18.0.0/16 mynetwork
56a206ab3d0a3509f1f17d64e040d97fe84376a263880caeb28d290bd74de697

查看创建的网络类型
[root@localhost docker]# docker network ls
NETWORK ID          NAME                DRIVER              SCOPE
a3ee88df59a1        bridge              bridge              local
f2df63cfe13b        host                host                local
56a206ab3d0a        mynetwork           bridge              local
338bdbd781d9        none                null                local

自定义网络IP固定(brige模式)
docker run -itd --name test --net mynetwork --ip 172.18.0.10 centos:7 /bin/bash

查看容器状态(UP)
[root@localhost docker]# docker ps -a
CONTAINER ID        IMAGE               COMMAND             CREATED             STATUS              PORTS               NAMES
cd0310d3b16a        centos:7            "/bin/bash"         51 seconds ago      Up 49 seconds                           test


进入容器查看网卡信息
[root@localhost docker]# docker exec -it cd0310d3b16a /bin/bash
[root@cd0310d3b16a /]# yum install net-tools -y
[root@cd0310d3b16a /]# ifconfig
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 172.18.0.10  netmask 255.255.0.0  broadcast 172.18.255.255
        ether 02:42:ac:12:00:0a  txqueuelen 0  (Ethernet)
        RX packets 3298  bytes 15103117 (14.4 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 3183  bytes 175242 (171.1 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
        loop  txqueuelen 1  (Local Loopback)
        RX packets 72  bytes 9648 (9.4 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 72  bytes 9648 (9.4 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0



定义容器网络并且通信

  • 我们可以将现有的容器连接到一个或者多个网络。容器可以连接到使用不同网络驱动程序的网络,比如连接到bridge网络或者overlay网络。连接后,容器可以使用其他容器的IP地址或名称进行通信。

一台服务器中创建三个运行的容器,且三个容器分别连接到两个不同的网段中

容器container1连接到默认的桥接网络bridge

容器container2连接到默认的网络的bridge,同时它还连接到自定义的桥接网络my-net中

容器container3连接到自定义的桥接网络my-net中

先创建并且运行两个容器container1和container2

[root@localhost docker]# docker run -itd --name=container1 centos:7
1da653049e31cc1ee3f7d2d47456d6bc1478b41e83c7457ea821be2b610c98c3
[root@localhost docker]# docker run -itd --name=container2 centos:7
a246987720ae356498db52b98d866cd7d70316e8e78281bb1e9df782db5296f0
[root@localhost docker]# docker ps -a
CONTAINER ID        IMAGE               COMMAND             CREATED             STATUS              PORTS               NAMES
a246987720ae        centos:7            "/bin/bash"         4 seconds ago       Up 4 seconds                            container2
1da653049e31        centos:7            "/bin/bash"         9 seconds ago       Up 8 seconds                            container1
cd0310d3b16a        centos:7            "/bin/bash"         15 minutes ago      Up 15 minutes                           test

创建一个隔离的桥接网络mynet

[root@localhost docker]# docker network create -d bridge --subnet 172.100.0.0/16 my-net
5f1aea3bb493aa6ff0bf82f6ef514e9f0fc6c0bd052620af6313689081e52b6e
[root@localhost docker]# docker network ls
NETWORK ID          NAME                DRIVER              SCOPE
a3ee88df59a1        bridge              bridge              local
f2df63cfe13b        host                host                local
5f1aea3bb493        my-net              bridge              local
56a206ab3d0a        mynetwork           bridge              local
338bdbd781d9        none                null                local

将容器container2加入mynet网络中,查看网卡信息

[root@localhost docker]# docker network connect my-net container2


进入container2容器查看网卡信息
[root@localhost docker]# docker exec -it a246987720ae /bin/bash
[root@a246987720ae /]# yum insatll -y net-tools 
[root@a246987720ae /]# ifconfig
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 172.17.0.3  netmask 255.255.0.0  broadcast 172.17.255.255
        ether 02:42:ac:11:00:03  txqueuelen 0  (Ethernet)
        RX packets 3213  bytes 15108340 (14.4 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 2731  bytes 151141 (147.5 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

eth1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 172.100.0.2  netmask 255.255.0.0  broadcast 172.100.255.255
        ether 02:42:ac:64:00:02  txqueuelen 0  (Ethernet)
        RX packets 22  bytes 2406 (2.3 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 0  bytes 0 (0.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

创建并且运行container3容器并且指定网络

[root@localhost docker]# docker run -itd --name=container3 --network=my-net --ip=172.100.0.100 centos:7
964e0f72948ba057ebd2e757502e7e5884b5e4bcba97a9d55ebbbbb4bc4dab38

进入container3查看网卡信息
[root@localhost docker]# docker exec -it 964e0f72948b /bin/bash
[root@964e0f72948b /]# yum install net-tools -y
[root@964e0f72948b /]# ifconfig
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 172.100.0.100  netmask 255.255.0.0  broadcast 172.100.255.255
        ether 02:42:ac:64:00:64  txqueuelen 0  (Ethernet)
        RX packets 4032  bytes 15310908 (14.6 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 3601  bytes 198567 (193.9 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

容器间的通信,验证container1ping通container2和container3

进入container1容器查看网卡信息
[root@localhost docker]# docker exec -it 1da653049e31 /bin/bash
[root@1da653049e31 /]# yum install net-tools -y
[root@1da653049e31 /]# ifconfig
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 172.17.0.2  netmask 255.255.0.0  broadcast 172.17.255.255
        ether 02:42:ac:11:00:02  txqueuelen 0  (Ethernet)
        RX packets 1437  bytes 15002702 (14.3 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 1384  bytes 78560 (76.7 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0


ping测试,进入container2

[root@localhost docker]# docker exec -it a246987720ae /bin/bash
[root@a246987720ae /]# ifconfig
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 172.17.0.3  netmask 255.255.0.0  broadcast 172.17.255.255
        ether 02:42:ac:11:00:03  txqueuelen 0  (Ethernet)
        RX packets 3225  bytes 15109292 (14.4 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 2746  bytes 152267 (148.6 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

eth1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 172.100.0.2  netmask 255.255.0.0  broadcast 172.100.255.255
        ether 02:42:ac:64:00:02  txqueuelen 0  (Ethernet)
        RX packets 23  bytes 2448 (2.3 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 0  bytes 0 (0.0 B)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
  • container2pingcontainer1

[root@a246987720ae /]# ping 172.17.0.2
PING 172.17.0.2 (172.17.0.2) 56(84) bytes of data.
64 bytes from 172.17.0.2: icmp_seq=1 ttl=64 time=0.066 ms
64 bytes from 172.17.0.2: icmp_seq=2 ttl=64 time=0.083 ms
64 bytes from 172.17.0.2: icmp_seq=3 ttl=64 time=0.060 ms
64 bytes from 172.17.0.2: icmp_seq=4 ttl=64 time=0.152 ms
64 bytes from 172.17.0.2: icmp_seq=5 ttl=64 time=0.056 ms
 

  • container2pingcontainer13

[root@a246987720ae /]# ping 172.100.0.100
PING 172.100.0.100 (172.100.0.100) 56(84) bytes of data.
64 bytes from 172.100.0.100: icmp_seq=1 ttl=64 time=0.071 ms
64 bytes from 172.100.0.100: icmp_seq=2 ttl=64 time=0.135 ms
64 bytes from 172.100.0.100: icmp_seq=3 ttl=64 time=0.055 ms
64 bytes from 172.100.0.100: icmp_seq=4 ttl=64 time=0.138 ms
64 bytes from 172.100.0.100: icmp_seq=5 ttl=64 time=0.157 ms
64 bytes from 172.100.0.100: icmp_seq=6 ttl=64 time=0.054 ms
 

发布了78 篇原创文章 · 获赞 5 · 访问量 2558

猜你喜欢

转载自blog.csdn.net/qq397750142/article/details/105588839
今日推荐