Implementación avanzada de Docker de la serie de búsqueda de empleo front-end

  En el artículo anterior, brindamos una introducción detallada a los conceptos de contenedores, imágenes, etc. Este artículo presenta algunas conexiones de red de contenedores, y cómo usamos Dockerfile para crear imágenes para su uso, y cómo usamos Docker en proyectos front-end. para desplegar contenedores.

Este artículo se publicó por primera vez en la cuenta oficial 【前端壹读】. Para obtener más contenido interesante, preste atención a las últimas noticias de la cuenta oficial.

La Internet

  Muchas aplicaciones en los contenedores que desplegamos requieren acceso externo a través de puertos de red, como mysql puerto 3306, mongodb puerto 27017 y redis puerto 6379, etc., no solo acceso externo, sino también entre diferentes contenedores. También se requiere comunicación. Por ejemplo, nuestro contenedor de aplicaciones web necesita conectarse al contenedor mysql o mongodb, todos los cuales involucran comunicación de red.

La asignación de puertos

  Si el contenedor desea permitir el acceso externo a la aplicación, puede especificar el puerto que debe exponerse externamente mediante -Po -pparámetros:

$ docker run -d -P nginx
9226326c42067d282f80dbc18a8a36bf54335b61a84b191a29a5f59d25c9fbc3
复制代码

  Use -Pvinculará un puerto en el host 随机端口y se asignará al puerto dentro del contenedor; observamos el contenedor que acabamos de crear y podemos ver que el puerto aleatorio 49154 está asignado al puerto 80 dentro del contenedor:

$ docker ps -l
CONTAINER ID   IMAGE    CREATED              STATUS              PORTS                                    
9226326c4206   nginx    About a minute ago   Up About a minute   0.0.0.0:49154->80/tcp, :::49154->80/tcp   
复制代码

  Usando el logscomando podemos ver el registro de acceso de nginx:

$ docker logs 9226326c4206
10.197.92.41 - - [16/Mar/2022:01:40:32 +0000] "GET / HTTP/1.1" 304 0 "-" "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.51 Safari/537.36" "-"
复制代码

  docker portPuede permitirnos verificar rápidamente el enlace de los puertos de contenedores:

$ docker port 9226326c4206
80/tcp -> 0.0.0.0:49154
复制代码

  Use -pparámetros para especificar un puerto para mapear:

$ docker run -d -p 3000:80 nginx
复制代码

  También es posible ip:hostPort:containerPortmapear una ip específica usando la especificación de formato:

$ docker run -d -p 127.0.0.1:3000:80 nginx
复制代码

  Omitir el parámetro hostPort asignará automáticamente un puerto al host local, similar -Pal efecto del parámetro:

$ docker run -d -p 127.0.0.1::80 nginx
复制代码

  También puede usar udppara especificar la asignación al puerto udp:

$ docker run -d -p 3000:80/udp nginx
复制代码

  A veces queremos mapear múltiples puertos de un contenedor, podemos usar múltiples parámetros -p:

$ docker run -d 
            -p 8000:8000 \
            -p 8010:8010\
            nginx
复制代码

  O asigne una lista de puertos en un rango:

$ docker run -d -p 8080-8090:8080-8090 nginx
复制代码

modo de red acoplable

  Queremos interconectar múltiples contenedores. Para evitar la interferencia mutua entre diferentes contenedores, podemos establecer diferentes redes de área local para múltiples contenedores, de modo que las redes dentro de la red de área local puedan comunicarse entre sí.

  要理解docker的网络模式,我们首先来看下docker有哪些网络;我们安装docker后,它会自动创建三个网络none、host和brdge,我们使用network ls命令查看:

$ docker network ls
NETWORK ID     NAME      DRIVER    SCOPE
c64d7d519c22   bridge    bridge    local
6306a0b1d150   host      host      local
d058571d4197   none      null      local
复制代码

  我们分别来看下这几个网络的用途;首先是none,none顾名思义,就是什么都没有,该网络关闭了容器的网络功能,我们使用--network=none指定使用none网络:

$ docker run -itd --name=busybox-none --network=none busybox
49f88dd75ae774bea817b27c647506eda5ad581403bfbad0877e8333376ae3b0

docker exec 49f88dd75ae7  ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
2: tunl0@NONE: <NOARP> mtu 1480 qdisc noop qlen 1000
    link/ipip 0.0.0.0 brd 0.0.0.0
3: ip6tnl0@NONE: <NOARP> mtu 1452 qdisc noop qlen 1000
    link/tunnel6 00:00:00:00:00:00:00:00:00:00:00:00:00:00:00:00 brd 00:00:00:00:00:00:00:00:00:00:00:00:00:00:00:00
复制代码

  我们这里使用了busybox镜像,可能有的童鞋对它不了解,这是一个集成压缩了三百多个常用linux命令和工具的软件,它被称为Linux工具里的瑞士军刀,我们这里主要用它的ip命令查看容器的网络详细情况。

  我们看到这个容器除了lo本地环回网卡,没有其他的网卡信息;不仅不能接收信息,也不能对外发送信息,我们用ping命令测试网络情况:

$ docker exec 49f88dd75ae7 ping xieyufei.com
ping: bad address 'xieyufei.com'
复制代码

  这个网络相当于一个封闭的孤岛,那我们不禁会想,这样“自闭”的网络有什么用呢?

自闭了

  封闭意味着隔离,一些对安全性要求高并且不需要联网的应用可以使用none网络。比如某个容器的唯一用途是生成随机密码,就可以放到none网络中避免密码被窃取。

  其次是bridge网络模式,docker安装时会在宿主机上虚拟一个名为docker0的网桥,如果不指定--network,创建的容器默认都会挂载到docker0上,我们通过命令查看宿主机下所有的网桥:

$ brctl show
bridge name     bridge id               STP enabled     interfaces
docker0         8000.02426b8674a4       no         
复制代码

  这里的网桥我们可以把它理解为一个路由器,它把两个相似的网络连接起来,并对网络中的数据进行管理,同时也隔离外界对网桥内部的访问;同一个网桥下的容器之间可以相互通信;我们还是通过busybox查看容器的网络情况

$ docker run -itd --name=busybox-bridge --network=bridge busybox
f45e26e5bb6f94f50061f22937abb132fb9de968fdd59fe7ad524bd81eb2f1b0

$ docker exec f45e26e5bb6f ip a
181: eth0@if182: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue 
    link/ether 02:42:ac:11:00:06 brd ff:ff:ff:ff:ff:ff
    inet 172.17.0.6/16 brd 172.17.255.255 scope global eth0
       valid_lft forever preferred_lft forever
复制代码

  我们看到这里容器多了一个eth0的网卡,它的ip是172.17.0.6

  最后是host网络模式,这种模式禁用了Docker的网络隔离,容器共享了宿主机的网络,我们还是通过busybox来查看容器的网络情况:

$ docker run -itd --name=busybox-host --network=host busybox
2d1f6d7a01f1afe1e725cf53423de1d79d261a3b775f6f97f9e2a62de8f6bb74

$ docker exec 2d1f6d7a01f1 ip a
2: enp4s0f2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast qlen 1000
    link/ether 74:d0:2b:ec:96:8a brd ff:ff:ff:ff:ff:ff
    inet 192.168.0.100/24 brd 192.168.0.255 scope global dynamic noprefixroute enp4s0f2
       valid_lft 37533sec preferred_lft 37533sec
复制代码

  我们发现这里容器的ip地址是192.168.0.100,和我宿主机的ip地址是一样的;host模式其实类似于Vmware的桥接模式,容器没有独立的ip、端口,而是使用宿主机的ip、端口。

  需要注意的是host模式下,不需要添加-p参数,因为它使用的就是主机的IP和端口,添加-p参数后,反而会出现以下警告:

WARNING: Published ports are discarded when using host network mode
复制代码

  host模式由于和宿主机共享网络,因此它的网络模型是最简单最低延迟的模式,容器进程直接与主机网络接口通信,与物理机性能一致。不过host模式也不利于网络自定义配置和管理,所有容器使用相同的ip,不利于主机资源的利用,一些对网络性能要求比较高的容器,可以使用该模式。

容器互联

  我们通过容器互联来测试两个容器在同一个网桥下面是如何进行连接互通的;首先我们自定义一个网桥:

$ docker network create -d bridge my-net
复制代码

  如果对网桥不满意,可以通过rm命令删除它:

$ docker network rm my-net
复制代码

  我们新建两个容器,并且把它们连接到my-net的网络中:

$ docker run -itd --name busybox1 --network my-net busybox
$ docker run -itd --name busybox2 --network my-net busybox
复制代码

  我们让两个容器之间互相ping,发现他们之间能够ping通:

$ docker exec  busybox1 ping busybox2
PING busybox2 (172.23.0.3): 56 data bytes
64 bytes from 172.23.0.3: seq=0 ttl=64 time=0.139 ms
64 bytes from 172.23.0.3: seq=1 ttl=64 time=0.215 ms

$ docker exec  busybox2 ping busybox1
PING busybox1 (172.23.0.2): 56 data bytes
64 bytes from 172.23.0.2: seq=0 ttl=64 time=0.090 ms
64 bytes from 172.23.0.2: seq=1 ttl=64 time=0.224 ms
复制代码

Dockerfile

  我们在前一篇文章中简单提到了Dockerfile的两个命令FROM和RUN,其实它还提供了其他功能强大的命令,我们对它的命令深入讲解;首先我们知道Dockerfile是一个用来构建镜像的文本文件,文本内容包含了一条条构建镜像所需的指令和说明;在docker build命令中我们使用-f参数来指向文件中任意位置的Dockerfile:

$ docker build -f /path/to/Dockerfile
复制代码

FROM指令

  FROM指令用来指定一个基础镜像,它决定了Dockerfile构建出的镜像为何物以及怎样的环境;大多数的Dockerfile,都是以FROM指令开始;它的语法如下:

FROM <image> [AS <name>]
FROM <image>:<tag> [AS <name>]
复制代码

  Dockerfile必须以FROM指令开始,不过它支持在FROM之前由ARG指令定义一个变量:

ARG NG_VERSION=1.19.3
FROM nginx:${NG_VERSION}
CMD /bin/bash
复制代码

多阶段构建

  我们在构建镜像时通常会有多个阶段的镜像需要来进行构建,比如vue项目构建镜像时,我们需要在编译阶段打包出dist文件,还需要在生产运行阶段使用dist文件作为静态资源;如果不使用多阶段构建,我们通常需要两个Dockerfile文件,构建出两个镜像,这样有一个镜像肯定是浪费的。

  Docker从17.05开始,支持多阶段构建,就是我们在Dockerfile中可以使用多个FROM指令,每个FROM指令都可以使用不同的基础镜像,并且每条指令都会开始新阶段的构建;在多阶段构建中,我们可以将资源从一个阶段复制到另一个阶段,在最终镜像中只保留我们所需要的内容。

FROM node

# ...一些操作

FROM nginx

# ...一些操作

COPY --from=0 . .
复制代码

  第二个FROM指令开始一个新的构建阶段,COPY --from=0代表从上一个阶段(即第一阶段)拷贝文件;默认情况下,构建阶段没有命名,可以使用从0开始的整数编号引用它;我们可以给FROM指令加上一个as <Name>作为构建阶段的命名。

FROM node as compile

FROM nginx as serve

COPY --from=compile . .
复制代码

  在后面的例子中,我们会来演示如何使用多阶段构建优化我们的构建过程。

基础镜像选择

  由于基础镜像决定着构建出镜像产物的大小,因此选择一个合适的基础镜像显得十分重要了。如果我们去hub.docker.com查看node的标签,我们会发现除了版本号之外,后面还会带着一些看不懂的单词,什么alpine,什么slime了,这些版本号都代表着什么含义呢?我们简单的了解一下。

docker镜像之间的区别在于底层的操作系统

  首先如果什么都不带,默认latest,那就是完整的镜像版本,如果你还是一个小白,对其他版本没有什么了解的话,那么选它是肯定不会出错的。

  其次是slim版本,slim表示最小安装包,仅包含需要运行指定容器的特定工具集。通过省去较少使用的工具,镜像会更小。如果我们服务器有空间限制且不需要完整版本,就可以使用此镜像。不过使用这个版本时,要进行彻底的测试。

  然后是我们经常会看到的alpine版本,alipine镜像基于alpine linux项目,这是一个社区开发的面向安全应用的轻量级Linux发行版。它的优点就是基于的linux操作系统非常轻量,因此构建出来的镜像也非常的轻量;它的缺点也十分的明显,就是不包含一些有可能会用到的包,并且使用的glibc包等都是阉割版;因此如果我们使用这个版本,也需要进行彻底的测试。

  我们ls看下这三个版本,也能发现它们的大小存在着差异:

$ docker image ls node
REPOSITORY   TAG       IMAGE ID       CREATED        SIZE
node         slim      ffedf4f28439   5 days ago     241MB
node         alpine    d2b383edbff9   3 months ago   170MB
node         latest    a283f62cb84b   3 months ago   993MB
复制代码

  其次是一些Debian的发行版,Debian是一个自由的,稳定得无与伦比操作系统;带有下面一些标签的镜像对应Debian发行版本号。

  • bullseye:Debian 11
  • buster:Debian 10
  • stretch:Debian 9
  • jessie:Debian 8

稳定

RUN指令

  RUN指令用于在镜像容器中执行命令,其有以下两种执行方式:

# shell 执行
RUN <command>
# exec 格式
RUN ["可执行文件", "参数1", "参数2"]
复制代码

  RUN指令常见的用法就是安装包用apt-get,假设我们需要在镜像安装curl:

FROM ubuntu:18.04

RUN apt-get update

RUN apt-get install -y curl
复制代码

  我们知道Dockerfile的指令是分层构建的,每一层都有缓存,假设我们下次添加了一个包wget:

FROM ubuntu:18.04

RUN apt-get update

RUN apt-get install -y curl wget
复制代码

  如果我们下次再次构建时,apt-get update指令也不会执行,使用之前缓存的镜像;而install由于update指令没有执行,可能安装过时的curl和wget版本。

  因此我们通常会把update和install写在一条指令,确保我们的Dockerfiles每次安装的都是包的最新的版本;同时也可以减少镜像层数,减少包的体积:

RUN apt-get update && apt-get install -y curl wget
复制代码

WORKDIR工作目录

  WORKDIR指令可以用来指定工作目录,以后各层的当前目录就被改为指定的工作目录;如果该目录不存在,WORKDIR会自动创建目录。

  很多童鞋把Dockerfile当成Shell脚本来写,因此可能会导致下面的错误:

FROM node:10.15.3-alpine

RUN mkdir /app && cd /app

RUN echo "hello" > world.txt
复制代码

  这里echo的作用是将字符串hell重定向写入到world.txt中;如果我们把这个Dockerfile构建镜像运行后,会发现找不到/app/world.txt;由于在Shell脚本中两次连续运行的命令是同一个进程执行环境,前一行命令运行影响后一个命令;而由于Dockerfile分层构建的原因,两个RUN命令执行的环境是两个完全不同的容器。

  因此如果我们需要改变以后每层的工作目录的位置,可以使用WORKDIR指令,建议在WORKDIR指令中使用绝对路径:

FROM node:10.15.3-alpine

WORKDIR /app

RUN echo "hello" > world.txt
复制代码

  这样生成的world.txt就在/app目录下面了。

COPY复制

  COPY指令用于从构建上下文目录中复制文件到镜像内的目标路径中,类似linux的cp命令,它的语法格式如下:

COPY [--chown=<user>:<group>] <源路径>... <目标路径>
COPY [--chown=<user>:<group>] ["<源路径1>",... "<目标路径>"]
复制代码

  复制的文件可以是一个文件、多个文件或者通配符匹配的文件:

COPY package.json /app

COPY package.json app.js /app

COPY src/*.js /app
复制代码

  但需要注意的是,COPY指令只能复制文件夹下的文件,而不能复制文件夹本身,和linux的cp命令有区别;比如下面复制src文件夹:

COPY src /app
复制代码

  运行后我们发现src文件夹下面的文件都拷贝到/app目录下了,没有拷贝src文件夹本身,因此我们需要这样来写:

COPY src /app/src
复制代码

CMD指令

  CMD指令用于执行目标镜像中包含的软件,可以指定参数,它也有两种语法格式:

CMD <命令>
CMD ["可执行文件", "参数1", "参数2"...]
复制代码

  我们发现CMD和RUN都可以用来执行命令的,很相似,那他们两者有什么区别么?首先我们发现RUN是用来执行docker build构建镜像过程中要执行的命令,比如创建文件夹mkdir、安装程序apt-get等等。

  而CMD指令在docker run时运行而非docker build,也就是启动容器的时候,它的首要目的在于为启动的容器指定默认要运行的程序,程序运行结束,容器也就结束。

  而容器在run的时候只能创建一次,因此一个Dockerf中也只能有一个CMD指令;比如我们的容器运行node程序,最后需要启动程序:

CMD ["node", "app.js"]
# 或者
CMD npm run start
复制代码

ENTRYPOINT入口点

  ENTRYPOINT指令的作用和CMD一样,也是在指定容器启动程序和参数;一个Dockerfile同样也只能有一个ENTRYPOINT指令;当指定了ENTRYPOINT后,CMD指令的含义发生了改变,不再是直接的运行其命令,而是将 CMD 的内容作为参数传给ENTRYPOINT指令,相当于:

<ENTRYPOINT> "<CMD>"
复制代码

  那么这样的好处是啥呢?我们看一个使用的例子,我们在Docker中使用curl命令来获取公网的IP地址:

FROM ubuntu:18.04

# 切换ubuntu源
RUN  sed -i s@/archive.ubuntu.com/@/mirrors.aliyun.com/@g /etc/apt/sources.list
RUN  apt-get clean

RUN apt-get update \
    && apt-get install -y curl \
    && rm -rf /var/lib/apt/lists/*
    
CMD [ "curl", "-s", "http://myip.ipip.net" ]
复制代码

  然后使用docker build -t myip .来构建myip的镜像;当我们想要查询ip的时候,只需要执行如下命令:

$ docker run --rm myip
当前 IP:218.4.251.37  来自于:中国 江苏 苏州  电信
复制代码

  这样我们就实现了把镜像当成命令使用,不过如果我们想要同时显示HTTP头信息,就需要加上-i参数:

$ docker run --rm myip -i
docker: Error response from daemon: failed to create shim: OCI runtime create failed: container_linux.go:380: starting container process caused: exec: "-i": executable file not found in $PATH: unknown.
复制代码

  但是这个-i参数加上后并不会传给CMD指令,而是传给了docker run,但是docker run并没有-t参数,因此报错;如果我们想要加入-i,就需要重新完整的输入这个命令;而使用ENTRYPOINT指令就可以解决这个问题:

FROM ubuntu:18.04

RUN  sed -i s@/archive.ubuntu.com/@/mirrors.aliyun.com/@g /etc/apt/sources.list
RUN  apt-get clean

RUN apt-get update \
    && apt-get install -y curl \
    && rm -rf /var/lib/apt/lists/*
    
ENTRYPOINT  [ "curl", "-s", "http://myip.ipip.net" ]
复制代码

  我们重新尝试加入-i参数:

$ docker run --rm myip -i
HTTP/1.1 200 OK
Date: Fri, 01 Apr 2022 07:24:21 GMT
Content-Type: text/plain; charset=utf-8
Content-Length: 67
Connection: keep-alive
X-Via-JSL: fdc330b,-
Set-Cookie: __jsluid_h=9f0775bbcb4cc97b161093b4c66dd766; max-age=31536000; path=/; HttpOnly
X-Cache: bypass

当前 IP:218.4.251.37  来自于:中国 江苏 苏州  电信
复制代码

  就可以发现http的头部信息也展示出来了。

VOLUME数据卷

  VOLUME指令用于暴露任何数据库存储文件,配置文件,或容器创建的文件和目录;其语法格式如下:

VOLUME ["<路径1>", "<路径2>"...]
VOLUME <路径>
复制代码

  我们可以事先指定某些目录挂载为匿名卷,这样在运行时如果用户不指定挂载,其应用也可以正常运行,不会向容器存储层写入大量数据,比如:

VOLUME /data
复制代码

  这里的/data目录就会在容器运行时自动挂载为匿名卷,任何向/data中写入的信息都不会记录进容器存储层,从而保证了容器存储层的无状态化。

$ docker run -d -v mydata:/data xxxx
复制代码

  我们运行容器时可以本地目录覆盖挂载的匿名卷;需要注意的是,在Windows下挂载目录和Linux环境(以及Macos)挂载目录有一些区别,在Linux环境下由于是树状目录结构,我们挂载时直接找到目录即可,如果目录不存在,docker还会自动帮你创建:

$ docker run -d -v /home/root/docker-data:/data xxxx
复制代码

  windows环境下则需要对应盘符下的目录:

$ docker run -d -v d:/docker-data:/data xxxx
复制代码

EXPOSE端口

  EXPOSE指令是声明容器运行时提供服务的端口,这只是一个声明,在容器运行时并不会因为这个声明应用就会开启这个端口的服务;其语法如下:

EXPOSE <端口1> [<端口2>...]
复制代码

  在Dockerfile中写入这样的声明有两个好处,一个是帮助镜像使用者理解这个镜像服务的守护端口,以方便配置映射;另一个好处则是在运行时使用随机端口映射时,也就是 docker run -P 时,会自动随机映射 EXPOSE 的端口。

ENV指令

  ENV指令用于设置环境变量,其语法有两种,支持多种变量的设置:

ENV <key> <value>
ENV <key1>=<value1> <key2>=<value2>...
复制代码

  这里的环境变量无论是后面的指令,如RUN指令,还是运行时的应用,都可以直接使用环境变量:

ENV NODE_VERSION 7.2.0

RUN curl -SLO "https://nodejs.org/dist/v$NODE_VERSION/node-v$NODE_VERSION-linux-x64.tar.xz" \
  && curl -SLO "https://nodejs.org/dist/v$NODE_VERSION/SHASUMS256.txt.asc"
复制代码

  这里定义了环境变量NODE_VERSION,后面的RUN指令中可以多次使用变量进行操作;因此如果我们后续想要升级node版本,只需要更新7.2.0即可

ARG指令

  ARG指令和ENV一样,也是设置环境变量的,所不同的是,ARG设置的是构建环境的环境变量,在以后容器运行时是不会存在的。

通俗解释指令的意义

部署前端项目

vue项目

  当我们在本地开发完一个前端项目后,肯定要部署在服务器上让别人来进行访问页面的,一般都是让运维在服务器上配置nginx来将我们的项目打包后作为静态资源;在深入Nginx一文中,我们介绍了使用nginx如何来做静态服务器,这里我们自己配置nginx文件,结合docker来部署我们的项目。

  首先在我们项目目录创建nginx的配置文件default.conf

server {
    listen 80;
    server_name _;
    location / {
        root /usr/share/nginx/html;
        index index.html inde.htm;
        try_files $uri $uri/ /index.html =404;
    }
    error_page 500 502 503 504 /50x.html;
    location = /50x.html {
        root /usr/share/nginx/html;
    }
}
复制代码

  该配置文件定义了我们打包后静态资源的目录为/usr/share/nginx/html,因此我们需要将dist文件夹拷贝到该目录;同时使用了try_files来匹配vue的history路由模式。

  在项目目录再创建一个Dockerfile文件,写入以下内容:

FROM nginx:latest

COPY default.conf /etc/nginx/conf.d/

COPY dist/ /usr/share/nginx/html/

EXPOSE 80
复制代码

  我们在项目打包生成dist文件后就可以构建镜像了:

$ docker build -t vue-proj .
复制代码

构建镜像

  接下来基于该镜像启动我们的服务器:

$ docker run -itd -p 8080:80 vue-proj
复制代码

  这样我们的程序就起来了,访问http://localhost:8080端口就可以看到我们部署的网站了。

express项目

  我们还有一些node项目,比如expree、eggjs或者nuxt,也可以使用docker进行部署,不过我们需要把所有的项目文件都拷贝到镜像中去。

  首先我们模拟一个简单的express的入口文件app.js

const express = require("express");

const app = express();
const PORT = 8080;

app.get("/", (req, res) => {
  res.send("hello express");
});

app.listen(PORT, () => {
  console.log(`listen on port:${PORT}`);
});
复制代码

  由于下面需要拷贝整个项目的文件,因此我们可以通过.dockerignore文件来忽略某些文件:

.git
node_modules
复制代码

  然后编写我们的Dockerfile

FROM node:10.15.3-alpine

WORKDIR /app

COPY package*.json ./

RUN npm install --registry https://registry.npm.taobao.org

COPY . .

EXPOSE 8080

CMD npm run start
复制代码

  我们看到上面的流程是先拷贝package*.json文件,安装依赖后再拷贝整个项目,那么为什么这么做呢?聪明的童鞋大概已经猜到了,大概率又双叒叕是跟docker的分层构建和缓存有关。

斗图

  不错,如果我们把package*.json和代码程序一起拷贝,如果我们只更改了代码而没有新增依赖,但docker仍然会安装依赖;但是我们如果把它单独拿出来的话,就能够提高缓存的命中率。后面的构建镜像和启动容器也就不再赘述了。

vue项目多阶段构建

  上面我们在vue项目中手动打包生成了dist文件,然后再通过docker进行部署;在FROM指令中我们也提到了多阶段构建,那么来看下如果使用多阶段构建如何来进行优化。

  我们还是在项目中准备好nginx的配置文件default.conf,但是这次我们不再手动生成dist文件,而是将构建的过程放到Dockerfile中:

FROM node:12 as compile

WORKDIR /app

COPY package.json ./

RUN npm i --registry=https://registry.npm.taobao.org

COPY . .

RUN npm run build

FROM nginx:latest as serve

COPY default.conf /etc/nginx/conf.d/

COPY --from=compile /app/dist /usr/share/nginx/html/

EXPOSE 80
复制代码

  我们看到在上面第一个compile阶段,我们通过npm run build命令生成了dist文件;而第二个阶段中再把dist文件拷贝到nginx的文件夹中即可;最后构建的产物依然是最后FROM指令的nginx服务器。

  多阶段构建用到的命令比较多,很多童鞋会想最后的镜像会不会很大;我们通过ls命令查看构建后的镜像:

$ docker images
REPOSITORY            TAG                  IMAGE ID       CREATED          SIZE
multi-compile         latest               a37e4d71562b   11 seconds ago   157MB
复制代码

  可以看到它的大小和单独用nginx构建差不多。

如果觉得写得还不错,请关注我的掘金主页。更多文章请访问谢小飞的博客

Supongo que te gusta

Origin juejin.im/post/7083009375387779085
Recomendado
Clasificación