Learn process management from pm2

Jackson の Black Panther, it’s time for dinner []( ̄▽ ̄)

process management

pm2It is a process management tool that specializes in managing node processes (of course, it can also manage non-node processes).

When you try to use nest.jsor express.jswrite back-end services, you will use tools (such as the build tool that comes with nest.js) to package your back-end services into a package. You only need to upload this package to the server and use it in the server node runs it. Usually, for the same package, you need to start multiple processes to run it, and also solve the problem that a certain process hangs.

This is where pm2 comes into play.

pm2 helps you start multiple processes, manage them, and summarize their information to help you know the health status of each process in real time.

In the era when docker was popular, we even added a layer of docker on the basis of pm2. So there are 4 docker containers running, each docker container runs a pm2 process, and each pm2 process manages multiple service processes.

So, how does pm2 manage processes?

Aside from pm2, how would you consider implementing a process management program

This link is not an interview question. I only talk about it from my own point of view. What I say is my personal opinion, which may or may not be right. I hope readers can think about it for themselves, even if they feel that what they think is not quite right, try to think about it, and try to give a plan. It's better for xjb to think than to be dumbfounded .

First of all, I have read "Advanced Programming in Unix Environment" to understand some concepts and knowledge of processes.

In my opinion, the management process should roughly include starting the process , stopping the process , continuing to run the process , restarting the process , terminating the process , and querying process information . To do this, I must know the ID of each process, and also store these IDs.

To start the process, you can use the module that comes with node child_processto complete it. In this step, I got the process ID and stored it for backup;

Stop the process, continue to run the process, terminate the process, you can send a control signal to the process to complete, this step I need to know the process ID;

For process information query, I must also know what the process ID is, and use this ID to cooperate with the system call to query process information, or at the step of starting the process, store the required process information and process ID together;

Considering using node to run a process, the process ID can be the process ID in the operating system, which can be obtained by using subprocess.pid in node, or it can be a random number customized by us, and associate this number with the process object can

As a process control program, after closing the terminal, the process controlled by it cannot die, and at the same time it cannot die itself.

Therefore, the information of the process it controls (including the process ID) must be stored on the disk;

On the other hand, it should be one itself 守护进程, and if it is 前台进程, 后台进程it will be killed after the terminal is closed.

Since the process control program is a daemon process, it is necessary to find a process communication method to tell the program what to do, such as telling it to kill itself.

In Chapter 15 of "Advanced Programming in Unix Environment", some inter-process communication methods are introduced, such as:

  • nameless pipe
  • famous pipeline
  • ipc message queue
  • Shared memory
  • sockcommunication

The most suitable, most flexible and easiest way is to use sock communication.

可以仿照web请求,让这个进程控制程序作为一个http server运行,也可以作为一个rpc server运行,甚至可以不走网络,作为一个unix域sock server运行。

到此,整个思路就可以串起来了。

以守护进程的方式,启动一个unix域sock server,为这个server注册不同的功能点(启动进程、终止进程、停止进程等等),将必要的信息和日志写入到一个指定的文件中(比如叫my.txt)。在终端中,执行一个unix域sock client程序,向已经启动的sock server发送请求,完成指定的进程管理操作,比如重启某个进程。

接下来,我们先不去说pm2的实现,而是盘一下关于进程概念的事情。刚才在阐述我的方案时,我也用到了一些进程的术语,以防一些读者不太明白,我们集中突击一下子。

这些问题,你迷糊了吗

  1. 什么是前台进程?
  2. 什么是后台进程?
  3. 什么是僵尸进程?
  4. 什么是孤儿进程?
  5. 什么是孤儿进程组?
  6. 什么是守护进程?
  7. 守护进程和后台进程有什么关系吗?
  8. 什么是控制终端?
  9. 什么是会话?
  10. 什么是控制进程?
  11. 什么是会话首进程?
  12. 什么是作业控制?

前台进程、后台进程

前台进程和后台进程是shell作业控制的概念。在操作系统的角度看,操作系统最清楚的就是进程这个概念。但是为了支持shell作业控制,操作系统不得不开放一些API支持前台进程和后台进程,所以也可以认为操作系统是能够感知什么是前台进程和后台进程的。

作为一个开发者,我们怎么知道某个进程是前台进程还是后台进程呢?注意,这里不能使用ps哦,我们不要现成的答案,我们要的是获取答案的原始工具。答案就是两个API:tcsetpgrptcgetpgrp.

int tcsetpgrp(int fildes, pid_t pgid_id)

pid_t tcgetpgrp(int fildes)

pid_t getpgid(pid_t pid)

对于一个进程,我们使用 getpgid获取其进程组ID,然后使用tcgetpgrp获取前台进程组ID,如果二者相同,那么该进程就是前台进程,反之就是后台进程

在实操角度看,打开一个terminal,启动一个前台进程,如果前台进程没有结束,那么终端界面就会停留在该进程,你无法继续输入新的shell指令,就好像这个进程将terminal阻塞住了一样,等该前台进程结束之后,你就可以继续输入新的shell指令了。而启动后台进程的时候,往往要在结尾加入&符号,进程跑起来后,你无需等待,可以继续输入下一条命令。

为什么前台进程会阻塞终端呢?

很简单,因为shell执行一个命令去启动前台进程时,shell进程会先fork一个进程,在新进程中执行这个命令,同时shell进程会调用wait命令,等待新进程结束,在此期间,不会处理新的命令,于是产生了等待现象。

会话、作业控制

多个进程,形成进程组这个概念。

多个进程组,形成会话这个概念。

为什么会有进程组这种概念呢?

因为在实际工作中,一个进程可能只完成一种功能点,而要完成一个事情需要多个功能点,于是完成一件事需要多个进程一起工作,比如你输入ps -ef | grep "./main" | wc。这便是进程组。有时候,也将一个进程组称之为一个作业。shell作业控制,说的就是这个作业。

想要理解为什么要有会话这个概念,就要从和shell交互说起。

当你打开一个terminal,terminal默认就会加载shell进程,之后,你就可以输入指令和shell交互,让shell做事情。从开始到结束,你都是在和同一个shell进行交互,你可以把shell想象成一个人,你一直在和他说话。直到你关闭terminal,你们之间的对话就结束了。看到了吧,会话就是这么个意思。

考虑一种情况,在你交互的时候,你可能输入了一些命令,产生了若干个进程组,而这些进程组都是后台进程组,并不会阻塞终端,前台进程组只有一个,你只需要等着它结束就行了,但是后台进程组很多,你怎么去管理呢?你就必须在进程组上面再创建一层概念,达成这个目的,这就是会话。

控制进程、会话首进程

进程组ID就是组内leader进程的进程ID。

类比进程组概念,会话也该有个会话ID的概念,它应该等于什么呢?

答案就是会话首进程。

会话首进程是什么东东呢?它和控制进程有什么关系?控制进程又是什么鬼?控制进程中的“控制”指的是什么?

别急,这就要从打开一个terminal讲起。

在macOS中,系统自带一个terminal App,当你打开它,会自动加载zsh程序,这一步看似平平无奇,但是里面发生了很多事情,我还没有精通zsh源码的地步,只是几次笼统地阅读过,只能大概说下发生了什么事情。

首先呢,会启动一个进程,执行zsh。

在zsh运行中,会调用setsid,创建一个会话。

zsh进程就是这个会话中的第一个进程,也就是会话首进程,而它的进程ID就会作为会话ID。

在这之后,zsh进程会打开一个终端文件,也就是/dev/tty,将该文件映射到文件描述符0\1\2中,也就是标准输入、标准输出、标准错误,并且使用tcsetpgrp将进程ID和终端文件绑定,这样zsh进程成为前台进程组leader进程。

因为zsh进程打开了终端文件,建立了和终端文件的联系,终端文件也就被该进程控制,而zsh进程就成为了控制进程,这个控制说的就是控制终端文件。

现在我们就只有一个进程组,而且是前台进程组,进程组的leader进程就是zsh。

接下来,如果你输入一个命令给zsh,让它执行一个前台进程,zsh就会fork一个进程,使用setpgid将该进程设置为一个新的进程组leader, 并且还会使用tcsetpgrp将新进程ID和终端文件绑定,其结果就是新进程变成前台进程,新进程所在的组变成前台进程组,zsh进程则成为了后台进程。

之后zsh进程等待新进程执行完毕,一旦执行完毕,zsh就会使用tcgetpgrp将zsh进程ID和终端文件绑定,恢复到之前的状态,zsh进程再次成为前台进程。

现在,你应该搞明白那个问题了吧。

守护进程,后台进程

上个问题,我们提到zsh进程执行setsid建立一个会话后,会打开一个终端文件。打开终端文件,不是必须的步骤。如果我们不打开终端文件,那么这个进程就变成了守护进程

因为我们连终端文件都没有打开,更不会执行tcsetpgrp,于是守护进程既不能算作前台进程,也不能算作后台进程。

你可能会认为守护进程是后台进程,但前台进程和后台进程中必须要有终端文件的参与,终端文件存在, 并且能被它感知到的进程,就是前台进程,不能被它感知到的就是后台进程。它如何感知的呢?就是依靠 tcsetpgrp做到的。可守护进程中,连终端文件都不存在,又怎么能谈到后台进程一说呢?

让我们来看看redis中如何创建守护进程的:

static void daemonize(void) {
    int fd;
    FILE *fp;

    if (fork() != 0) exit(0); /* parent exits */
    setsid(); /* create a new session */
  
    /* Every output goes to /dev/null. If Redis is daemonized but
    * the 'logfile' is set to 'stdout' in the configuration file
    * it will not log at all. */

    if ((fd = open("/dev/null", O_RDWR, 0)) != -1) {
        dup2(fd, STDIN_FILENO);
        dup2(fd, STDOUT_FILENO);
        dup2(fd, STDERR_FILENO);

        if (fd > STDERR_FILENO) close(fd);
    }

    /* Try to write the pid file */
    fp = fopen(server.pidfile,"w");

    if (fp) {
        fprintf(fp,"%d\n",getpid());
        fclose(fp);
    }
}

出自redis1.3.6源码

执行setsid的进程,是fork之后的进程,其继承了父进程的文件描述符,守护进程不需要读取标准输入,也不需要写入标准输出,就会将这些文件描述符关闭,或者将这些描述符重新映射到/dev/null中,让终端中的信息不影响守护进程,也让守护进程的信息不泄漏到终端界面。

守护进程和后台进程还有一个明显的区别出现在关闭terminal的时候。

以macOS为例,打开terminal App, 我们启动一个长久工作的后台进程,当我们关闭terminal App的时候,会给出这样的提示: 截屏2023-05-31 23.05.34.png

点击终止后,后台进程就会被关闭,terminal App也会退出;点击取消的话,后台进程继续运行,terminal App不会退出。

如果是守护进程的话,就不会出现这种提示。

在《Unix环境高级编程》中提到过,当调制解调器断开的时候(这里即关闭terminal App的时候),调制解调器会发送SIGHUP信号到控制进程(这里即zsh进程),之后发生了什么没说。此时zsh进程有事情的决定权,它可能发送信号到前台进程组,关闭所有前台进程,也可能发送信号的所有后台进程组,让所有后台进程结束。按照当前的例子来看,zsh进程会发送信号到会话中的所有进程,关闭它们。

僵尸进程,孤儿进程,孤儿进程组

父进程如果先于子进程结束,子进程就会变成孤儿进程,其父进程就会变更为进程ID为1的进程,可能是init进程,可能是launchd进程,总之是会有一个进程接管它。

子进程如果先于父进程结束,同时父进程并没有采用wait这类调用,捕获子进程的结束,子进程即便已经结束,仍然会占用相关的资源(比如已经打开的文件、进程空间占用的内存),造成系统资源泄漏(或者叫浪费),这种子进程就像僵尸一样没有死透,不断吮吸着系统的鲜血,僵尸进程的称号就由此产生了。毫无疑问,这种进程会给系统带来隐患,必须认真处理,在编码中尽量避免。

在作业控制中,进程除了终止状态,还会有停止状态,比如你启动了一个进程,然后按下Ctrl+Z, 就会发送SIGTSTP信号给这个进程,这个进程就会停止。问题来了,如果进程停止,但是其父进程终止了,这个进程将来怎么继续执行呢?这就是引入孤儿进程组概念要解决的事情。

一般来讲,父进程会作为一个进程组的leader进程,上述情况发生后,父进程终止,子进程成为孤儿,子进程所在的组就成为了孤儿进程组

按照《Unix环境高级编程》的描述,孤儿进程组内的每一个进程,其父进程位于另一个会话中。

当父进程终止后,子进程的父进程将变更为进程ID为1的进程,同时,如果该子进程位于孤儿进程组,而且子进程处于停止状态,将会先后收到来自内核发送的SIGHUP信号SIGCONT信号SIGHUP信号默认处理方式是终止进程,这意味着如果在子进程中没有捕捉该信号,那么停止的子进程立即终止。如果加入了SIGHUP信号的处理,停止的子进程在收到之后到来的SIGCONT信号,会告别停止状态,继续运行下去。

暂告一段落

补充的信息到此为止,如果还不太明白,建议读者阅读相关系统编程的书籍或者资料,推荐的书籍有Stephen A.Rago的《Unix环境高级编程》Michael Kerrisk的《Linux/UNIX系统编程手册》

上述相关API都是c语言的API,可以使用man来查阅详情介绍,比如man 3 tcgetpgrp(数字3的含义请执行man man查看文档获悉)。

如果读者对这些偏系统的知识感兴趣,欢迎留言,未来可以考虑单独出一些专题文章。

如果推荐的书籍搞不到,欢迎留言,未来也可以考虑出一套原文带读系列的文章。

好了,接下来,进入pm2的世界吧。

pm2 的实现

这里参考pm2 0.4.10版本源码。项目结构如下:

截屏2023-06-01 23.26.18.png

接下来,锁定pm2的入口文件,开始分析。

回忆一下,通常我们使用pm2都是直接以命令行的方式使用,查询package.json,就可以知道命令行的入口文件是/bin/pm2.js

文件内容非常简单,就是使用commander库构建命令行App。

截屏2023-06-01 23.29.29.png

看到commander.command的调用(图中只是冰山一角),不难得知pm2支持的子命令有:

  • start
  • stopAll
  • stop
  • dev
  • web
  • dump
  • resurrect
  • restart
  • restartAll
  • startup
  • generate
  • list
  • jlist
  • monit
  • update
  • flush
  • logs
  • kill

进一步观察每个command,发现背后都是调用CLI实现各个功能的,因此pm2的具体实现,落实在CLI的定义中。

截取了CLI几个方法的定义:

截屏2023-06-01 23.35.25.png

截屏2023-06-01 23.35.55.png

截屏2023-06-01 23.36.18.png

发现CLI的实现中,底层还是依赖Satan,原来真谛在Satan

了解上述信息,我们就有一条清楚的思路:当用户给出pm2的命令行指令(比如 pm2 start),会跳转到对应的command逻辑,在这个逻辑中调用CLI,跳入到CLI的具体方法里,在该方法中调用Satan定义的方法,给出最终一击。

接下来不用多说了,只要看看Satan里写了啥,就知道pm2究竟怎么实现的了。

但有一个地方值得留意:

截屏2023-06-01 23.42.35.png

你输入pm2命令行后,commander不会立即解析命令行参数,而是等待事件satan:client:ready发生,才会触发解析,按照上边说的逻辑执行。

一看satan,我们就知道,里边肯定和Satan有关系了。可问题是,啥时候satan:client:ready事件会产生呢?

纵观这个文件,只有在开头中require Satan这一步,才能动手脚。

截屏2023-06-01 23.47.03.png

require指令不仅代表着加载一个模块对象,而且意味着在加载过程中,会运行一些代码。

在Go语言中,就会使用 import _ <package_path>, 只去运行模块中的代码,但不使用模块中的方法 和 数据。

让我们看看Satan中发生了什么:

截屏2023-06-03 17.06.10.png

截屏2023-06-03 17.06.32.png

全文除了定义Satan,还执行了Satan.onReady。结合前面说的,只要我们执行了pm2命令行,pm2就要等到satan:client:ready事件发生,才会解析命令行参数,执行特定的子命令。同时呢,pm2在一开始执行的时候,先require了Satan, 所以也会执行Satan中的代码,也就是Satan.onReady

OK,事不宜迟,看看Satan.onReady发生了什么吧。

截屏2023-06-03 17.12.13.png

方法中定义了一个即时函数init,一旦onReady要执行,init函数就会立即执行。

根据环境变量是否定义了DAEMON,分为了两部分逻辑。

第一部分似乎看不出来干什么,但else部分出现了Daemon, 意味着这部分逻辑和守护进程有关系,似乎在进行ping通讯。在此处,不免要问一个问题,守护进程在哪里启动的呢?

继续看pingDaemon的回调函数,我们就知道了答案。回调函数表明,当没有守护进程正在运行(ab == false 的逻辑),Satan会启动一个守护进程。如果守护进程存在了,Satan要触发RPC通讯。

接下来要做的,无外乎:

  • Satan.pingDaemon是根据什么完成ping通讯的;
  • Satan.launchDaemon是如何做到创建一个守护进程的;
  • Satan.remoteWrapper做了什么;
  • Satan.launchRPC的RPC逻辑到底是什么;

Satan.pingDaemon

我们假设第一次执行pm2命令,在此之前,我们没有执行任何pm2指令,那么onReady方法也会是第一次执行。

此时环境变量中肯定没有DAEMON, 所以会跳入到 else 逻辑里执行 pingDaemon:

截屏2023-06-03 17.51.11.png

尽管我们不知道axon库是干什么的,但我们能大致猜出,使用的是sock通讯,而且还是Unix域的sock通讯,因为里面没有看到什么关乎网络IP的信息。

req.connect将触发sock连接行为,一旦连接成功,也就是ping成功了,就会执行connect事件回调,给pingDaemon的回调函数cb输入true,告诉上层逻辑,ping成功了。

逻辑就这么简单。

别忘了,我们ping的是什么呢?是Daemon,是守护进程!而代码里实际ping的行为是sock客户端向sock服务端的一次连接请求。这就可以推算出,守护进程运行的是sock服务程序。

Satan.launchDaemon

经过上一节的分析,pingDaemon的cb参数要么是true,要么是false。

当参数是false的时候,就要开启一个守护进程。

前文我们也说了,我们假设是第一次执行pm2,因此肯定不会有守护进程,顺理成章地就要执行launchDaemon。

截屏2023-06-03 17.21.24.png

启动一个守护进程和启动一个进程大致相同,使用了child_process库的fork方法,关键点在于detached, 根据nodejs官网API文档介绍,在非windows平台下,设置了该参数为true,会使得新进程成为新进程组的leader进程,同时开启一个新的会话。

截屏2023-06-03 17.25.10.png

这是经过nodejs封装之后启动守护进程的方式,原始的c语言启动一个守护进程要比这个复杂一点。

代码中还设置了silent stdio 参数。

silent为true,会将子进程的标准输入、标准输出、标准错误通过管道的方式和父进程连接; silent为false,子进程直接继承父进程的标准输入、标准输出、标准错误。

stdio的设置,会覆盖掉silent的效果,这里设置为ignore,意味着将子进程的标准输入、标准输出、标准错误直接映射到/dev/null

按照操作系统的角度看,有了上述的设置,开启一个守护进程没什么问题,但是在nodejs的运行时角度看,这还不够,所以代码中加入了child.unref(),根据官网的说法,该方法作用如下:

截屏2023-06-03 17.35.09.png

截屏2023-06-03 17.36.27.png

也就是说,如果你没有使用这个方法,尽管设置detached为true,但实际上父进程依旧会等待子进程结束,守护进程是不能有这一步的。

之后,监听子进程的message事件,子进程一发送数据给当前进程,该事件就会发生,从而触发当前进程的satan:daemon:ready事件。

请注意哦,process指当前进程,child指的才是沦为守护进程的子进程。 satan:daemon:ready事件不会使pm2解析命令行、开始执行子命令代码, 因为它等的是satan:client:ready事件。

还有一个信息点就是env: { "DAEMON": true }, 在上边提到Satan.onReady拆分逻辑的依据就是环境变量DAEMON

这个环境变量只有在守护进程中才存在,当前进程是不存在的。而且守护进程使用fork方法启动,fork中明确给出了Satan.js,这意味着守护进程会再次执行一遍Satan.js, 于是Satan.onReady又一次执行,不过这一次会进入到if逻辑中,而不是else逻辑。

上一节我们推算过,守护进程必须要给出一个sock服务端程序,自launchDaemon执行以来,我们没有看到这一点,所以我们推测,在if逻辑中的Satan.remoteWrapper会完成这件事。

Satan.remoteWrapper

截屏2023-06-03 18.14.21.png

第一点要明确,这个逻辑是在守护进程中完成的,当前进程在做的事情是等待守护进程发来数据,然后触发satan:daemon:ready事件。

一看到代码里有server,无疑印证了我们开始的想法,守护进程确实启动了sock服务端。而且我们看到守护进程也通过process.send发送数据给当前进程了,那么当前进程就会触发satan:daemon:ready事件,然后调用launchDaemon的回调函数Satan.launchRPC.

守护进程只需要监听请求,响应请求而已,这部分请求-响应逻辑就定义在server.expose中,后边会说到。

接下来的逻辑,就是当前进程执行launchRPC了。

Satan.launchRPC

截屏2023-06-03 18.26.02.png

逻辑出乎意料简单。

和上一节的server一样,rpc来自于axon-rpc库。在这里作为一个客户端,发送一个连接请求,一旦成功,当前进程就会触发satan:client:ready事件,也就是这个时候pm2的命令行才会被解析、执行,然后跳转到具体的pm2子命令里做事。

如果说守护进程已经存在,那么Satan.onReady的 else 逻辑中,会直接执行 Satan.launchRPC,建立rpc的连接。

监听satan:client:ready的时候会不会有些迟?

Satan.onReady是在Satan这个库被加载的时候实行的,而这个加载是在下图监听动作之前发生的:

截屏2023-06-01 23.42.35.png

那么会不会出现一种状况:Satan已经发送了satan:client:ready事件,但是该事件监听动作还没来得及执行呢?

当然不会。可要解释清楚这个事情,就必须涉及到nodejs事件循环的内容。大致的理由是这样的:触发事件是在sock的事件回调函数中发生的(见Satan.launchRPC那节),这个事件回调可能是在微任务执行,也可能是在事件循环的poll阶段执行的(nodejs事件循环官网介绍),不论哪种执行方式,都必须等到当前宏任务执行完毕才可以,而事件监听这一步发生在当前宏任务中。

小结

现在,我们可以大致说出pm2的整体结构了。

采取request-response的结构,每一次pm2命令行都是在发送一次request请求,子命令的逻辑全部放在服务端实现,而这个服务端以守护进程的形式存在,即便终端被销毁,该进程依旧正常运行。

pm2子命令的实现

截屏2023-06-03 21.02.09.png

子命令的实现发生在Satan.remoteWrapper, 还记得这个方法是做什么的吗?

没错,就是启动一个sock服务端。

子命令暴露在server.expose方法中,感觉就像后端开发中的路由和controller的关系。

从这些子命令(prepare list startId等等)中,不难发现具体逻辑是在God中完成的。经过上文的描述,你应该可以感受到自上向下层层封装的结构,起初阅读代码可能会有些乱,不过在维护者的角度来看,层层封装、功能分明、模块化设计感很强,有利于代码维护。

OK,接下来就看一下God中发生了什么。

截屏2023-06-03 21.29.14.png

  • 定义了God的很多方法
  • 执行了即时函数 initEngine
  • 执行了cluster.setupMaster(最近版本的node已经将API改为setupPrimary)

在Satan.remoteWrapper中, God只被require一次,因此initEnginesetupMaster只会被执行一次。

使用cluster库的目的就是管理多进程,多个进程组成一个集群(cluster)。

initEngine就是定义监听了两个事件,目的就是更新集群内进程的信息;

setupMaster的目的就是让后边cluster.fork生成的进程去执行ProcessContainer.js,该文件相当于一个模板或者容器或者运行时,反正都是一个意思,进程会引导真正要运行的脚本,这个稍后会说。

接下来我们以创建一个进程为例,看看都要经过什么。

截屏2023-06-03 21.38.25.png

可以看到,创建一个进程的工作是execute完成的。

截屏2023-06-03 21.39.19.png

逻辑简要概括无非几步:

  • 准备好要传给子进程的环境变量env
  • 调用cluster.fork创建新进程
  • 将nodejs提供的进程对象存入God.clusters_db
  • 监听新进程的状态,并在God.clusters_db更新;

剩下的,就是搞清楚ProcessContainer.js都搞了啥。

截屏2023-06-03 21.44.31.png

做的事也很直白:

  • 创建进程日志相关的.pid文件
  • 执行脚本script(注意这个变量是从环境变量里传入的)

瞧瞧最终的核心exec

截屏2023-06-03 21.48.05.png

  • 重定向标准输出和标准错误
  • require加载真正要执行的脚本(这里就是上文说的进程引导)

到现在你就明白了,要执行的就是exec中的require这一步,其余部分都是做的铺垫,就像c语言中,你只需要把代码写入到main函数,至于寄存器、堆栈的初始化分配,都由编译器生成的代码搞定,而这些代码就是铺垫,就是运行时,就是模板,就是容器。

其余功能点,比如暂停进程、继续进程、重启进程等,并不是本文的重点,就不一一说明了,未来可考虑再出一篇文章作为补充。

知识点总结

  • 守护进程的创建
  • cluster多进程管理
  • 基于Unix域的sock客户端、服务端程序的创建
  • require模块加载时代码的顺道执行
  • 基于事件的异步编程
  • 分层封装和模块化管理

感悟

pm2是采用nodejs编写的,nodejs是前端开发的主要工具,但写出来的程序却是后端方向。作为程序开发者,在岗位上有前后端划分,但就知识而言,它们都属于计算机和程序设计的范畴,是统一的。把视野打开吧,前端人员多了解系统编程的东西也未尝不是一种有趣的事情呢。

pm2我感觉很神奇的事情是,pm2命令行既是一个rpc的请求方,也是rpc服务端守护进程启动的驱动器。

Guess you like

Origin juejin.im/post/7240365776738631736