Flink 源码阅读 flink-client 模块实现原理与源码解析

一、我们本次的目的是什么?

这次我们的目的是,在本地的 IDEA 中去 debug flink-clients 代码,然后远程提交给 flink standalone 集群上去执行,看一看 flink 客户端在提交代码之前都干了什么。

就像下面这样:

image-20210203212606477

很简单是不是,瞬间自信心爆棚!在开始之前,我想要提两个发人深省的问题,你平时一定没有考虑过:

问题 1:用户代码如何变成 DAG 图

DataStream<Tuple2<String, Integer>> counts =
			text.flatMap(new Tokenizer())
			.keyBy(value -> value.f0).sum(1);

image-20210203212847822

这个过程就是你经常刷源码解析博客看到的一个问题,“ StreamGraph 是如何生成的?”

问题2:如何保证 Flink 框架依赖和用户代码依赖不冲突

不知道你有没有想过,Flink 框架本身是要依赖很多类库的,但我们自己写的代码也是要依赖很多类库的,万一 Flink 框架依赖的类库,跟我们自己的类库冲突了怎么办?

举个例子,Flink 框架会去依赖一个 2.0 版本的 kafka,你自己的代码中依赖的是 2.1 版本的 kafka,那很有可能就类冲突了啊。这个问题该如何解决?

问题1,可能要下次再解答;问题2,这次就解答!

二、把环境弄好先跑一个,有一个直观感受

之前我已经写了一篇文章,关于搭建环境的,这次就不细说了,只想补充两个跟上次不一样的点。

(1)Virtual Box 虚拟机,装好 linux,并且下载了官方发布包(1.12.0),解压到服务器某个目录上

image-20210203214318059

(2)IDEA 环境中,已经导入了 flink 1.12.0 的源码(注意这里是源码,上面是发布包)

File - Project Structure - Project 改成 1.8

image-20210203214434225

File - Settings - Build,Execution,Deployment - Compiler - Java Compiler 这里全部改成 8

image-20210203214653168

然后把下面这些全部删掉

image-20210203215103222

把 Maven 标签,这里的 java11 勾掉

image-20210203214725680

然后重新 reload 工程

image-20210203214814417

(3)重新 reload 之后,把这个工程 package 一下

image-20210203215015891

(4)IDEA 中新建一个运行配置

image-20210203214920738

参数如下:

image-20210203215132015

几个比较长的字符如下(根目录换成你自己的)
org.apache.flink.client.cli.CliFrontend
 run D:\Code\flink\flink\flink-examples\flink-examples-streaming\target\WordCount.jar
FLINK_CONF_DIR=D:\Code\flink\flink\flink-dist\src\main\resources

(5)这个 JobManager 修改成你虚拟机的地址

image-20210203215325020

(6)直接 debug 运行

image-20210203215400314

image-20210203215422061

(7)可以顺利执行。

三、基本流程分析

刚刚相信你感性的认识了一把在 IDEA 里提交 Flink 任务的过程了,其实这个过程不算太复杂,我画了一个图如下

image-20210203212015833

1. 浏览一下 main 方法

就四个大步骤,主要逻辑在最后的运行方法中

public static void main(final String[] args) {
    
    
		EnvironmentInformation.logEnvironmentInfo(LOG, "Command Line Client", args);

		// 1. 从环境变量中寻找配置文件目录,就是在运行配置那里配置的目录
		final String configurationDirectory = getConfigurationDirectoryFromEnv();

		// 2. 读取配置文件的配置
		final Configuration configuration = GlobalConfiguration.loadConfiguration(configurationDirectory);

		// 3. 加载自定义的命令行(GenericCLI,xxxCli,DefaultCLI),没弄懂这个有什么用
		final List<CustomCommandLine> customCommandLines = loadCustomCommandLines(
			configuration,
			configurationDirectory);

		try {
    
    
			final CliFrontend cli = new CliFrontend(
				configuration,
				customCommandLines);

			SecurityUtils.install(new SecurityConfiguration(cli.configuration));
            // 4. 执行
			int retCode = SecurityUtils.getInstalledContext()
					.runSecured(() -> cli.parseAndRun(args));
			System.exit(retCode);
		}
		catch (Throwable t) {
    
    
			...
		}
	}

简单解释一下:

(1)

从系统环境中( 环境变量或者当前目录的 conf 或者 …/conf 目录)获取配置文件( flink-conf.yaml )位置

final String configurationDirectory = getConfigurationDirectoryFromEnv();

(2)解析 flink-conf.yaml 文件,把属性放到 Configuration 里面

final Configuration configuration = GlobalConfiguration.loadConfiguration(configurationDirectory);

(3)(疑问的地方,这三个 CLI 是干嘛的?)初始化自定义的命令行参数:会依次把下面的三个 Cli 放到 List 中

org.apache.flink.client.cli.GenericCLI

org.apache.flink.yarn.cli.FlinkYarnSessionCli

org.apache.flink.client.cli.DefaultCLI

final List<CustomCommandLine> customCommandLines = loadCustomCommandLines(
			configuration,
			configurationDirectory);

(4)初始化 CliFronted ,使用构造函数,把 CliFrontend 类的一些属性赋值,给后续执行时提供属性

final CliFrontend cli = new CliFrontend(
				configuration,
				customCommandLines);

主要是在构造函数里面初始化了这个类的一些对象

	public CliFrontend(
			Configuration configuration,
			ClusterClientServiceLoader clusterClientServiceLoader,
			List<CustomCommandLine> customCommandLines) {
    
    
        // 初始化了配置,就是 flink-conf.yaml 的属性
		this.configuration = checkNotNull(configuration);
        // 初始化了自定义的命令行参数
		this.customCommandLines = checkNotNull(customCommandLines);
        // 初始化了 clusterClientServiceLoader,使用 SPI 加载了 org.apache.flink.client.deployment.StandaloneClientFactory 类
		this.clusterClientServiceLoader = checkNotNull(clusterClientServiceLoader);
		
		FileSystem.initialize(configuration, PluginUtils.createPluginManagerFromRootFolder(configuration));

		this.customCommandLineOptions = new Options();

		for (CustomCommandLine customCommandLine : customCommandLines) {
    
    
			customCommandLine.addGeneralOptions(customCommandLineOptions);
			customCommandLine.addRunOptions(customCommandLineOptions);
		}

        // 初始化了客户端超时时间
		this.clientTimeout = configuration.get(ClientOptions.CLIENT_TIMEOUT);
        // 初始化了默认的并行度
		this.defaultParallelism = configuration.getInteger(CoreOptions.DEFAULT_PARALLELISM);
	}

注意这里有一个上次发文讲到的 SPI 技术,加载了 flink-clients 工程下 src/main/resource/META-INF.services/org.apache.flink.client.deployment.ClusterClientFactory 里面配置的类

org.apache.flink.client.deployment.StandaloneClientFactory

(5)调用 parseAndRun 方法来执行任务

这就是 main 方法的主流程

2. 开始攻克 parseAndRun 方法

parseAndRun 方法里有一个 switch case,根据命令行不同的动作类型,执行不同的动作,这里我们重点看执行的 run 方法

image-20210204104435464

3. run 方法

run 方法中,用两个对象,ProgramOptions(执行程序选项)和 Configuration (配置),来构建一个 PackagedProgram,去执行程序。

(1)ProgramOptions 中主要有以下几个属性:
  • private String jarFilePath; // 用户上传的 jar 包路径

  • protected String entryPointClass; // main 方法所在的类

  • private final List classpaths; // 类路径

  • private final String[] programArgs; // 程序参数

  • private final int parallelism; // 默认并行度

  • private final boolean detachedMode; // 是否在后台运行

  • private final boolean shutdownOnAttachedExit; // 如果是前台的方式提交,当客户端中断,集群执行的job任务也会shutdown

  • private final SavepointRestoreSettings savepointSettings; // savepoint 配置

这些参数描述了,Flink 在执行一个程序时,需要的所有基本信息

(2)Configuration 配置

image-20210204111042630

橙线是运行时加的参数,非橙线是 flink-conf.yml 里配置的参数;

(3)PackagedProgram

字面意思是:打包的程序,就是把所有必要的信息,包括运行时参数和程序配置打包到一个对象里面。

构建过程很简单,就把属性赋值给 PackageProgram 里面即可。

image-20210204111931294

PackagedProgram 的主要属性有:

  • private final URL jarFile; // jar 包路径

  • private final String[] args; // 程序参数

  • private final Class<?> mainClass; // 运行的主类

  • private final List extractedTempLibraries; // jar 包里面 lib 目录下的包,解压到本地的临时目录

  • private final List classpaths; // 所有执行的类路径

  • private final ClassLoader userCodeClassLoader; // 用户代码类加载器

  • private final SavepointRestoreSettings savepointSettings; // Savepoint 配置

  • private final boolean isPython; // 是否是 python 作业

有了这些熟悉,一个程序就可以运行了。

(4)用户类加载器 UserCodeClassLoader

使用默认类加载机制带来的问题

这里我们想要表达的是,Flink 的类加载机制和 Java 虚拟机默认提供的类加载机制是不同的。

Java 虚拟机提供的默认类加载机制,我们可以再复习一下,(双亲委派),如果一个类加载器收到了类加载请求,自己默认不加载,而是把这个请求委派给父类加载器去加载,一直传递到顶层的 BootStrap ClassLoader 中。父加载器加载不到才让下面的类加载器加载。

如果 Flink 使用这种类加载机制,可能会带来的问题是:Flink 集群运行着 Flink 框架的代码,这些代码包括了 Flink 的各种依赖。而用户编写的复杂的应用程序,可能也会包含很多复杂的依赖。其中必然有类全限定名同名的类。

那么在加载用户的类时,一看已经被父类加载器加载了,就不会再加载了,那用户的程序必然就会报错了。

Flink 的类加载机制

Flink 可以在 flink-conf.yml 中配置不同的类加载机制(默认就是 child-first):

classloader.resolve-order: parent-first
classloader.resolve-order: child-first

我们直接看一下这个 ChildFirstClassLoader 类的 loadClassWithoutExceptionHandling 方法:

	@Override
	protected Class<?> loadClassWithoutExceptionHandling(String name, boolean resolve) throws ClassNotFoundException {
    
    

		// 首先,检查这个类是否已经被加载过
		Class<?> c = findLoadedClass(name);

		if (c == null) {
    
    
			// alwaysParentFirstPatterns 中配置的类,要在父类中优先加载
			for (String alwaysParentFirstPattern : alwaysParentFirstPatterns) {
    
    
				if (name.startsWith(alwaysParentFirstPattern)) {
    
    
					return super.loadClassWithoutExceptionHandling(name, resolve);
				}
			}

			try {
    
    
				// 用户的类,不让父类加载器加载,而是自己直接加载
				c = findClass(name);
			} catch (ClassNotFoundException e) {
    
    
				// let URLClassLoader do it, which will eventually call the parent
				c = super.loadClassWithoutExceptionHandling(name, resolve);
			}
		} else if (resolve) {
    
    
			resolveClass(c);
		}

		return c;
	}

简单描述一下如下:

  • 调用 findLoadedClass() 方法检查全限定名对应的类是否已经加载过,若没有加载过,再继续往下执行;

  • 检查要加载的类是否以 alwaysParentFirstPatterns 集合中的前缀开头。如果是,则调用父类的对应方法,以 parent-first 的方式来加载它;

  • 如果类不符合 alwaysParentFirstPatterns 集合的条件,就调用 findClass() 方法在用户代码中查找并获取该类的定义(该方法在URLClassLoader中有默认实现)。如果找不到,再fallback到父加载器来加载。

那这样就说完了 Flink 的类加载机制了。

(5)PackagedProgram 构建完后,开始执行用户代码
// --------------------------------------------------------------------------------------------
//  Interaction with programs and JobManager
// --------------------------------------------------------------------------------------------	
protected void executeProgram(final Configuration configuration, final PackagedProgram program) throws ProgramInvocationException {
    
    
		ClientUtils.executeProgram(new DefaultExecutorServiceLoader(), configuration, program, false, false);
	}

我们看 ClientUtils.executeProgram() 方法

这里有一个相当经典的 ContextClassLoader 的使用方式

try {
    
    
    	Thread.currentThread().setContextClassLoader(userCodeClassLoader);
    	program.invokeInteractiveModeForExecution();
    }
    finally {
    
    
	    Thread.currentThread().setContextClassLoader(contextClassLoader);
	}

先把 ContextClassLoader 切换为 UserCodeClassLoader,使用这个类加载器来加载 main 方法的代码;

执行完了之后,再把上下文类加载器切换回去。

不知大家能不能理解其中的意思了,程序在执行代码的时候,当需要执行每个类时,ClassLoader 就会去加载这个类,可以通过 Debug ClassLoader 类的 loadClass() 方法看出来。

由于我们是从 CliFrontend 类开始 debug 的,这个类的类加载器就是默认的 AppClassLoader。而从上文介绍来看,用户的代码是需要由 Child-First 策略开始加载的,也就是需要用 UserCodeClassLoader 为类加载器,所以,在执行用户代码之前,把 ContextClassLoader 设置为 UserCodeClassLoader ,就可以实现此效果了。

四、总结

好了,可能今天就讲到这了,我们在文章开始留了一个问题,就是用户的代码如何变成 DAG 的,这个问题我们需要再下一次讲。

下一次我们开始分析 program.invokeInteractiveModeForExecution(),这个反射调用 main 方法,到底做了什么事情。

然后结束之前,还想总结一下今天的知识点:

  • 如何封装一个执行程序,需要哪些属性,怎么封装比较优雅(PackagedProgram);
  • Flink 如何加载用户代码,保证和自己框架代码不冲突(UserCodeClassLoader);
  • ContextClassLoader 经典用法是什么。

大家细细品味,最好自己去 Debug 一下才有更深的理解。

我去准备下一次的源码分享了。谢谢!

更多源码解析,关注公众号【kkbigdata】

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/qq_24434251/article/details/113875893
今日推荐