【Spark内核源码】解析“spark-shell”(二)

接着【初探Spark内核】解析“spark-shell”(一)来看

根据main的执行日志来看,我们直接看一下org.apache.spark.repl.Main.main方法:

main方法中创建了SparkILoop对象,作为参数传递给了doMain方法,并调用了doMain方法。

在doMain方法中进行了jar包的加载和设置,便开始执行SparkILoop的precess方法。

SparkILoop继承了Scala类库中的ILoop,precess方法便是ILoop类中的方法,在precess方法中执行了loadFiles(settings)

在SparkILoop类中,重写了loadFiles方法,主要是为了调用initializeSpark方法

下面是initializeSpark中的内容

initializeSpark中一共做了三件事情:

1、创建SparkSession并赋值给spark

2、创建SparkContext并赋值给sc

3、引入spark资源

这样在spark repl中我们就可以直接使用spark和sc还有常用的相关资源。

之前在ILoop类中的process方法中还指出了printWelcome()方法,在SparkILoop类中还重写了printWelcome()方法,具体如下:

这就是在键入spark-shell时,输出LOGO的实现方法。

至此,spark-shell的主要执行过程就看得差不多了。

这里总结一下整个过程:

猜你喜欢

转载自blog.csdn.net/lazy_moon/article/details/82995336