spark-shell解析

spark-shell 作用:

调用spark-submit脚本,如下参数 --classorg.apache.spark.repl.Main --name "Spark shell" "$@",如下:

 具体流程是:

#1 捕获终端信号,执行退出方法,恢复一些操作

#2 保存终端配置,当cygwin时关闭回显,之后再恢复

#3 执行spark-submit,调用repl.Main

#先检测系统是否属于cygwin,即是否为windows系统

#-------uname在Centos中是Liunx,使用uname -r 可以查看内核版本; 使用uname -a 可以查看所有的信息

cygwin=false

case"`uname`" in 

  CYGWIN*) cygwin=true;;

esac

#-------post设置shell的模式为POSIX标准模式,不同的模式对于一些命令和操作不一样。

set-o posix

#如果没有设置SPARK_HOME,shell会将当前脚本的上一级目录做为spark_home

# -z表示当串长度为0时,条件为真。  而$()和`` 都表示在shell中执行命令同时将结果返回

if [-z "${SPARK_HOME}" ]; then

  export SPARK_HOME="$(cd "`dirname"$0"`"/..; pwd)"

fi


#这段的意思是因为scala默认不会使用java classpath,因此这里需要手动设置一下,让scala使用java。


SPARK_SUBMIT_OPTS="$SPARK_SUBMIT_OPTS-Dscala.usejavacp=true"

function main() {

 
 

  if $cygwin; then

 
 

    stty -icanon min 1 -echo > /dev/null2>&1

 
 

    exportSPARK_SUBMIT_OPTS="$SPARK_SUBMIT_OPTS -Djline.terminal=unix"

 
 

    "${SPARK_HOME}"/bin/spark-submit--class org.apache.spark.repl.Main --name "Spark shell""$@"

 
 

    stty icanon echo > /dev/null 2>&1

 
 

  else

 
 

    #如果不是cygwin系统,执行spark_home/bin/spark-submit的脚本,指定--class是org.apache.spark.repl.Main

 
 

    #spark_shell 后面通常会跟着--master spark://host:7077

 
 

    export SPARK_SUBMIT_OPTS

 
 

    "${SPARK_HOME}"/bin/spark-submit--class org.apache.spark.repl.Main --name "Spark shell""$@"

 
 

  fi

 
 

}

exit_status=127

saved_stty=""

 
  
 
 
 

#restore stty settings (echo in particular)

functionrestoreSttySettings() {

 
 

  stty $saved_stty

 
 

  saved_stty=""

 
 

}

functiononExit() {

 
 

  if [[ "$saved_stty" != ""]]; then

 
 

    restoreSttySettings

 
 

  fi

  exit $exit_status

}

 
  
 
 
 

# toreenable echo if we are interrupted before completing.

 
 

#这句是说,捕获INT信号,INT表示中断线程或进程,就会回调执行onExit方法。onExit中判断是否恢复终端设置。

 
 

trap onExit INT

 
 

#save terminal settings http://www.cnblogs.com/xing901022/p/6415289.html

 
 

######改变终端的显示,比如说关闭一些按键,开启一些特殊字符的输入等等。

 
 

#----stty-g 表示将当前终端的回显保存起来(stty -g,--save 表示以stty可读的方式打印当前所有设置)

 
 

saved_stty=$(stty-g 2>/dev/null)

#clear on error so we don't later try to restore them

#-----如果stty -g执行错误,需要将saved_stty设置成空串

if[[ ! $? ]]; then

  saved_stty=""

fi

 
  
 
 
 

#######此处会将spark-shell后面的所有参数,都给main方法

 
 

main"$@"

 
 

######################################################

 
 

#运行test.sh 1 2 3后

# "$*"的意思为"1 2 3"(一起被引号包住)

# "$@"为"1""2" "3"(分别被包住,好处就是传给main方法就不用再做切分了)

# $#:表示脚本参数个数

 
 

######################################################

 
 

#record the exit status lest it be overwritten:

 
 

#then reenable echo and propagate the code.

 
 

exit_status=$?

 
 

onExit 

本文转自:https://blog.csdn.net/luyllyl/article/details/79554580

 

猜你喜欢

转载自www.cnblogs.com/lyy-blog/p/9722220.html