spark的start-master.sh(Master 启动脚本)分析

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/qq_40713537/article/details/101628754
#!/usr/bin/env bash

# Starts the master on the machine this script is executed on.
#在执行此脚本的计算机上启动主机。

#第一步:判断是否有SPARK_HOME的环境变量,如果没有,则将当前spark所在目录定为SPARK_HOME
if [ -z "${SPARK_HOME}" ]; then
  export SPARK_HOME="$(cd "`dirname "$0"`"/..; pwd)"
fi

# NOTE: This exact class name is matched downstream by SparkSubmit.
#注意:该确切的类名与SparkSubmit的下游匹配。
CLASS="org.apache.spark.deploy.master.Master"

 #脚本的帮助信息
#只能匹配以--help或-h结束的串
if [[ "$@" = *--help ]] || [[ "$@" = *-h ]]; then
  echo "Usage: ./sbin/start-master.sh [options]"
    #环境变量可以使用+=进行拼串, 串中的\|表示或的意思,如果不想加\,又有或的意思,需要让grep -E
  pattern="Usage:"
  pattern+="\|Using Spark's default log4j profile:"
  pattern+="\|Registered signal handlers for"

  #请求spark-class将Master类传进去,然后调用--help进行帮助
  #grep -v 表示过滤掉含有$pattern变量的串,然后退出
  "${SPARK_HOME}"/bin/spark-class $CLASS --help 2>&1 | grep -v "$pattern" 1>&2
  exit 1
fi

#将所有调用start-master.sh的参数给变量ORIGINAL_ARGS
ORIGINAL_ARGS="$@"
. "${SPARK_HOME}/sbin/spark-config.sh"
. "${SPARK_HOME}/bin/load-spark-env.sh"

#如果SPARK_MASTER_PORT是空串则master的端口设置为7077
if [ "$SPARK_MASTER_PORT" = "" ]; then
  SPARK_MASTER_PORT=7077
fi

#如果SPARK_MASTER_HOST是空串,则SPARK_MASTER_HOST就是当前脚本的主机ip
if [ "$SPARK_MASTER_HOST" = "" ]; then
  case `uname` in
      (SunOS)
	  SPARK_MASTER_HOST="`/usr/sbin/check-hostname | awk '{print $NF}'`"
	  ;;
      (*)
	  SPARK_MASTER_HOST="`hostname -f`"
	  ;;
  esac
fi

#如果SPARK_MASTER_WEBUI_PORT是空串,则SPARK_MASTER_WEBUI_PORT的端口是8080
if [ "$SPARK_MASTER_WEBUI_PORT" = "" ]; then
  SPARK_MASTER_WEBUI_PORT=8080
fi

  #字符串拼接启动命令
"${SPARK_HOME}/sbin"/spark-daemon.sh start $CLASS 1 \
  --host $SPARK_MASTER_HOST --port $SPARK_MASTER_PORT --webui-port $SPARK_MASTER_WEBUI_PORT \
  $ORIGINAL_ARGS

猜你喜欢

转载自blog.csdn.net/qq_40713537/article/details/101628754