scala命令行运行spark代码

/home/appleyuchi/scripts/scala.sh

#!/bin/bash
# author:菜鸟教程
# url:www.runoob.com

echo "Shell 传递参数实例!";
echo "执行的文件名:$0";
#echo "第一个参数为:$1";
#echo "第二个参数为:$2";
#echo "第三个参数为:$3";

scala -classpath .:$(echo *.jar $SPARK_HOME/jars/*.jar | tr ' ' ':') $1

/home/appleyuchi/scripts/scalac.sh

#!/bin/bash
# author:菜鸟教程
# url:www.runoob.com

echo "Shell 传递参数实例!";
echo "执行的文件名:$0";
#echo "第一个参数为:$1";
#echo "第二个参数为:$2";
#echo "第三个参数为:$3";

scalac -classpath .:$(echo *.jar $SPARK_HOME/jars/*.jar | tr ' ' ':') $1

~/.bashrc中写入:

alias scalac=~/scripts/scalac.sh
alias scala=~/scripts/scala.sh

运行代码如下(代码的逻辑其实和spark没啥关系,为了验证效果所以在开头加了一句spark相关的):

import org.apache.spark.SparkContext._
object HelloWorld {
   /* 这是我的第一个 Scala 程序
    * 以下程序将输出'Hello World!' 
    */
   def main(args: Array[String]) {
      println("Hello, world!") // 输出 Hello World
   }
}

两种运行方法:

scalac HelloWorld.scala

scala HelloWorld

scala HelloWorld.scala

猜你喜欢

转载自blog.csdn.net/appleyuchi/article/details/107698453