/home/appleyuchi/scripts/scala.sh
#!/bin/bash
# author:菜鸟教程
# url:www.runoob.com
echo "Shell 传递参数实例!";
echo "执行的文件名:$0";
#echo "第一个参数为:$1";
#echo "第二个参数为:$2";
#echo "第三个参数为:$3";
scala -classpath .:$(echo *.jar $SPARK_HOME/jars/*.jar | tr ' ' ':') $1
/home/appleyuchi/scripts/scalac.sh
#!/bin/bash
# author:菜鸟教程
# url:www.runoob.com
echo "Shell 传递参数实例!";
echo "执行的文件名:$0";
#echo "第一个参数为:$1";
#echo "第二个参数为:$2";
#echo "第三个参数为:$3";
scalac -classpath .:$(echo *.jar $SPARK_HOME/jars/*.jar | tr ' ' ':') $1
~/.bashrc中写入:
alias scalac=~/scripts/scalac.sh
alias scala=~/scripts/scala.sh
运行代码如下(代码的逻辑其实和spark没啥关系,为了验证效果所以在开头加了一句spark相关的):
import org.apache.spark.SparkContext._
object HelloWorld {
/* 这是我的第一个 Scala 程序
* 以下程序将输出'Hello World!'
*/
def main(args: Array[String]) {
println("Hello, world!") // 输出 Hello World
}
}
两种运行方法:
①
scalac HelloWorld.scala
scala HelloWorld
②
scala HelloWorld.scala