spark平台搭建

  • Spark是用Scala程序设计语言编写而成,运行于Java虚拟机(JVM)环境之上。目前支持如下程序设计语言编写Spark应用:
Scala
Java
Python
Clojure
R

前提条件:

  • 为了让Spark能够在本机正常工作,你需要安装Java开发工具包(JDK)。windows与ubuntu自行下载对应的安装包安装,安装目录不要带空格。
  • 同样还需要在电脑上安装Spark软件.
    Spark网站下载最新版本的Spark。
    将安装文件解压到本地文件夹中(如:c:\dev,ubuntu也同样解压)。为了验证Spark安装的正确性,切换至Spark文件夹然后用如下命令启动Spark Shell。这是Windows环境下的命令。
c:
cd c:\dev\spark-1.2.0-bin-hadoop2.4
bin\spark-shell

如果使用Linux或Mac OS,请相应地编辑命令以便能够在相应的平台上正确运行。

猜你喜欢

转载自blog.csdn.net/papaaa/article/details/78857662