windows下搭建spark+python 开发环境

有时候我们会在windows 下开发spark程序,测试程序运行情况,再部署到真实服务器中运行。

那么本文介绍如何在windows 环境中搭建简单的基于hadoop 的spark 环境。 我的windows环境为 Win7 64位

第一步,安装Python环境

这里不多讲,我的环境为python 3.6

第二步,安装Java 环境

我的环境为

C:\Users\Boss>java -version
java version "1.8.0_91"
Java(TM) SE Runtime Environment (build 1.8.0_91-b14)
Java HotSpot(TM) 64-Bit Server VM (build 25.91-b14, mixed mode)

第三步:下载spark

  • 下载Spark2.2.0,注意与操作系统版本一致

  • 下载地址为:http://spark.apache.org/downloads.htm

请注意:选择了spark版本后会出现一个连接,如下图红色区域,此时竟然可以下载,但是这里下载的文件是不正确的,应该点击此连接进入下一个页面。

这里才是正确的下载地址。

第四步:安装Spark

  • 只需解压程序包,并拷贝至存放路径,注意安装路径中的文件夹名称不要存在空格

  配置环境变量

  • 配置系统变量PATH,添加解压后Spark 目录下面的bin 和sbin 两个目录到PATH中

  

  配置日志显示级别 (这样使得log日志输出少很多)

  • 选择…\spark\conf\目录下log4j.properties.template,复制为log4j.properties

  • 将log4j.properties中,"INFO, console"改为"WARN, console"

第五步:配置Hadoop(这里并不需要配置一个hadoop 伪分布式,仅仅是为spark提供一个hadoop环境模块而已)

下载地址为:https://github.com/LemenChao/Introduction-to-Data-Science/blob/master/Hadoop/hadoop.dll-and-winutils.exe-for-hadoop2.7.3-on-windows_X64-master.zip

安装

只需解压程序包,并拷贝至存放路径,注意安装路径中的文件夹名称不要存在空格

配置环境变量

  • 配置系统变量PATH,添加Hadoop解压后的bin 路径 如c:/hadoop/bin到Path中

到此安装完毕,本地具有了一个基础Spark版本

如何测试

方法一:测试spark-shell

在cmd中输入spark-shell,查看Spark版本信息

方法二:测试 pyspark

在cmd中输入pyspark,查看Pyspark版本信息

 

方法三:运行自带的Spark example测序

打开cmd,输入spark-submit --class org.apache.spark.examples.SparkPi --master local [spark exmple 路径]

比如我的路径下,命令为(此example为计算pi值)

spark-submit --class org.apache.spark.examples.SparkPi --master local D:\tools\bigdata\spark243\examples\jars\spark-examples_2.11-2.4.3.jar

 

猜你喜欢

转载自www.cnblogs.com/bradwarden/p/10940895.html