win7系统下,搭建python+jupyter notebook+spark

1、python的下载及安装

下载地址:https://www.python.org/getit/   ,有python2和Python3版本的,根据所需自行下载,我下载的是pyhton2的版本,着重说一下python2吧,打开首页下载地址后,我选择最新版本,

然后跳转到包含所有python2.7.15版本的页面,如图,windows版本的有两个,windows x86-64 MSI installer的是64位操作系统的版本,windows x86 MSI installer是32位操作系统的版本,请根据你的系统来进行选择。(不清楚的可以右键计算机属性来得到系统信息;或者win+R键,输入cmd回车后,输入命令systeminfo来得到系统信息)

下载完成,【双击】进行安装,一路【next】完成安装,选择安装目录时默认C盘,也可以选择其他的路径安装。安装好后,接下来是为python添加环境变量,便于系统能找到它。右键计算机属性-->左上方的高级系统设置-->环境变量-->系统变量-->找到变量名为path的那一行-->【双击】或者点击【编辑】,在变量值里添加python 的安装路径,由于path里有多个其他软件的安装路径,所以它们之间是用英文的分号【;】来隔开的,我习惯在变量值最前方也就是最左边先加一个【;】,然后左移一位输入安装路径,如:我的是D:\Python27,我会添加到最前方,这样最前方就是你最近添加的系统变量值,如:【D:\Python27;D:\XXXXXX;C:\Program Files\Java\jre1.8.0_60\bin;E:\XXXXX】,假如目前你的path里有这四个安装路径,这就是正确的格式,排在最后一个的不需要添加分号【;】,添加好点击【确定】返回。

测试安装成功:win+R键,输入cmd回车后,输入命令python,有下图的界面表示成功

接下来是各种第三方库的安装,如果需要用pip install来进行安装,还需要在上面的系统变量的path里添加pip的安装路径,我的是在D:\Python27\Scripts,所以path里【D:\Python27\Scripts;D:\Python27;D:\XXXXXX;C:\Program Files\Java\jre1.8.0_60\bin;E:\XXXXX】是这样的,如需要安装【jupyter】第三方库,输入如图中的命令回车即可(有时需要看网速,网速不行,多来几遍就可以了)

2、jupyter notebook的简单配置

通过上图就可以进行jupyter的安装了,接下来是一些简单配置。

1、首先要确定jupyter的工作空间,若想将以后再jupyter上 的操作及代码放在D盘里的一个jupyter notebook的文件夹下,win+R键,cmd回车,转到D:\jupyter notebook,然后输入jupyter notebook回车,就能打开了。

成功页面是这样的:

如果打开是空白页,没有上图所显示的,输入jupyter notebook --generate-config

此命令回车,产生一个jupyter_notebook_config.py的配置文件,打开ctrl+F查找browser,找到

## Specify what command to use to invoke a web browser when opening the notebook.
#  If not specified, the default browser will be determined by the `webbrowser`
#  standard library module, which allows setting of the BROWSER environment
#  variable to override it.

#c.NotebookApp.browser = u''

在其后面插入

import webbrowser  
webbrowser.register('chrome', None, webbrowser.GenericBrowser(u'C:\Program Files\Google\Chrome\Application\chrome.exe'))  

c.NotebookApp.browser = 'chrome'  

我用的是chrome浏览器,第二行里写的是chrome的安装路径,其他浏览器应该也可以,同样要注明浏览器的安装路径,应该就可以成功打开页面了

3、用pip安装spark的插件

使用命令【pip install pyspark】就可以成功安装,然后在code里使用【import pysaprk】或者应用具体的如【from pyspark import SparkContext】就可以了

猜你喜欢

转载自blog.csdn.net/YSH55024/article/details/81163580
今日推荐