Win10 Ubuntu虚拟机安装并配置Hadoop、Spark环境

一,安装Ubuntu

1,安装好的VirtualBox虚拟机软件;
2,Ubuntu LTS 16.04 ISO映像文件:
厦门大学实验室资源extract code:99bg;
3,安装一路继续;

二,安装Linux虚拟机

安装的Ubuntu 64bit Linux。
进入系统后可以在UI左下角的设置中设置虚拟机桌面分辨率。

三,安装hadoop和配置JDK环境

Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0(2.7.1)/Ubuntu14.04(16.04)

tar -zxvf 源1 -C 源2
sudo tar -zxvf ./jdk-8u162-linux-x64.tar.gz -C /usr/lib/jvm
#把当前目录下的JDK文件解压到/usr/lib/jvm目录下

四,Spark环境配置

这里配置的是可以访问HDFS的spark环境。
附上教程链接,教程中第一次运行程序时需要下载依赖包,需要花费的时间远比原作者描述的时间长,亲测,也有可能时网络环境的问题。
Linux下spark安装与使用

Guess you like

Origin blog.csdn.net/weixin_44080131/article/details/113781827