最近在安装Spark ,而Spark内核是由Scala语言开发的,所以在使用Spark之前,我们必须配置好Scala,而Scala又是运行在JVM上的,所以在配置Scala之前,先要配置好JDK。
由于第一次尝试下载scala,发现scala的版本与linux自带的默认java版本不贴合,运行scala shell报错。2.12版本的scalax需要java8
而默认java是7。
java -version javac -version 用于查询版本
尝试了多种方法,结果改变了java的版本为8,而javac的版本依然为7,并且卡住于下次开机无法进入。
遂删除master虚拟机,重新配置hadoop集群,下载2.11版本的scala,终于成功。
学习如下:
下载新版本的java
解压缩
tar xvf jdk-8u191-linux-x64.tar.gz
移入java文件夹
mv jdk1.8.0_191 /usr/java
链接到系统
update-alternatives --install /usr/bin/java java /usr/java/jdk1.8.0_191/bin/java 1100
如何在多个jdk版本中切换
1.sudo update-alternatives --display java 查看安装了几个java
2.sudo update-alternatives --config java 设置java的版本
alternatives --config javac 设置javac的版本