Spark机器学习(一)Idea的sbt环境搭建

1.安装SBT


                     单击这里下载 SBT 1.4.0,下载完成后解压到指定目录,例如 D:\spark\sbt-1.4.0,然后将 D:\spark\sbt-1.4.0\bin 添加至环境变量PATH。SBT 1.4.0 采用 Coursier 以无锁的方式并行下载依赖,最后使用#>sbt -version查看是否安装正确

2.Idea安装SBT环境

2.1idea中确保正确安装了scala插件

2.2安装SBT环境

在D:/spark/sbt/conf/目录下新建repo.properties文件,填写下面内容,指定镜像站的地址:

[repositories]
  local
  comp-maven: https://maven.aliyun.com/repository/public

2.3在Settings下设置

Custom

    选择d:\spark\sbt\bin\sbt-launch.jar

VM parameters设置内容如下:

-XX:MaxPermSize=512M
-Dsbt.log.format=true
-Dsbt.global.base=D:/spark/sbt/.sbt
-Dsbt.boot.directory=D:/spark/sbt/boot/
-Dsbt.repository.config=D:/spark/sbt/conf/repo.properties

最后确定即可,另外如果导入工程时,选择sbt没有继承上面的配置,则重新选择并配置即可。

3.运行示例

     https://github.com/PacktPublishing/Machine-Learning-with-Spark-Second-Edition,运行示例时,注意修改你本地的scala环境,我的是2.11.12(旧的内容是2.11.7)

这个示例时spark机器学习第二版的示例,电子书或者正版书籍请上网购买。

猜你喜欢

转载自blog.csdn.net/penker_zhao/article/details/109739421
今日推荐