spark 调用saveAsTextFile 报错NullPointerException

如果本地已经安装了hadoop 一般不会有此问题 如果不愿安装 可按照下述方法解决

参考文献

https://blog.csdn.net/ydc321/article/details/52351151


1)下载需要的文件 winutils.exe

http://social.msdn.microsoft.com/Forums/windowsazure/en-US/28a57efb-082b-424b-8d9e-731b1fe135de/please-read-if-experiencing-job-failures?forum=hdinsight

2) 将此文件放置在某个目录下,比如C:\winutils\bin\中。

3)在程序的一开始声明:System.setProperty("hadoop.home.dir", "c:\\winutil\\")


猜你喜欢

转载自blog.csdn.net/u013385018/article/details/79869303