pyspark默认使用python2-----更改

默认使用的竟然是2.7好烦如何解决呢

配置环境变量就行了

vi ~/.bashrc 

添加一句话

export PATH=/home/hadoop/app/python3/bin:$PATH

保存退出  使环境变量生效

source  ~/.bashrc 

再运行就是这样了

猜你喜欢

转载自blog.csdn.net/qq_38723677/article/details/82709408