pyspark默认使用python2-----更改

默认使用的竟然是2.7好烦如何解决呢

 

配置环境变量就行了

vi ~/.bashrc 

添加一句话

export PATH=/home/hadoop/app/python3/bin:$PATH

保存退出  使环境变量生效

source  ~/.bashrc 

再运行就是这样了

posted @ 2018-09-14 22:20  莫逸风  阅读(199)  评论(0)    收藏  举报