Python执行spark程序配置
摘要:
spark没有配置Python环境变量的时候使用Python只用spark时候回出现 from pyspark import SparkConf,SparkContentImportError: No module named pyspark 所以要在环境变量中配置 打开 vim /etc/prof 阅读全文
posted @ 2017-09-23 19:33 潺潺水声 阅读(3198) 评论(0) 推荐(0) 编辑