spark安装后测试遇到的错误

1、Spark测试时出现错误

img

原因:

由于之前修改了主机名,导致修改后的主机名和hosts文件中的127.0.0.1映射不存在,因此在执行spark-shell和pyspark的时候,会出现错误,

经过不断的测试,找到了问题并成功解决。

解决方法:

使用hostname命令查看当前主机名,我这边是ubuntu,然后修改hosts文件,添加一行’127.0.0.1 ubunut’,然后在执行spark-shell或者pyspark即可成功执行。

2、重新打开窗口后发现执行命令时出现错误

img

修改完/etc/profile后,使用source /etc/profile刷新,但是打开另一个terminal时候,发现执行scala会出现not installed,执行spark-shell或pyspark又会发现command not found错误。

解决方法:

在新开的窗口重新执行source /etc/profile或者重启ubuntu即可解决问题。

posted @ 2021-10-27 15:34  星月故里yw  阅读(223)  评论(0)    收藏  举报