摘要: 主要原因在与spark2+的版本对jdk进行了检查导致的,换了低版本的jdk之后,发现版本不支持,spark2.+需要使用jdk1.8+以上的版本,把jdk版本切换过来。在yarn的配置文件添加一下配置即可。 最后,最后,最后,不要忘记重启hadoop,不然在去执行还是会报错的。 阅读全文
posted @ 2019-07-01 12:34 听~雨 阅读(1050) 评论(0) 推荐(0)