会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
我爱豆腐脑
博客园
首页
新随笔
联系
订阅
管理
2018年7月27日
解决Spark On Yarn yarn-cluster模式下的No Suitable Driver问题
摘要: Spark版本:2.2.0_2.11 我们在项目中通过Spark SQL JDBC连接MySQL,在启动Driver/Executor执行的时候都碰到了这个问题。网上解决方案我们全部都试过了,奉上我们自己验证通过的方案: 1、在spark2-submit中指定好如下配置(我们使用的是mysql-co
阅读全文
posted @ 2018-07-27 17:29 我爱豆腐脑
阅读(1404)
评论(4)
推荐(0)