spark 写 hbase 数据库,遇到Will not attempt to authenticate using SASL (unknown error)

今日在windows上用spark写hbase的函数 saveAsHadoopDataset 写hbase数据库的时候,遇到Will not attempt to authenticate using SASL (unknown error) 错误,程序卡在那里不动了,百度后发现是我的windows上面hosts文件没有配置。

观察ambari的hosts显示

然后我开始配置hosts

ip1  a.hadoop2.com
ip2  a.hadoop3.com
ip3  a.hadoop4.com

配置好后运行,尼玛不起作用啊,还是卡在那不动。。。

 

继续百度。。发现每个帖子基本都在说让配hosts,绝望了。然后我突然反应过来去看一下服务器上的hosts文件到底咋配的,一看发现。。

ip1   hadoop2        a.hadoop2.com
ip2   hadoop3        a.hadoop3.com
ip3   hadoop4        a.hadoop4.com

尼玛。。。好坑。。。原来是这么配的。ambari里面显示的是域名,而我之前把域名配置在了主机名的位置,所以不能解决问题。

然后我把windows的ip配的和linux的一模一样,程序就不卡在那了,成功写入了hbase。

posted on 2018-03-26 16:52  skyer1992  阅读(9500)  评论(5编辑  收藏  举报

导航