hdfs长时间写入数据报错

 

问题描述:

客户要导入一批数据到hdfs,程序运行一会后报错:远程主机强制关闭了一个现有链接

 

 提示信息说无可用datanode,但是之前已经上传了一些文件了,查了些资料说是  DataNode写入策略问题导致失败

解决办法:

conf.set("dfs.client.block.write.replace-datanode-on-failure.policy","NEVER"); 
conf.set("dfs.client.block.write.replace-datanode-on-failure.enable","true"); 

 

 

在代码中加入这两句配置,还不清楚具体什么作用,也会报上面的错误,但是这次会跳过继续往下执行。。然后就是收集下没有导入的数据。之后再重新导入。

原文地址:https://blog.csdn.net/wangweislk/article/details/78890163

posted @ 2020-09-10 08:31  行走的空心菜  阅读(401)  评论(0编辑  收藏  举报