04 2021 档案

摘要:问题的原因是spark默认没有配置lzo支持造成的。所以再写入lzo表时会报错,需要在让spark支持lzo格式(如果使用MR引擎无需设置)。 在配置栏里搜索spark-conf/spark-env.sh 的 Spark 服务高级配置代码段(安全阀) 找到你的lzo目录 如 /opt/clouder 阅读全文
posted @ 2021-04-25 12:37 曲水修竹 阅读(58) 评论(0) 推荐(0)
摘要:错误详情 Error: java.io.IOException: SQLException in nextKeyValue at org.apache.sqoop.mapreduce.db.DBRecordReader.nextKeyValue(DBRecordReader.java:275) at 阅读全文
posted @ 2021-04-22 21:46 曲水修竹 阅读(1503) 评论(0) 推荐(0)