摘要:
一、问题描述 客户现场报错数据块已经到达hadoop设置的最大限制:File has reached the limit on maximum number of blocks (dfs.namenode.fs-limits.max-blocks-per-file): 10000 >= 10000。 阅读全文
摘要:
一、概述 CDP7.1.7版本部署完hive之后,开启了hivemetastore之后,已经把10000的端口占掉了;但是默认部署hive on tez时,hiveserver2的端口还是使用的该端口,会因为端口冲突导致hive on tez的hiverserver2不稳定,时常掉线。 二、问题原因 阅读全文
摘要:
一、准备工作 hive本身支持hive on mr、hive on spark 和hive on tez三种执行引擎,CDH6.3.x及其以下版本都没有支持tez执行引擎,需要使用的话需要单独引入。由于CDH的hadoop版本进行了改造,因此tez的开源release版本不能直接使用,需要集成CDH 阅读全文