hudi编译

hudi0.11.0+spark3.2

mvn clean install -DskipTests -Dspark3.2 -Dscala-2.12

  • 编译产物在packaging下的hudi-spark-bundle目录

hudi0.12.1+spark3.2

  1. pom配置修改

方式一:

父pom文件修改:proto版本从3.21.5改为3.11.4

<!--    <proto.version>3.21.5</proto.version>-->
<!--    <protoc.version>3.21.5</protoc.version>-->
    <proto.version>3.11.4</proto.version>
    <protoc.version>3.11.4</protoc.version>

方式二:

修改hudi-kafka-connect 中 pom文件,

添加:<protocArtifact>com.google.protobuf:protoc:3.21.5</protocArtifact>

  1. 打包

mvn clean install -DskipTests -Dspark3.2 -Dscala-2.12

  • 编译产物在packaging下的hudi-spark-bundle目录

hudi0.12.1+flink1.14.0

  1. pom配置修改

方式一:

父pom文件修改:proto版本从3.21.5改为3.11.4

<!--    <proto.version>3.21.5</proto.version>-->
<!--    <protoc.version>3.21.5</protoc.version>-->
    <proto.version>3.11.4</proto.version>
    <protoc.version>3.11.4</protoc.version>

方式二:

修改hudi-kafka-connect 中 pom文件,

添加:<protocArtifact>com.google.protobuf:protoc:3.21.5</protocArtifact>

  1. 打包

mvn clean install -DskipTests -Dflink1.14

  • 编译产物在packaging下的hudi-flink-bundle目录

包含hive jar

mvn clean install -DskipTests -Drat.skip=true -Pflink-bundle-shade-hive2 -Dflink1.14

注:使用hudi hms catalog时,需按如上方式打jar包,否则会缺少hive相关类

参考

  1. https://github.com/apache/hudi/issues/6724
  2. [HUDI-4193] Upgrade Protobuf to 3.21.5 by slachiewicz · Pull Request #5784 · apache/hudi
  3. Hudi master 0.13.0-SNAPSHOT Win10 打包异常解决
  4. Error extracting protoc for version 3.5.1 · Issue #68 · os72/protoc-jar-maven-plugin
  5. [SUPPORT] flink hudi some class not found · Issue #4825 · apache/hudi
 
posted @ 2022-11-22 17:34  just-JL  阅读(535)  评论(0)    收藏  举报