CDH 5.16.1 离线安装 Spark 2.3

1.环境

CDH 5.16.1
Centos 7.6
Scala 2.11.8

2.安装前准备

1.下载 Spark2.3 所需的Parcel包

http://archive.cloudera.com/spark2/parcels/2.3.0.cloudera4/

将三个文件拷贝到 /opt/cloudera/parcel-repo 目录下,如果有有相同文件,就将之前的文件重命名

2.下载Spark 的csd 包

http://archive.cloudera.com/spark2/csd/

将 SPARK2_ON_YARN-2.3.0.cloudera4.jar 拷贝到 /opt/cloudera/csd 目录中

3.重启CM和集群

4.安装Spark

依次点击 “主机” --> “parcel” --> “检查新parcel” --> “分配” --> “激活”

5.问题

1.启动Spark2-shell报错

解决办法:修改 yarn.scheduler.maximum-allocation-mb 和 yarn.nodemanager.resource.memory-mb的默认值为2G


posted @ 2019-12-11 15:18  大数据小码农  阅读(1236)  评论(0编辑  收藏  举报