Liuyt_61

愿踏遍山河,仍觉人间值得

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

因为看到我参考的Hadoop/spark集群搭建的文档中的都没有对 /spark-default.conf 的配置

合理地对 /spark-default.conf  进行配置,能够提高执行效率

---------------------------------------------------------------------------------------

 

先cp复制模板文件

然后添加配置信息

 spark.master                       spark://master:7077
 spark.default.parallelism          10
 spark.driver.memory                2g
 spark.serializer                   org.apache.spark.serializer.KryoSerializer
 spark.sql.shuffle.partitions       50


posted on 2017-06-08 23:37  Liuyt_61  阅读(2796)  评论(0编辑  收藏  举报