05 2017 档案
摘要:在开发完Spark作业之后,就该为作业配置合适的资源了。Spark的资源参数,基本都可以在spark-submit命令中作为参数设置。很多Spark初学者,通常不知道该设置哪些必要的参数,以及如何设置这些参数,最后就只能胡乱设置,甚至压根儿不设置。资源参数设置的不合理,可能会导致没有充分利用集群资源
阅读全文
摘要:spark-streaming读hdfs,统计文件中单词数量,并写入mysql
阅读全文
摘要:yarn logs -applicationId application_xxxx_xxx 可选(">exception")
阅读全文
摘要:对API的解释: 对API的解释: 1.1 transform l map(func):对调用map的RDD数据集中的每个element都使用func,然后返回一个新的RDD,这个返回的数据集是分布式的数据集 l filter(func) : 对调用filter的RDD数据集中的每个元素都使用fun
阅读全文

浙公网安备 33010602011771号