05 2017 档案

摘要:在开发完Spark作业之后,就该为作业配置合适的资源了。Spark的资源参数,基本都可以在spark-submit命令中作为参数设置。很多Spark初学者,通常不知道该设置哪些必要的参数,以及如何设置这些参数,最后就只能胡乱设置,甚至压根儿不设置。资源参数设置的不合理,可能会导致没有充分利用集群资源 阅读全文
posted @ 2017-05-27 17:03 莫为 阅读(199) 评论(0) 推荐(0)
摘要:spark-streaming读hdfs,统计文件中单词数量,并写入mysql 阅读全文
posted @ 2017-05-19 09:56 莫为 阅读(1644) 评论(0) 推荐(0)
摘要:yarn logs -applicationId application_xxxx_xxx 可选(">exception") 阅读全文
posted @ 2017-05-18 15:12 莫为 阅读(558) 评论(0) 推荐(0)
摘要:对API的解释: 对API的解释: 1.1 transform l map(func):对调用map的RDD数据集中的每个element都使用func,然后返回一个新的RDD,这个返回的数据集是分布式的数据集 l filter(func) : 对调用filter的RDD数据集中的每个元素都使用fun 阅读全文
posted @ 2017-05-09 11:01 莫为 阅读(2752) 评论(0) 推荐(0)