Apache Spark源码走读之3 -- Task运行期之函数调用关系分析
摘要:概要本篇主要阐述在TaskRunner中执行的task其业务逻辑是如何被调用到的,另外试图讲清楚运行着的task其输入的数据从哪获取,处理的结果返回到哪里,如何返回。准备spark已经安装完毕spark运行在local mode或local-cluster modelocal-cluster mod...
阅读全文
posted @
2014-11-30 11:31
船长
阅读(201)
推荐(0)
Apache Spark源码走读之5 -- DStream处理的容错性分析
摘要:在流数据的处理过程中,为了保证处理结果的可信度(不能多算,也不能漏算),需要做到对所有的输入数据有且仅有一次处理。在Spark Streaming的处理机制中,不能多算,比较容易理解。那么它又是如何作到即使数据处理结点被重启,在重启之后这些数据也会被再次处理呢?环境搭建为了有一个感性的认识,先运行一...
阅读全文
posted @
2014-11-30 11:30
船长
阅读(231)
推荐(0)
Apache Spark源码走读之8 -- Spark on Yarn
摘要:概要Hadoop2中的Yarn是一个分布式计算资源的管理平台,由于其有极好的模型抽象,非常有可能成为分布式计算资源管理的事实标准。其主要职责将是分布式计算集群的管理,集群中计算资源的管理与分配。Yarn为应用程序开发提供了比较好的实现标准,Spark支持Yarn部署,本文将就Spark如何实现在Ya...
阅读全文
posted @
2014-11-30 11:30
船长
阅读(253)
推荐(0)
Apache Spark源码走读之4 -- DStream实时流数据处理
摘要:Spark Streaming能够对流数据进行近乎实时的速度进行数据处理。采用了不同于一般的流式数据处理模型,该模型使得Spark Streaming有非常高的处理速度,与storm相比拥有更高的吞能力。本篇简要分析Spark Streaming的处理模型,Spark Streaming系统的初始化...
阅读全文
posted @
2014-11-30 11:30
船长
阅读(229)
推荐(0)
Apache Spark源码走读之6 -- 存储子系统分析
摘要:Spark计算速度远胜于Hadoop的原因之一就在于中间结果是缓存在内存而不是直接写入到disk,本文尝试分析Spark中存储子系统的构成,并以数据写入和数据读取为例,讲述清楚存储子系统中各部件的交互关系。存储子系统概览上图是Spark存储子系统中几个主要模块的关系示意图,现简要说明如下CacheM...
阅读全文
posted @
2014-11-30 11:30
船长
阅读(163)
推荐(0)
Apache Spark源码走读之9 -- Spark源码编译
摘要:概要本来源码编译没有什么可说的,对于java项目来说,只要会点maven或ant的简单命令,依葫芦画瓢,一下子就ok了。但到了Spark上面, 事情似乎不这么简单,按照spark officical document上的来做,总会出现这样或那样的编译错误,让人懊恼不已。今天闲来无事,又重试了一把,居...
阅读全文
posted @
2014-11-30 11:29
船长
阅读(140)
推荐(0)
Apache Spark源码走读之7 -- Standalone部署方式分析
摘要:在Spark源码走读系列之2中曾经提到Spark能以Standalone的方式来运行cluster,但没有对Application的提交与具体运行流程做详细的分析,本文就这些问题做一个比较详细的分析,并且对在standalone模式下如何实现HA进行讲解。没有HA的Standalone运行模式先从比...
阅读全文
posted @
2014-11-30 11:29
船长
阅读(265)
推荐(0)
Apache Spark源码走读之11 -- sql的解析与执行
摘要:概要在即将发布的spark 1.0中有一个新增的功能,即对sql的支持,也就是说可以用sql来对数据进行查询,这对于DBA来说无疑是一大福音,因为以前的知识继续生效,而无须去学什么scala或其它script.一般来说任意一个sql子系统都需要有parser,optimizer,execution三...
阅读全文
posted @
2014-11-30 11:28
船长
阅读(197)
推荐(0)
Apache Spark源码走读之10 -- 在YARN上运行SparkPi
摘要:概要“spark已经比较头痛了,还要将其运行在yarn上,yarn是什么,我一点概念都没有哎,再怎么办啊。不要跟我讲什么原理了,能不能直接告诉 我怎么将spark在yarn上面跑起来,I'm a dummy, just told me how to do it.”如果你和我一样是一个对形而上的东西不...
阅读全文
posted @
2014-11-30 11:27
船长
阅读(297)
推荐(0)
Apache Spark源码走读之2 -- Job的提交与运行
摘要:概要本文以wordCount为例,详细说明spark创建和运行job的过程,重点是在进程及线程的创建。实验环境搭建在进行后续操作前,确保下列条件已满足。下载spark binary 0.9.1安装scala安装sbt安装java启动spark-shell单机模式运行,即local模式local模式运...
阅读全文
posted @
2014-11-30 11:27
船长
阅读(165)
推荐(0)
Apache Spark源码走读之12 -- Hive on Spark运行环境搭建
摘要:Hive是基于Hadoop的开源数据仓库工具,提供了类似于SQL的HiveQL语言,使得上层的数据分析人员不用知道太多MapReduce的知识就能对存储于Hdfs中的海量数据进行分析。由于这一特性而收到广泛的欢迎。Hive的整体框架中有一个重要的模块是执行模块,这一部分是用Hadoop中MapRed...
阅读全文
posted @
2014-11-30 11:27
船长
阅读(159)
推荐(0)
Apache Spark源码走读之14 -- Graphx实现剖析
摘要:概要图的并行化处理一直是一个非常热门的话题,这里头的重点有两个,一是如何将图的算法并行化,二是找到一个合适的并行化处理框架。Spark作为一个非常优秀的并行处理框架,将一些并行化的算法移到其上面就成了一个很自然的事情。Graphx是一些图的常用算法在Spark上的并行化实现,同时提供了丰富的API接...
阅读全文
posted @
2014-11-30 11:27
船长
阅读(204)
推荐(0)
Apache Spark源码走读之13 -- hiveql on spark实现详解
摘要:概要在新近发布的spark 1.0中新加了sql的模块,更为引人注意的是对hive中的hiveql也提供了良好的支持,作为一个源码分析控,了解一下spark是如何完成对hql的支持是一件非常有趣的事情。Hive简介Hive的由来以下部分摘自Hadoop definite guide中的Hive一章“...
阅读全文
posted @
2014-11-30 11:26
船长
阅读(282)
推荐(0)
Apache Spark源码走读之15 -- Standalone部署模式下的容错性分析
摘要:概要本文就standalone部署方式下的容错性问题做比较细致的分析,主要回答standalone部署方式下的包含哪些主要节点,当某一类节点出现问题时,系统是如何处理的。Standalone部署的节点组成介绍Spark的资料中对于RDD这个概念涉及的比较多,但对于RDD如何运行起来,如何对应到进程和...
阅读全文
posted @
2014-11-30 11:26
船长
阅读(157)
推荐(0)
Apache Spark源码走读之16 -- spark repl实现详解
摘要:概要之所以对spark shell的内部实现产生兴趣全部缘于好奇代码的编译加载过程,scala是需要编译才能执行的语言,但提供的scala repl可以实现代码的实时交互式执行,这是为什么呢?既然scala已经提供了repl,为什么spark还要自己单独搞一套spark repl,这其中的缘由到底何...
阅读全文
posted @
2014-11-30 11:26
船长
阅读(1094)
推荐(0)
Apache Spark源码走读之1 -- Spark论文阅读笔记
摘要:源码阅读是一件非常容易的事,也是一件非常难的事。容易的是代码就在那里,一打开就可以看到。难的是要通过代码明白作者当初为什么要这样设计,设计之初要解决的主要问题是什么。在对Spark的源码进行具体的走读之前,如果想要快速对Spark的有一个整体性的认识,阅读Matei Zaharia做的Spark论文...
阅读全文
posted @
2014-11-28 20:18
船长
阅读(163)
推荐(0)
Spark简介
摘要:Spark已正式申请加入Apache孵化器,从灵机一闪的实验室“电火花”成长为大数据技术平台中异军突起的新锐。本文主要讲述Spark的设计思想。Spark如其名,展现了大数据不常见的“电光石火”。具体特点概括为“轻、快、灵和巧”。轻:Spark 0.6核心代码有2万行,Hadoop 1.0为9万行,...
阅读全文
posted @
2014-11-28 20:17
船长
阅读(573)
推荐(0)
Spark 编程指南
摘要:尊重原创,注重版权,转贴请注明原文地址:http://www.cnblogs.com/vincent-hv/p/3322966.html1、配置程序使用资源:System.setProperty("spark.executor.memary", "512m")2、创建自己的SparkContext对...
阅读全文
posted @
2014-11-28 20:16
船长
阅读(146)
推荐(0)