关于大数据中-----任务调度、资源调度

1、 任务调度

     a、RDD Objects---->转换为DAG有向无环图

     b、DAGScheduler---根据RDD之间的宽窄依赖切分Job,切分为Stage

     c、Stage本质上就是---TaskSet,Stage就会以TaskSet形式传给TaskScheduler

     d、TaskScheduler遍历TaskSet,分配给executor执行

        |如果说executor中task执行失败,跟TaskScheduler申请重试3次,3次仍然失败

DAGScheduler重试重新发送TaskSet,默认会重试4次。如果仍然失败,宣告Stage执行失败

,也就是包含Stage的job宣告执行失败。

     e、推测执行---表示一个spark job中,可能会存在某一些task执行缓慢,推测会启动

一个相同的task,选择先执行完的作为结果

        |推测执行在spark中默认是关闭的

  1、可能出现数据重复写入

  2、集群奔溃。数据倾斜--task本身计算量大,耗时较长

  2、spark的资源调度流程

    master:管理整个集群的资源

    Worker:每启动一个Worker都注册在Master上

  a、当提交spark的程序时,main会创建driver进程

          当执行到val sc=new SparkContext()---会默认创建两个对象DAGScheduler、

   TaskScheduler对象。

  b、TaskScheduler向Master发送一个请求,申请程序运行需要资源

  c、maste根据TaskScheduler发送的请求,去每一个worker上查看其资源使用情况,

  给资源充足的worker上发送一条信息。让其创建一个executor进程,是一个线程池

  用来执行每一个task

  d、所有的executor都向TaskScheduler反向注册,TaskScheduler中一个executor列表

  e、任务调度---DAGScheduler切分job---分发TaskSet TaskScheduler

  f、TaskScheduler遍历TaskSet,把每一个task分发最优的executor执行

     注意:如果task执行失败,向TaskScheduler...(任务调度)

 

posted @ 2019-09-02 20:19  花喵  阅读(1899)  评论(0编辑  收藏  举报