8.4 ShuffleMapTask和ResultTask处理结果是如何被Driver管理的

Spark Job中,根据Task所处Stage的位置,我们将Task分为两类:第一类叫shuffleMapTask,指Task所处的Stage不是最后一个Stage,也就是Stage的计算结果还没有输出,而是通过Shuffle交给下一个Stage使用;第二类叫resultTask,指Task所处Stage是DAG中最后的一个Stage,也就是Stage计算结果需要进行输出等操作,计算到此为止已经结束。简单地说,Spark Job中除了最后一个Stage的Task叫resultTask,其他所有Task都叫ShuffleMapTask。

8.4.1 ShuffleMapTask执行结果和Driver的交互原理及源码详解

Driver中的CoarseGrainedSchedulerBackend给CoarseGrainedExecutorBackend发送launchTasks消息,CoarseGrainedExecutorBackend收到launchTasks消息以后会调用executor.launchTask。通过launchTask执行Task,launchTask方法中根据传入的参数:taskId、尝试次数、任务名称、序列化后的任务创建一个TaskRunner,在threadPool中执行TaskRunner。TaskRunner内部会先做一些准备工作,如反序列化Task的依赖,通过网络获取需要的文件、Jar等;然后调用反序列化后的Task.run方法来执行任务并获得执行结果。

其中,Task的run方法调用的时候会导致Task的抽象方法runTask的调用,Task.scala的runTask方法是一个抽象方法。Task包括ResultTask、ShuffleMapTask两种Task,抽象runTask方法具体的实现由子类的runTask实现。ShuffleMapTask的runTask实际运行的时候会调用RDD的iterator,然后针对Partition进行计算。

ShuffleMapTask.scala的源码如下。

1.      override def runTask(context: TaskContext): MapStatus = {
2.   ......
3.      val ser = SparkEnv.get.closureSerializer.newInstance()
4.      val (rdd, dep) = ser.deserialize[(RDD[_], ShuffleDependency[_, _,
        _])](
5.      ......
6.        val manager = SparkEnv.get.shuffleManager
7.       writer = manager.getWriter[Any, Any](dep.shuffleHandle, partitionId,
         context)
8.        writer.write(rdd.iterator(partition, context).asInstanceOf[Iterator
          [_ <: Product2[Any, Any]]])
9.        writer.stop(success = true).get
10.    ......

ShuffleMapTask方法中调用ShuffleManager写入器writer方法,在write时最终计算会调用RDD的compute方法。通过writer.stop(success = true).get,如果写入成功,就返回MapStatus结果值。

SortShuffleWriter.scala的源码如下。

1.  override def write(records: Iterator[Product2[K, V]]): Unit = {
2.  ......
3.        val blockId = ShuffleBlockId(dep.shuffleId, mapId,
          IndexShuffleBlockResolver.NOOP_REDUCE_ID)
4.        val partitionLengths = sorter.writePartitionedFile(blockId, tmp)
5.       shuffleBlockResolver.writeIndexFileAndCommit(dep.shuffleId, mapId,
         partitionLengths, tmp)
6.        mapStatus = MapStatus(blockManager.shuffleServerId, partitionLengths)
7.   ......
8.   override def stop(success: Boolean): Option[MapStatus] = {
9.        ......
10.       if (success) {
11.         return Option(mapStatus)
12.       } else {
13.         return None
14.       }
15. ......

回到TaskRunner的run方法,把task.run执行结果通过resultSer.serialize(value)序列化,生成一个directResult。然后根据大小判断不同的结果赋值给serializedResult,传回给Driver。

(1)如果任务执行结果特别大,超过1GB,日志就提示超出任务大小限制,返回元数据ser.serialize(new IndirectTaskResult[Any](TaskResultBlockId(taskId), resultSize))。

Executor.scala的源码如下。

1.  if (maxResultSize > 0 && resultSize > maxResultSize) {
2.            logWarning(s"Finished $taskName (TID $taskId). Result is larger
              than maxResultSize " + s"(${Utils.bytesToString(resultSize)} >
              ${Utils.bytesToString (maxResultSize)}), " + s"dropping it.")
3.
4.            ser.serialize(new IndirectTaskResult[Any](TaskResultBlockId
              (taskId), resultSize))

(2)如果任务执行结果小于1GB,大于maxDirectResultSize(128MB),就放入blockManager,返回元数据ser.serialize(new IndirectTaskResult[Any](blockId, resultSize))。

Executor.scala的源码如下。

1.  .......
2.    } else if (resultSize > maxDirectResultSize) {
3.              val blockId = TaskResultBlockId(taskId)
4.              env.blockManager.putBytes(
5.                blockId,
6.                new ChunkedByteBuffer(serializedDirectResult.duplicate()),
7.                StorageLevel.MEMORY_AND_DISK_SER)
8.              logInfo(
9.                s"Finished $taskName (TID $taskId). $resultSize bytes result
                  sent via BlockManager)")
10.             ser.serialize(new IndirectTaskResult[Any](blockId, resultSize))

(3)如果任务执行结果小于128MB,就直接返回serializedDirectResult。

Executor.scala的源码如下。

1.  .......
2.  } else {
3.            logInfo(s"Finished $taskName (TID $taskId). $resultSize bytes
              result sent to driver")
4.            serializedDirectResult
5.  ......

接下来,TaskRunner的run方法中调用execBackend.statusUpdate(taskId,TaskState.FINISHED,serializedResult)给Driver发送一个消息,消息中将taskId、TaskState.FINISHED、serializedResult传进去。这里,execBackend是CoarseGrainedExecutorBackend。

Executor.scala的源码如下。

1.      override def run(): Unit = {
2.   .....
3.          execBackend.statusUpdate(taskId, TaskState.FINISHED, serializedResult)
4.  ......

CoarseGrainedExecutorBackend的statusUpdate方法的源码如下。

1.  override def statusUpdate(taskId: Long, state: TaskState, data:
    ByteBuffer) {
2.    val msg = StatusUpdate(executorId, taskId, state, data)
3.    driver match {
4.      case Some(driverRef) => driverRef.send(msg)
5.      case None => logWarning(s"Drop $msg because has not yet connected
        to driver")
6.    }
7.  }

CoarseGrainedExecutorBackend给DriverEndpoint发送StatusUpdate来传输执行结果。DriverEndpoint是一个ThreadSafeRpcEndpoint消息循环体,模式匹配收到StatusUpdate消息,调用scheduler.statusUpdate(taskId, state, data.value)方法执行。这里的scheduler是TaskSchedulerImpl。

CoarseGrainedSchedulerBackend.scala的DriverEndpoint的源码如下。

1.    override def receive: PartialFunction[Any, Unit] = {
2.  case StatusUpdate(executorId, taskId, state, data) =>
3.    scheduler.statusUpdate(taskId, state, data.value)

DriverEndpoint会把执行结果传递给TaskSchedulerImpl处理,交给TaskResultGetter内部,通过线程去分别处理Task执行成功和失败时的不同情况,然后告诉DAGScheduler任务处理结束的状况。

TaskSchedulerImpl.scala的statusUpdate的源码如下。

1.  def statusUpdate(tid: Long, state: TaskState, serializedData: ByteBuffer) {
2.  ........
3.    if (TaskState.isFinished(state)) {
4.                cleanupTaskState(tid)
5.                taskSet.removeRunningTask(tid)
6.                if (state == TaskState.FINISHED) {
7.                  taskResultGetter.enqueueSuccessfulTask(taskSet, tid,
                    serializedData)
8.                } else if (Set(TaskState.FAILED, TaskState.KILLED,
                  TaskState.LOST).contains(state)) {
9.                  taskResultGetter.enqueueFailedTask(taskSet, tid, state,
                    serializedData)
10.               }
11.             }

TaskResultGetter.scala的enqueueSuccessfulTask方法中,开辟一条新线程处理成功任务,对结果进行相应的处理后调用scheduler.handleSuccessfulTask。

TaskSchedulerImpl的handleSuccessfulTask的源码如下。

1.   def handleSuccessfulTask(
2.      taskSetManager: TaskSetManager,
3.      tid: Long,
4.      taskResult: DirectTaskResult[_]): Unit = synchronized {
5.    taskSetManager.handleSuccessfulTask(tid, taskResult)
6.  }

TaskSchedulerImpl的handleSuccessfulTask交给TaskSetManager调用handleSuccessfulTask。

TaskSetManager的handleSuccessfulTask的源码如下。

1.   def handleSuccessfulTask(tid: Long, result: DirectTaskResult[_]): Unit = {
2.     ......
3.    sched.dagScheduler.taskEnded(tasks(index), Success, result.value(),
      result.accumUpdates, info)
4.  ......
5.

handleSuccessfulTask方法中调用sched.dagScheduler.taskEnded,taskEnded由TaskSetManager调用,汇报任务完成或者失败。将任务完成的事件CompletionEvent放入eventProcessLoop事件处理循环中。

DAGScheduler.scala的源码如下。

1.  def taskEnded(
2.       task: Task[_],
3.       reason: TaskEndReason,
4.       result: Any,
5.       accumUpdates: Seq[AccumulatorV2[_, _]],
6.       taskInfo: TaskInfo): Unit = {
7.     eventProcessLoop.post(
8.       CompletionEvent(task, reason, result, accumUpdates, taskInfo))
9.   }

由事件循环线程读取消息,并调用DAGSchedulerEventProcessLoop.onReceive方法进行消息处理。

DAGScheduler.scala的源码如下。

1.    override def onReceive(event: DAGSchedulerEvent): Unit = {
2.    val timerContext = timer.time()
3.    try {
4.      doOnReceive(event)
5.    } finally {
6.      timerContext.stop()
7.    }
8.  }

onReceive中调用doOnReceive(event)方法,模式匹配到CompletionEvent,调用dagScheduler.handleTaskCompletion方法。

DAGScheduler.scala的源码如下。

1.    private def doOnReceive(event: DAGSchedulerEvent): Unit = event match {
2.      case JobSubmitted(jobId, rdd, func, partitions, callSite, listener,
        properties) =>
3.        dagScheduler.handleJobSubmitted(jobId, rdd, func, partitions,
          callSite, listener, properties)
4.  ......
5.    case completion: CompletionEvent =>
6.        dagScheduler.handleTaskCompletion(completion)
7.  .....

DAGScheduler.handleTaskCompletion中task执行成功的情况,根据ShuffleMapTask和ResultTask两种情况分别处理。其中,ShuffleMapTask将MapStatus汇报给MapOutTracker。

Spark 2.1.1版本的DAGScheduler的handleTaskCompletion的源码如下。

1.       private[scheduler] def handleTaskCompletion(event: CompletionEvent) {
2.  ......
3.    val stage = stageIdToStage(task.stageId)
4.      event.reason match {
5.        case Success =>
6.          stage.pendingPartitions -= task.partitionId
7.          task match {
8.  ......
9.    case smt: ShuffleMapTask =>
10.             val shuffleStage = stage.asInstanceOf[ShuffleMapStage]
11.             updateAccumulators(event)
12.             val status = event.result.asInstanceOf[MapStatus]
13.             val execId = status.location.executorId
14.             logDebug("ShuffleMapTask finished on " + execId)
15.             if (failedEpoch.contains(execId) && smt.epoch <= failedEpoch
                (execId)) {
16.               logInfo(s"Ignoring      possibly    bogus    $smt   completion    from
                  executor $execId")
17.             } else {
18.               shuffleStage.addOutputLoc(smt.partitionId, status)
19.             }
20.
21.             if   (runningStages.contains(shuffleStage)           &&  shuffleStage.
                pendingPartitions.isEmpty) {
22.               markStageAsFinished(shuffleStage)
23.               logInfo("looking for newly runnable stages")
24.               logInfo("running: " + runningStages)
25.       logInfo("waiting: " + waitingStages)
26.       logInfo("failed: " + failedStages)
27.       /**
            * 我们设置为true,来递增纪元编号,以防止map输出重新计算。在这种情
            * 况下,一些节点可能已经缓存了损坏的位置(从我们检测到的错误),将需
            * 要纪元编号递增来重取它们。待办事项:如果这不是第一次,那么只增加纪
            * 元编号,我们注册了map输出
28.         */
29.       mapOutputTracker.registerMapOutputs(
30.         shuffleStage.shuffleDep.shuffleId,
31.         shuffleStage.outputLocInMapOutputTrackerFormat(),
32.         changeEpoch = true)
33.       clearCacheLocs()
34.       if (!shuffleStage.isAvailable) {
35.         //有些任务已经失败了,重新提交shuffleStage
36.         //待办事项:低级调度器也应该处理这个问题
37.         logInfo("Resubmitting " + shuffleStage + " (" +
            shuffleStage.name +
38.           ") because some of its tasks had failed: " +
39.           shuffleStage.findMissingPartitions().mkString(", "))
40.         submitStage(shuffleStage)
41.       } else {
42.         //标识任何map阶段的作业都在这个阶段等待完成
43.         if (shuffleStage.mapStageJobs.nonEmpty) {
44.           val stats = mapOutputTracker.getStatistics(shuffleStage.
              shuffleDep)
45.           for (job <- shuffleStage.mapStageJobs) {
46.             markMapStageJobAsFinished(job, stats)
47.           }
48.         }
49.         submitWaitingChildStages(shuffleStage)
50.       }
51.     }
52.  }

Spark 2.2.0版本的DAGScheduler的handleTaskCompletion的源码与Spark 2.1.1版本相比具有如下特点。

 上段代码中第6行删掉stage.pendingPartitions -= task.partitionId。

 上段代码中第14行之后新增if的逻辑判断,如果stageIdToStage(task.stageId). latestInfo.attemptId等于task.stageAttemptId,则执行shuffleStage.pendingPartitions -= task.partitionId。

1.         case smt: ShuffleMapTask =>
2.            ......
3.              if    (stageIdToStage(task.stageId).latestInfo.attemptId               ==
                task.stageAttemptId) {
4.   /**
       * 任务Task是当前stage正在尝试做的。因为任务在TaskSetManager下顺利完成,其
       * 标记为不再等待TaskSetManager把任务完成,当任务的epoch较小时,需忽略输出。
       * 在这种情况下,挂起的分区为空时,仍然会丢失输出位置,这将导致DAGScheduler 重新
       * 提交下面的stage
5.     */
6.                shuffleStage.pendingPartitions -= task.partitionId
7.              }
8.  ......

8.4.2 ResultTask执行结果与Driver的交互原理及源码详解

Task的run方法调用的时候会导致Task的抽象方法runTask的调用,Task.scala的runTask方法是一个抽象方法。Task包括ResultTask、ShuffleMapTask两种Task,抽象runTask方法具体的实现由子类的runTask实现。ResultTask的runTask具体实现的源码如下。

ResultTask.scala的runTask的源码如下。

1.    override def runTask(context: TaskContext): U = {
2.      ......
3.  //反序列RDD和func处理函数
4.      val (rdd, func) = ser.deserialize[(RDD[T], (TaskContext, Iterator[T])
        => U)](
5.      ......
6.      func(context, rdd.iterator(partition, context))
7.    }

而ResultTask的runTask方法中反序列化生成func函数,最后通过func函数计算出最终的结果。

ResultTask执行结果与Driver的交互过程同ShuffleMapTask类似,最终,DAGScheduler.handleTaskCompletion中Task执行结果,根据ShuffleMapTask和ResultTask两种情况分别处理。其中,ResultTask的处理结果如下。

DAGScheduler的handleTaskCompletion的源码如下。

1.   case rt: ResultTask[_, _] =>
2.          //因为是ResultTask的一部分,所以对应为ResultStage
3.          //待办事宜:这一功能进行重构,接受ResultStage
4.          val resultStage = stage.asInstanceOf[ResultStage]
5.          resultStage.activeJob match {
6.            case Some(job) =>
7.              if (!job.finished(rt.outputId)) {
8.                updateAccumulators(event)
9.                job.finished(rt.outputId) = true
10.               job.numFinished += 1
11.               //如果整个作业完成,就删除
12.               if (job.numFinished == job.numPartitions) {
13.                 markStageAsFinished(resultStage)
14.                 cleanupStateForJobAndIndependentStages(job)
15.                 listenerBus.post(
16.                  SparkListenerJobEnd(job.jobId, clock.getTimeMillis(),
                     JobSucceeded))
17.               }
18.
19.   //taskSucceeded 运行用户代码可能会抛出一个异常
20.               try {
21.                 job.listener.taskSucceeded(rt.outputId, event.result)
22.               } catch {
23.                 case e: Exception =>
24.                   //待办事项:可能我们要标记resultStage 失败?
25.                   job.listener.jobFailed(new SparkDriverExecution-
                      Exception(e))
26.               }
27.             }
28.    case None =>
29.      logInfo("Ignoring result from " + rt + " because its job has
         finished")
30.  }

Driver端的DAGScheduler的MapOutputTracker把shuffleMapTask执行的结果交给ResultTask,ResultTask根据前面Stage的执行结果进行shuffle后产生整个Job最后的结果。