C/C++教程

Spark记录(四):Dataset.count()方法源码剖析

本文主要是介绍Spark记录(四):Dataset.count()方法源码剖析,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

因最近工作中涉及较多的Spark相关功能,所以趁周末闲来无事,研读一下Dataset的count方法。Spark版本3.2.0

1、方法入口:

  def count(): Long = withAction("count", groupBy().count().queryExecution) { plan =>
    plan.executeCollect().head.getLong(0)
  }

可以看到,count方法调用的是withAction方法,入参有三个:字符串count、调用方法获取到的QueryExecution、一个函数。注:此处就是对Scala函数式编程的应用,将函数作为参数来传递

2、第二个参数QueryExecution的获取流程

 2.1、首先看groupBy()方法:

1   def groupBy(cols: Column*): RelationalGroupedDataset = {
2     RelationalGroupedDataset(toDF(), cols.map(_.expr), RelationalGroupedDataset.GroupByType)
3   }

groupBy方法是用于分组聚合的,一般用法是groupBy之后加上agg聚合函数,对分组之后的每组数据进行聚合,入参为Column类型的可变长度参数。

但上面count方法中调用时未传任何入参,产生的效果就是****

groupBy方法只有一行代码,生成并返回了一个RelationalGroupedDataset的对象,而且此处是用伴生对象的简略写法创建出来的,该行代码其实质是调用了RelationalGroupedDataset的伴生对象中的apply方法,三个入参。

注:RelationalGroupedDataset 类是用于处理聚合操作的,内部封装了对agg方法的处理,以及一些统计函数sum、max等的实现。

2.1.1、逐一看下RelationalGroupedDataset的三个入参:

首先是toDF()方法,方法体如下,可见就是重新创建了一个Dataset[Row]对象,即DataFrame

  def toDF(): DataFrame = new Dataset[Row](queryExecution, RowEncoder(schema))

然后是cols.map(_.expr),即遍历执行每个Column的expr表达式,因为此处未传入cols,故可忽略。

最后传入的是 RelationalGroupedDataset.GroupByType,起了标识的作用。因为RelationalGroupedDataset类的方法除了groupBy调用之外,还有Cube、Rollup、Pivot等都会调用,为与其他几种区别开,故传入了GroupByType。

2.1.2、初探 RelationalGroupedDataset 类

apply方法:

1   def apply(
2       df: DataFrame,
3       groupingExprs: Seq[Expression],
4       groupType: GroupType): RelationalGroupedDataset = {
5     new RelationalGroupedDataset(df, groupingExprs, groupType: GroupType)
6   }

类的定义:

class RelationalGroupedDataset protected[sql](
    private[sql] val df: DataFrame,
    private[sql] val groupingExprs: Seq[Expression],
    groupType: RelationalGroupedDataset.GroupType) {
......
}

可见没有多余的逻辑,只是单纯的创建了一个对象。至于这个对象如何使用的,还需继续追溯它里面的count方法,即Dataset.count()中调用的groupBy().count()。

2.2、groupBy().count(),即 RelationalGroupedDataset.count():

  def count(): DataFrame = toDF(Seq(Alias(Count(Literal(1)).toAggregateExpression(), "count")()))

2.2.1、其中Alias(Count(Literal(1)).toAggregateExpression(), "count")的作用,就是生成 count(1) as count 这样的一个统计函数的表达式。

2.2.2、然后toDF方法,如下所示:

 1 private[this] def toDF(aggExprs: Seq[Expression]): DataFrame = {
 2     val aggregates = if (df.sparkSession.sessionState.conf.dataFrameRetainGroupColumns) { // 是否保留分组的主键列,默认true
 3       groupingExprs match { // 若保留,则将分组的主键列拼到聚合表达式的前面
 4         // call `toList` because `Stream` can't serialize in scala 2.13
 5         case s: Stream[Expression] => s.toList ++ aggExprs
 6         case other => other ++ aggExprs
 7       }
 8     } else {
 9       aggExprs
10     }
11 
12     val aliasedAgg = aggregates.map(alias) // 处理设置别名的表达式
13 
14     groupType match {
15       case RelationalGroupedDataset.GroupByType =>
16         Dataset.ofRows(df.sparkSession, Aggregate(groupingExprs, aliasedAgg, df.logicalPlan)) // ***
17       case RelationalGroupedDataset.RollupType =>
18         Dataset.ofRows(
19           df.sparkSession, Aggregate(Seq(Rollup(groupingExprs.map(Seq(_)))),
20             aliasedAgg, df.logicalPlan))
21       case RelationalGroupedDataset.CubeType =>
22         Dataset.ofRows(
23           df.sparkSession, Aggregate(Seq(Cube(groupingExprs.map(Seq(_)))),
24             aliasedAgg, df.logicalPlan))
25       case RelationalGroupedDataset.PivotType(pivotCol, values) =>
26         val aliasedGrps = groupingExprs.map(alias)
27         Dataset.ofRows(
28           df.sparkSession, Pivot(Some(aliasedGrps), pivotCol, values, aggExprs, df.logicalPlan))
29     }
30   }

重点是第16行,进入ofRows方法中可以看到,其实就是又新建了一个Dataset[Row],并将加上count(1)表达式之后新生成的Aggregate执行计划传入。

至此,groupBy().count().queryExecution得到的就是一个count(1)的执行计划了。

3、第三个参数,也是一个函数式参数:

{ plan =>
    plan.executeCollect().head.getLong(0)
  }

该参数入参是一个plan,返回值long类型,推测是获取最终count值的,暂时放一放,后面调用到的时候再来研究。

4、看完三个参数,下面进入withAction方法:

1 private def withAction[U](name: String, qe: QueryExecution)(action: SparkPlan => U) = {
2     SQLExecution.withNewExecutionId(qe, Some(name)) {
3       qe.executedPlan.resetMetrics()
4       action(qe.executedPlan)
5     }
6   }

又是使用了科里化传参,第三个参数同样是一个函数,在里面调用了action这个函数参数。继续追踪withNewExecutionId方法:

 5、SQLExecution.withNewExecutionId

该方法代码较多,下面先看一下它的主体结构。里面省略的若干行代码,实际是作为一个函数参数传入了withActive方法。

def withNewExecutionId[T](
      queryExecution: QueryExecution,
      name: Option[String] = None)(body: => T): T = queryExecution.sparkSession.withActive {
... // 省略若干代码
}

而withActive方法如下,实际是将当前的SparkSession存入了本地线程变量中,方便后面的获取。然后执行了函数block,而返回值就是外层withNewExecutionId方法中函数体的返回值。

private[sql] def withActive[T](block: => T): T = {
    val old = SparkSession.activeThreadSession.get()
    SparkSession.setActiveSession(this)
    try block finally {
      SparkSession.setActiveSession(old)
    }
  }

 下面回到外层的函数体:

5.1、SQLExecution.withNewExecutionId函数体第一部分

1     val sparkSession = queryExecution.sparkSession
2     val sc = sparkSession.sparkContext
3     val oldExecutionId = sc.getLocalProperty(EXECUTION_ID_KEY)
4     val executionId = SQLExecution.nextExecutionId
5     sc.setLocalProperty(EXECUTION_ID_KEY, executionId.toString)
6     executionIdToQueryExecution.put(executionId, queryExecution)

先设置了一下executionId,该ID是一个线程安全的自增序列,每次加1,。设置给SparkContext之后,又将id与QueryExecution的映射关系存入Map中。

5.2、SQLExecution.withNewExecutionId函数体第二部分

第二部分主要是判断若sql长度过长,需要进行截断处理,无甚要点。

5.3、SQLExecution.withNewExecutionId函数体第三部分,代码如下:

 1       withSQLConfPropagated(sparkSession) {
 2         var ex: Option[Throwable] = None
 3         val startTime = System.nanoTime()
 4         try {
 5           sc.listenerBus.post(SparkListenerSQLExecutionStart(
 6             executionId = executionId,
 7             description = desc,
 8             details = callSite.longForm,
 9             physicalPlanDescription = queryExecution.explainString(planDescriptionMode),
10             sparkPlanInfo = SparkPlanInfo.fromSparkPlan(queryExecution.executedPlan),
11             time = System.currentTimeMillis()))
12           body
13         } catch {
14           case e: Throwable =>
15             ex = Some(e)
16             throw e
17         } finally {
18           val endTime = System.nanoTime()
19           val event = SparkListenerSQLExecutionEnd(executionId, System.currentTimeMillis())
20           event.executionName = name
21           event.duration = endTime - startTime
22           event.qe = queryExecution
23           event.executionFailure = ex
24           sc.listenerBus.post(event)
25         }
26       }

起头的 withSQLConfPropagated 方法,同样还是科里化的方式传参,方法里面将配置参数替换为新的配置参数,执行完之后再将老参数存回去。

再然后是try里面的一个post方法,finally里面一个post方法,用于发送SQLExecution执行开始和结束的通知消息。

最后是核心函数调用,body。即前面一直引而未看的方法。

下面再返回头来好好研究一下此处的body函数,函数体是:

{
      qe.executedPlan.resetMetrics()
      action(qe.executedPlan)
    }

qe变量即上面2.2中返回的groupBy().count().queryExecution

而action的函数体是:

{ plan =>
    plan.executeCollect().head.getLong(0)
  }

那么内部具体是怎么实现的呢?今天时间不早了,改日再搞它。

这篇关于Spark记录(四):Dataset.count()方法源码剖析的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!