本文主要是介绍SparkSql,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
SparkSql
package spark_sql
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.{DataFrame, Dataset, Row, SparkSession}
case class Emp(name: String, age: Long)
object spark_sql_json extends App {
val ss: SparkSession = SparkSession.builder().master("local[*]").appName("sql").getOrCreate()
import ss.implicits._
val df: DataFrame = ss.read.json("datas/a.json").toDF()
println("df")
df.show()
val ds: Dataset[Emp] = df.as[Emp]
println("ds")
ds.show()
val df_rdd: RDD[Row] = df.rdd
val rdd: RDD[Emp] = ds.rdd
println("ds.rdd")
rdd.collect().foreach(println)
println("rdd.toDS")
rdd.toDS()
ss.stop()
}
这篇关于SparkSql的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!