Spark Cartesian函数

Spark Cartesian函数

在Spark中,Cartesian函数生成两个数据集的笛卡尔积,并返回所有可能的对组合。这里,一个数据集的每个元素与另一个数据集的每个元素配对。

Cartesian函数示例

在此示例中,生成两个数据集的笛卡尔积。

要在Scala模式下打开Spark,请按照以下命令操作。

$ spark-shell

打开Spark

使用并行化集合创建RDD。

scala> val data1 = sc.parallelize(List(1,2,3))

现在,可以使用以下命令读取生成结果。

scala> data1.collect

使用并行化集合创建另一个RDD。

scala> val data2 = sc.parallelize(List(3,4,5))

现在,可以使用以下命令读取生成的结果。

scala> data2.collect

应用cartesian()函数返回元素的笛卡尔积。

scala> val cartesianfunc = data1.cartesian(data2)

现在,可以使用以下命令读取生成的结果。

scala> cartesianfunc.collect