Spark中parallelize函數和makeRDD函數的區別
1 回答

紫衣仙女
TA貢獻1839條經驗 獲得超15個贊
Spark主要提供了兩種函數:parallelize和makeRDD:
1)parallelize的聲明:
def parallelize[T: ClassTag](
seq: Seq[T],
numSlices: Int = defaultParallelism): RDD[T]
2)makeRDD的聲明:
def makeRDD[T: ClassTag](
seq: Seq[T],
numSlices: Int = defaultParallelism): RDD[T]
def makeRDD[T: ClassTag](seq: Seq[(T, Seq[String])]): RDD[T]
3)區別:
A)makeRDD函數比parallelize函數多提供了數據的位置信息。
- 1 回答
- 0 關注
- 1200 瀏覽
添加回答
舉報
0/150
提交
取消