-
Collect()遍歷整個RDD 向drive program返回RDD的內容 需要單機內存能夠容納下(因為要拷貝給driver,一般測試使用),大數據的時候,使用saveAsTextFile() action保存文件中去。 raduce() 接收一個函數,作用在RDD兩個類型相同的元素上,返回新元素??梢詫崿FRDD中元素的累加,計數,和其他類型的聚集操作。val sum=rdd.reduce((x,y)=>x+y)。 top()根據RDD中的數據的比較器 take(n) 返回RDD的n個元素(同時嘗試訪問最少的partitions)返回結果是無序的,一般測試使用。 foreach()計算RDD中的每個元素,但不返回到本地??梢耘浜蟨rintln()友好的打印出數據。查看全部
-
Transformat類型函數查看全部
-
filter函數查看全部
-
map函數查看全部
-
spark-shell的使用查看全部
-
比 較查看全部
-
combineByKey()查看全部
-
spark運行程序查看全部
-
三種集群管理調度器 hadoop YARN (常用) Apache Mesos spark Cluster Managers查看全部
-
spark組件查看全部
-
spark特點 批處理=hadoop 迭代計算=其它?? 交互查詢=Hive 流處理=storm查看全部
-
Spark組件查看全部
-
rdds查看全部
-
啟動集群查看全部
-
項目版本查看全部
舉報
0/150
提交
取消