課程
/云計算&大數據
/大數據
/Spark從零開始
Spark 是不是可以理解為大數據計算的組件 而Hadoop更偏更向于持久化存儲?
2020-07-25
源自:Spark從零開始 1-3
正在回答
hadoop也可以進行計算,它是通過mapreduce計算引擎來計算的。它們的區別是hadoop的mapreduce框架的九三是基于磁盤的,而spark的計算是基于內存的。這也是為什么spark計算比hadoop更快的原因。
舉報
本課程旨在讓同學們了解Spark基礎知識,掌握Spark基礎開發.
1 回答啟動spark woker時,提示native-hadoop不存在
1 回答RDD.prisist()和延遲計算不是矛盾了嗎?
2 回答大數據
2 回答本地啟動spark-shell報錯Hadoop連接失敗Connection refused
1 回答spark讀取文件
Copyright ? 2025 imooc.com All Rights Reserved | 京ICP備12003892號-11 京公網安備11010802030151號
購課補貼聯系客服咨詢優惠詳情
慕課網APP您的移動學習伙伴
掃描二維碼關注慕課網微信公眾號
2020-08-09
hadoop也可以進行計算,它是通過mapreduce計算引擎來計算的。它們的區別是hadoop的mapreduce框架的九三是基于磁盤的,而spark的計算是基于內存的。這也是為什么spark計算比hadoop更快的原因。