-
SPARK:
基于內存計算的大數據計算框架
MapReduce的替代方案
兼容HDFS,HIVE數據源
彈性分布式數據集RDD
查看全部 -
shell操作HDFS:
hadoop fs -cat
查看全部 -
HDFS寫流程:
客戶端將要存入的數據分塊,塊在所有datanode上進行存儲(副本備份),存儲完畢datanode給namenode發消息。
HDFS讀流程:
客戶端向namenode發起讀數據請求,namenode返回數據塊存儲信息??蛻舳烁鶕K存儲信息向對應的datanode獲取信息。
查看全部 -
?大數據:HADOOP為代表的大數據平臺框架上進行各種數據分析
查看全部 -
hadoop基礎查看全部
-
數據塊
數據塊是抽象塊而非整個文件作為存儲單元 默認大小為64MB,一般設置為128M,備份X3
查看全部 -
數據分塊的依據是什么 如何確定一個文件存儲的時候要分成多少個數據塊呢?
datanode之間進行數據復制是如何實現的呢?復制的過程會不會出現失敗的情況,如果失敗了怎么辦?有什么機制
查看全部 -
Hadoop生態圈
查看全部 -
大數據概念
查看全部 -
大數據定義
查看全部 -
常用shell命令
查看全部 -
查看全部
-
HDFS讀流程
查看全部 -
HDFS寫流程
查看全部 -
HDFS寫流程
查看全部
舉報
0/150
提交
取消