hadoop 如何實現大數據
2 回答

萬千封印
TA貢獻1891條經驗 獲得超3個贊
Hadoop本身是分布式框架,如果在hadoop框架下,需要配合hbase,hive等工具來進行大數據計算。如果具體深入還要了解HDFS,Map/Reduce,任務機制等等。如果要分析還要考慮其他分析展現工具。
大數據還有分析才有價值
用于分析大數據的工具主要有開源與商用兩個生態圈。開源大數據生態圈:1、Hadoop HDFS、HadoopMapReduce, HBase、Hive 漸次誕生,早期Hadoop生態圈逐步形成。2、. Hypertable是另類。它存在于Hadoop生態圈之外,但也曾經有一些用戶。3、NoSQL,membase、MongoDb商用大數據生態圈:1、一體機數據庫/數據倉庫:IBM PureData(Netezza), OracleExadata, SAP Hana等等。2、數據倉庫:TeradataAsterData, EMC GreenPlum, HPVertica 等等。3、數據集市:QlikView、 Tableau 、 以及國內的Yonghong Data Mart 。
- 2 回答
- 0 關注
- 721 瀏覽
添加回答
舉報
0/150
提交
取消