hadoop主要解決什么問題
1 回答

子衿沉夜
TA貢獻1828條經驗 獲得超3個贊
主要解決了海量數據的存儲、分析和學習問題,因為隨著數據的爆炸式增長,一味地靠硬件提高數據處理效率及增加存儲量,不僅成本高,處理高維數據的效率也不會提高很多,遇到了瓶頸了,hadoop的搭建只需要普通的pc機,它的hdfs提供了分布式文件系統,mapreduce是一個并行編程模型,為程序員提供了編程接口,兩者都屏蔽了分布式及并行底層的細節問題,用戶使用起來簡單方便。
- 1 回答
- 0 關注
- 1199 瀏覽
添加回答
舉報
0/150
提交
取消