最新回答 / 月光詩人
請問你當前的linux帳號是localhost嗎?如果是的話你可以看到3-5課那一節,老師用的命令是“hadoop fs -ls /user/root”,所以你需要輸入:“hadoop fs -ls /user/localhost”或者將“localhost”換成你安裝hadoop時使用的用戶名,因為好像“/user/${用戶名}”對應的才是用戶的根目錄;之前使用fs -ls的時候也遇到過這樣的一個問題,但是不太清楚是不是你這個問題了,可以試一下,希望對你有幫助:)
2016-04-04
最新回答 / 雷霆之怒
看圖片樓主是在root用戶下使用的hadoop fs命令,并且jps后發現hadoop并沒有運行起來,所以可能存在的問題:1.hadoop沒有啟動,hadoop fs命令是在hadoop啟動后才可以使用的。2.是否新建過別的用戶,并且...
2016-03-27
已采納回答 / 百里行者
并沒有說多大文件比較合適,為了減輕namenode負擔,盡量避免過多小文件,也就是文件盡量大;如果文件很大,比如100GB,存儲時將其拆分成多個64MB文件塊
2016-03-16
最新回答 / Rock_feng
我認為是這樣的:就好比我們在客戶端執行寫入數據一樣,數據來源于hdfs,然后計算的結果會先保存在本地磁盤并且進行分塊操作,然后再根據namenode返回回來的映射關系,將本地的臨時數據寫入對應的datanode,而datanode就屬于hdfs的一部分;不知對不對?
2016-02-15