最新回答 / Rock_feng
我認為是這樣的:就好比我們在客戶端執行寫入數據一樣,數據來源于hdfs,然后計算的結果會先保存在本地磁盤并且進行分塊操作,然后再根據namenode返回回來的映射關系,將本地的臨時數據寫入對應的datanode,而datanode就屬于hdfs的一部分;不知對不對?
2016-02-15
最新回答 / rainbow702
你是不是JobTracker之類的進程沒顯示?如果是的話,建議你去看看"/opt/hadoop-1.2.1/logs"目錄中,“namenode”相關的日志log,看看log里有沒有下面這樣的錯誤信息:2016-01-09 15:29:12,036 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.net.BindException: Problem binding to imooc/183.207.232.253:9000 : 無法指...
2016-01-10
最新回答 / 歷史與足跡
jps命令查看進程狀態。如果有以下的進程,<...圖片...>,然后在瀏覽器訪問:http://localhost:50030?(mapreduce頁面) 和http://localhost:50070?(hdfs頁面)。如果訪問成功,則說明hadoop起來了。
2016-01-10
最新回答 / bilibilistudy
我也是這個格式化的問題,不過我的提示:could not find the main class,然后運行start-all.sh的時候提示找不到該命令
2015-12-15