hadoop 版本不同,是否影響配置的相關問題
首先,我使用的是ubuntu16.04+hadoop2.7.2,再配置的時候,文件夾不是conf,而是etc,執行文件也不在bin文件夾,而是sbin等等的差別,這樣配置文件是否收到影響?是否應該隨著版本不同有什么調整?
當配置完畢,java環境變量堅持沒問題(其實安裝完java包還未配置java的環境,就可以執行javac,java -version等命令了),之后配置,格式化namenode之后,start-all.sh啟動hadoop之后,jps查看進程,只有Jps和 ResourceManager兩個進程,按要求檢查了配置情況了,計算機名稱也對的,host文件也沒有問題,但就是不行,是不是版本的配置問題呢?
到底問題出在哪里了呢?