The method addInputPath(JobConf, Path) in the type FileInputFormat is not applicable for the arguments (Job, Path)
報這個錯誤時需要將舊版的 API org.apache.hadoop.mapred.FileInputFormat;
換成 org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
報這個錯誤時需要將舊版的 API org.apache.hadoop.mapred.FileInputFormat;
換成 org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
2018-04-28
hadoop 1.2.1版本
conf.set("fs.defaultDF,hdfs")改成
conf.set("fs.default.name", hdfs);
conf.set("fs.defaultDF,hdfs")改成
conf.set("fs.default.name", hdfs);
2018-04-21
建議大家可以先看一下這個博客
主要講解如何配置虛擬機centos,安裝配置hadoop環境,將eclipse與hadoop連接
http://www.cnblogs.com/xia520pi/category/346943.html
主要講解如何配置虛擬機centos,安裝配置hadoop環境,將eclipse與hadoop連接
http://www.cnblogs.com/xia520pi/category/346943.html
2018-04-20
老師講的非常好,不過需要各位有基礎,等大家把矩陣相乘學完,再對比這個圖,能夠清晰的講解出map-shuffle-reduce對應的區段,以及顏色塊內對應的鍵值對的集合,那就學到了!我也是回頭反過來才一一對應起來的。
2018-03-15
看到后面的又反過來看前面,才開始明白,map實際代碼只用處理一行,而且可以重復寫相同的key,比如<1,Deer Bear Deer><2,Deer Bear Car>,map實際代碼寫的時候只需要處理<1,Deer Bear Deer>,并且可以寫兩次context.write("Deer", 1);也就是這個map在寫的時候,實際上代碼是context.write("Deer", 1);context.write("Bear", 1);context.write("Deer", 1);
2018-03-15