Hadoop 1.2.1编译Eclipse插件(3)

(4)然后在/${Hadoop-home}/src/contrib/eclipse-plugins/下运行ant或者ant jar

即使这样还是会出现问题,如果提示ivy的版本问题,类似于ivy的版本要高于2.0,只需要到/${hadoop-home}/ivy下把ivy-2.1.0.jar删除掉就可以了,不用从官网下载ivy-2.1.0.jar,这个错误的原因是ivy下载有错误造成的,删除掉之后编译过程中会自动下载。(所以整个过程要联网)

还会可能会出现一个问题,就是说某某类/函数已过时,这个问题虽然不会影响到最后的编译,但装到eclipse里边就会出现failed login error,所以如果出现这个问题就得重新编译,重新编译时要把过去配置编译的文件全部删除,否则即使重新ant出来的文件还会是错误的。

由于不知道怎么清理,所以我的做法就是把源码删掉,再次解压,重新配置,重新编译,如果有网友知道怎么做更为方便,就留个言

(5)把/${hadoop-home}/build/contrib/eclipse-plugins/下的hadoop-1.2.1-eclipse-plugins.jar复制到eclipse/plugins目录下,重新启动eclipse(如果之前没有启动eclipse,启动就可以了),然后在windows->preference里会出现,Hadoop Map/Reduce下设置编译好的hadoop目录。然后点击右上角的Open Perspectives,在下方会出现Map/Reduce location,然后点击New Hadoop Location,配置信息,location name 随意,Map/Reduce Master和DFS Master的配置和/hadoop-1.2.1/conf下的core-site.xml和hdfs-site.xml下的设置一样,这类设置和其他文章说的一样

注:整个配置过程要在有网络的环境下进行,而且确保hadoop已经开启,如果此时还是出现failed login error,就请你查看hadoop-1.2.1-eclipse-plugins.jar下的lib下的jar包,如果所有的jar包后边都没有版本号,那就会有问题,就请你重新编译,直到里边的jar包有了版本号。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/2eb38cb908ab4d1006ba77fc5ecb478d.html