执行Hadoop任务提示filenotfind异常

Hadoop的核心是HDFS和MapReduce

HDFS来解决共享存储问题,MapReduce解决分布式分析结果和整合结果

写了一个简单的hadoop例子,然后用hadoop来执行这个jar文件,一直提示找不到类文件,折腾2-3天终于找到原因了:

首先,我启动hadoop时都直接cd 到bin目录下了,所以执行的时候把bin目录当做当前目录,而我的jar并不在当前目录,默认是bin的上级目录,如果指定其他目录也找不到,这个比较奇怪,只能把jar cp到hadoop的安装目录下

其次,作为main函数的入口类,必须全包名都带上!

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/bee85fd18e775cdec5e5484a31da0710.html