Hadoop环境安装配置(4)

1. 当出现无法向hdfs中上传文件时,可能是由于运行了多个版本的hadoop程序所导致的namespaceID不一致,所以要删除对应的目录中的文件

/home/hadoop/tmp/hdfs/data将对应的namenode节点,datanode节点中的文件清空,然后重新格式化hdfs文件系统,重新启动服务即可。

2. windows下通过eclipse插件向hadoop-020.203版本的集群中提交代码时要把windows系统的用户名修改为集群环境的用户名才能提交。

3. windows下无法进行job分配时要再程序中加入如下手动指定mapred地址,要与配置中的保持一致:

Configuration conf = new Configuration();

conf.set("mapred.job.tracker", "namenode:9001");

1.直接打包上传后运行

hadoop jar ~/hadoop-0.20.203/hadoop-examples-0.20.203.0.jar wordcount  /test.txt /output

2.参数

hdfs://namenode:9000/test.txt  hdfs://namenode:9000/out

3.Plug-in org.eclipse.jdt.ui was unable to load

Eclipse:Could not create the view: Plug-in org.eclipse.jdt.ui was unable to load class org.eclipse.

使用Eclipse时,遇到了如下的异常,工作空间(workspace)打不开:Could not create the view: Plug-inorg.eclipse.jdt.ui was unable to load class  org.eclipse.jdt.internal.ui.packageview.PackageExplorerPart.***

解决方案就是:删除workspace下的.metadata文件夹,重新打开Eclipse就OK了。或者换一个工作空间!

4.无法在模块路径中找到主题引

Ubuntu11.10安装后qtcreator编译运行,发现出现这个错误

”Gtk-WARNING **: 无法在模块路径中找到主题引擎:“pixmap”“

通过网上搜索之后,发现可能是gtk引擎除了问题,

在终端下输入sudo apt-get install gtk2-engines-pixbuf即可解决

linux

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/6710dd51b3730c3af07a70a8b5dafc7b.html