HDFS客户端的权限错误:Permission denied

搭建了一个Hadoop的环境,Hadoop集群环境部署在几个Linux服务器上,现在想使用windows上的Java客户端来操作集群中的HDFS文件,但是在客户端运行时出现了如下的认证错误,被折磨了几天,问题终得以解决。以此文记录问题的解决过程。

(如果想看最终解决问题的方法拉到最后,如果想看我的问题解决思路请从上向下看)

问题描述

上传文件的代码:

private static void uploadToHdfs() throws FileNotFoundException,IOException {

//我的文件地址

String localSrc = "E:\\快盘\\技术文档\\hadoop\\HDFS初步研究.pdf";

//存放在云端的目的地址

String dest = "hdfs://192.168.2.156:9000/user/HDFS初步研究.pdf";

InputStream in = new BufferedInputStream(new FileInputStream(localSrc));

//得到配置对象

Configuration conf = new Configuration();

// conf.set("fs.default.name","hdfs://192.168.2.156:9000");

//文件系统

FileSystem fs = FileSystem.get(URI.create(dest), conf);

//输出流

OutputStream out = fs.create(new Path(dest), new Progressable() {

@Override

public void progress() {

System.out.println("上传完一个设定缓存区大小容量的文件!");

}

});

//连接两个流,形成通道,使输入流向输出流传输数据

IOUtils.copyBytes(in, out, 4096, true);

}

错误的详细描述如下

org.apache.hadoop.security.AccessControlException: org.apache.hadoop.security .AccessControlException: Permission denied: user=Administrator, access=WRITE, inode="hadoop": hadoop:supergroup:rwxr-xr-x

其实这个错误的原因很容易看出来,用户Administator在hadoop上执行写操作时被权限系统拒绝.

--------------------------------------分割线 --------------------------------------

Ubuntu 13.04上搭建Hadoop环境

Ubuntu 12.10 +Hadoop 1.2.1版本集群配置

Ubuntu上搭建Hadoop环境(单机模式+伪分布模式)

Ubuntu下Hadoop环境的配置

单机版搭建Hadoop环境图文教程详解

--------------------------------------分割线 --------------------------------------

解决问题的过程

看到这个错误的,第一步就是将这个错误直接入放到百度google里面进行搜索。找到了N多篇文章,但是主要的思路就如此篇文章所写的两个解决办法:

1、在hdfs的配置文件中,将dfs.permissions修改为False

2、执行这样的操作 hadoop fs -chmod 777 /user/hadoop

对于上面的第一个方法,我试了行不通,不知道是自己设置错误还是其他原因,对我此法不可行,第二个方法可行。第二个方法是让我们来修改HDFS中相应文件夹的权限,后面的/user/hadoop这个路径为HDFS中的文件路径,这样修改之后就让我们的administrator有在HDFS的相应目录下有写文件的权限(所有的用户都是写权限)。

虽然上面的第二步可以解决问题了,上传之后的文件所有者为Administrator,但是总感觉这样的方法不够优雅,而且这样修改权限会有一定的安全问题,总之就是看着不爽,就在想有没有其他的办法?

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/bdf1032c585c13809c07ead1765e87fa.html