Hadoop伪分布式配置及遇到的问题(3)

5.conf/hdfs-site.xml: 

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

</configuration>

这是Hadoop中HDFS的配置,配置的备份方式默认为3,在单机版的Hadoop中,需要将其改为1。

6.conf/mapred-site.xml: 

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>localhost:9001</value>

</property>

</configuration>

这是Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口。

需要注意的是,如果安装的是0.20之前的版本,那么只有一个配置文件,即为Hadoop-site.xml。

接下来,在启动Hadoop前,需格式化Hadoop的文件系统HDFS(这点与Windows是一样的,重新分区后的卷总是需要格式化的)。进入Hadoop文件夹,输入下面的命令:

1. bin/Hadoop NameNode -format

格式化文件系统,接下来启动Hadoop。

输入命令:

1. bin/start-all.sh(全部启动)

最后,验证Hadoop是否安装成功。

打开浏览器,分别输入网址: 

1. :50030 (MapReduce的Web页面) 

2. :50070 (HDFS的Web页面)

如果都能查看,说明Hadoop已经安装成功。

对于Hadoop来说,安装MapReduce及HDFS都是必须的,但是如果有必要,你依然可以只启动HDFS(start-dfs.sh)或MapReduce(start-mapred.sh)。 

四、遇到的问题

(1)遇到在hadoop/bin目录下,直接执行hadoop,start-all.sh等命令失效的情况。但是在hadoop目录下通过bin/hadoop,bin/start-all.sh方式则未失效。不知其原因如何。如果添加环境变量后应该会成功

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/pswdf.html