5.conf/hdfs-site.xml:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
这是Hadoop中HDFS的配置,配置的备份方式默认为3,在单机版的Hadoop中,需要将其改为1。
6.conf/mapred-site.xml:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
这是Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口。
需要注意的是,如果安装的是0.20之前的版本,那么只有一个配置文件,即为Hadoop-site.xml。
接下来,在启动Hadoop前,需格式化Hadoop的文件系统HDFS(这点与Windows是一样的,重新分区后的卷总是需要格式化的)。进入Hadoop文件夹,输入下面的命令:
1. bin/Hadoop NameNode -format
格式化文件系统,接下来启动Hadoop。
输入命令:
1. bin/start-all.sh(全部启动)
最后,验证Hadoop是否安装成功。
打开浏览器,分别输入网址:
1. :50030 (MapReduce的Web页面)
2. :50070 (HDFS的Web页面)
如果都能查看,说明Hadoop已经安装成功。
对于Hadoop来说,安装MapReduce及HDFS都是必须的,但是如果有必要,你依然可以只启动HDFS(start-dfs.sh)或MapReduce(start-mapred.sh)。
四、遇到的问题
(1)遇到在hadoop/bin目录下,直接执行hadoop,start-all.sh等命令失效的情况。但是在hadoop目录下通过bin/hadoop,bin/start-all.sh方式则未失效。不知其原因如何。如果添加环境变量后应该会成功