RHEL 5.2下的Hadoop分布式集群环境搭建文档(3)

配置结束,就要进行部署了。即把配置好的hadoop文件夹拷贝到其他集群的机器中,并且保证上面的配置对于其他机器而言正确,例如:如果其他机器的Java安装路径不一样,要修改conf/hadoop-env.sh。

[root@hadoop0:~]# scp -r /usr/local/hadoop  hadoop1: /usr/local/

[root@hadoop0:~]# scp -r /usr/local/hadoop  hadoop2: /usr/local/

至此,可以说hadoop已经在各个机器上部署完毕了,接着就可以启动hadoop了。

l  启动hadoop

启动之前,我们先要格式化namenode,先进入/usr/local/hadoop/bin目录,执行下面的命令:

[root@hadoop0 bin]# ./hadoop  namenode  –format

不出意外,应该会提示格式化成功。如果不成功,就去hadoop/logs/目录下去查看日志文件。

RHEL 5.2下的Hadoop分布式集群环境搭建

下面就该正式启动hadoop啦,在bin/下面有很多启动脚本,可以根据自己的需要来启动。

* start-all.sh 启动所有的Hadoop守护。包括namenode, datanode, jobtracker, tasktrack

* stop-all.sh 停止所有的Hadoop

* start-mapred.sh 启动Map/Reduce守护。包括Jobtracker和Tasktrack

* stop-mapred.sh 停止Map/Reduce守护

* start-dfs.sh 启动Hadoop DFS守护.Namenode和Datanode

* stop-dfs.sh 停止DFS守护

在这里,简单启动所有守护:

[root @ hadoop0:hadoop]# bin/start-all.sh

RHEL 5.2下的Hadoop分布式集群环境搭建

同样,如果要停止hadoop,则

[root @hadoop0:hadoop]# bin/stop-all.sh

查看状态:

 

RHEL 5.2下的Hadoop分布式集群环境搭建

RHEL 5.2下的Hadoop分布式集群环境搭建

Tip:

HDFS操作

运行bin/目录的hadoop命令,可以查看Haoop所有支持的操作及其用法,这里以几个简单的操作为例。建立目录:

[root @ hadoop0 hadoop]# bin/hadoop  dfs  -mkdir  testdir

在HDFS中建立一个名为hdfstest.txt的目录,复制文件:

[root @ hadoop0 hadoop]$bin/hadoop dfs -put /home/hdfstest.txt  testfile.txt

把本地文件hdfstest.txt拷贝到HDFS的根目录/user/root/下,文件名为testfile.txt,查看现有文件:

[root@hadoop0 hadoop]# bin/hadoop dfs -ls

到此,本文档结束。

此次安装比较顺利,基本没有什么错误。在安装的时候特别是修改配置文件的时候请一定要仔细和细心。

最后感谢开源工作者们。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/235db640fc0577715d55ff338693353a.html