配置结束,就要进行部署了。即把配置好的hadoop文件夹拷贝到其他集群的机器中,并且保证上面的配置对于其他机器而言正确,例如:如果其他机器的Java安装路径不一样,要修改conf/hadoop-env.sh。
[root@hadoop0:~]# scp -r /usr/local/hadoop hadoop1: /usr/local/
[root@hadoop0:~]# scp -r /usr/local/hadoop hadoop2: /usr/local/
至此,可以说hadoop已经在各个机器上部署完毕了,接着就可以启动hadoop了。
l 启动hadoop
启动之前,我们先要格式化namenode,先进入/usr/local/hadoop/bin目录,执行下面的命令:
[root@hadoop0 bin]# ./hadoop namenode –format
不出意外,应该会提示格式化成功。如果不成功,就去hadoop/logs/目录下去查看日志文件。
下面就该正式启动hadoop啦,在bin/下面有很多启动脚本,可以根据自己的需要来启动。
* start-all.sh 启动所有的Hadoop守护。包括namenode, datanode, jobtracker, tasktrack
* stop-all.sh 停止所有的Hadoop
* start-mapred.sh 启动Map/Reduce守护。包括Jobtracker和Tasktrack
* stop-mapred.sh 停止Map/Reduce守护
* start-dfs.sh 启动Hadoop DFS守护.Namenode和Datanode
* stop-dfs.sh 停止DFS守护
在这里,简单启动所有守护:
[root @ hadoop0:hadoop]# bin/start-all.sh
同样,如果要停止hadoop,则
[root @hadoop0:hadoop]# bin/stop-all.sh
查看状态:
Tip:
HDFS操作
运行bin/目录的hadoop命令,可以查看Haoop所有支持的操作及其用法,这里以几个简单的操作为例。建立目录:
[root @ hadoop0 hadoop]# bin/hadoop dfs -mkdir testdir
在HDFS中建立一个名为hdfstest.txt的目录,复制文件:
[root @ hadoop0 hadoop]$bin/hadoop dfs -put /home/hdfstest.txt testfile.txt
把本地文件hdfstest.txt拷贝到HDFS的根目录/user/root/下,文件名为testfile.txt,查看现有文件:
[root@hadoop0 hadoop]# bin/hadoop dfs -ls
到此,本文档结束。
此次安装比较顺利,基本没有什么错误。在安装的时候特别是修改配置文件的时候请一定要仔细和细心。
最后感谢开源工作者们。