注意:格式化第二次有可能会造成DataNode无法启动,原因是NameSpaceID不一致造成,解决方法是找出不一致的VERSION修改NameSpaceID,也可以尝试删除hdfs/data目录。
② 启动masternode(active)节点NameNode
d /opt/hadoop/hadoop-2.7.2/sbin
# hadoop-daemon.sh start namenode
③ Slavenode1节点上同步(masternode)元数据
# hdfs namenode -bootstrapStandby
④ 在masternode格式化ZKFC
# hdfs zkfc -formatZK
⑤ 在masternode节点启动HDFS集群
# start-dfs.sh
⑥ 在Master0节点启动YARN集群
# start-yarn.sh
⑦ 在Master1(slavenode1)节点启动RM
# yarn-daemon.sh start resourcemanager
⑧ 以后也可以通过start-all.sh与stop-all.sh启停Hadoop集群
[root@masternode hadoop-2.7.2]# ./bin/hdfs namenode -format
4. 启动hadoop
root@masternode centos]# cd /opt/hadoop/hadoop-2.7.2
[root@masternode hadoop-2.7.2]# sbin/start-all.sh
[root@slavenode1 hadoop-2.7.2]# sbin/stop-all.sh
This script is Deprecated. Instead use stop-dfs.sh and stop-yarn.sh