九. 这样之后基本上就差不多了,首先进入master的Hadoop目录。
cd /usr/local/hadoop
首先可以做一下负载平衡,我担心这个加上会有点乱,但是没有这部分不影响运行,想了解的给我留言!
启动datanode和tasktracker:
bin/start-dfs.sh
bin/hadoop-daemon.sh start datanode
bin/hadoop-daemon.sh start tasktracker
启动全部服务直接一条命令:
bin/start-all.sh
查看自己的datanode是否启动.
jps
当jps不能正常使用的时候:
resource /etc/profile
连接时可以在namenode上查看连接情况:
bin/hadoop dfsadmin -report
详见下图:
也可以直接进入网址:
master:50070
详见下图:
图1:
图2:
因为readhat的java环境还有点问题所以没有启动起来,其它的正常。
切记,上面的大多数操作请使用hadoop用户,要不然中间会出许多关于权限的问题。
到此整个环境的搭建工作就完成了,如果有什么问题,请给我留言,咱们可以互相交流!同时谢谢在我搭建环境中帮助过我的人!