完成之后可以查看SparkWorker1、SparkWorker2下面的文件是否变了
启动hadoop分布式集群 在SparkMaster节点格式化集群的文件系统输入
hadoop namenode -format 启动Hadoop集群 start-all.sh 查看各个节点的进程信息使用
jps查看各节点的进程信息
可以看到
此时分布式的hadoop集群已经搭好了
在浏览器输入
SparkMaster_IP:50070 SparkMaster_IP:8088看到以下界面代表Hadoop集群已经开启了
结言到此Hadoop的分布式集群就搭好了。这个Spark运行的基础。