运行/root/workspace/software/spark1.6.1_hadoop2.6/sbin,下面的stop-slaves.sh (注意是stop-slavers 有s) 可以停止所有的 Worker 节点
使用 jps 命令查看 master上的进程信息:
worker 关闭了
使用 jps 命令查看 slaver1上的进程信息:
可以看到, Worker 进程均已停止,最后再停止 Hadoop 集群. 搞定啦
后面边学习边理解里面设置的东西。
Hadoop2.7.3+Spark2.1.0完全分布式集群搭建过程
Hadoop项目之基于CentOS7的Cloudera 5.10.1(CDH)的安装部署
Ubuntu 14.04下Hadoop集群安装