大数据平台搭建(hadoop+spark) (5)

添加如下信息

######### scala ########## export SCALA_HOME=http://www.likecs.com/usr/local/scala-2.12.1 export PATH=$PATH:$SCALA_HOME/bin 3.2 刷新配置文件: source /etc/profile 4. 启动程序 4.1 启动hadoop 4.1.1 格式化namenode hadoop namenode -format 4.1.2 master启动hadoop cd /usr/local/hadoop-2.7.3/sbin ./start-all.sh

提示

start-all.sh //启动master和slaves stop-all.sh //停止master和slaves

查看进程 (master)

[root@spark-master sbin]# jps 8961 NodeManager 8327 DataNode 8503 SecondaryNameNode 8187 NameNode 8670 ResourceManager 9102 Jps [root@spark-master sbin]#

查看进程 (slave)

[root@spark-slave01 ~]# jps 4289 NodeManager 4439 Jps 4175 DataNode [root@spark-slave01 ~]#

slave01、slve02、slave03显示相同

4.2 启动spark 4.1.2 master启动hadoop cd /usr/local/spark-2.0.2/sbin ./start-all.sh

提示

start-all.sh //启动master和slaves stop-all.sh //停止master和slaves

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zwxgjd.html