Ubuntu 14.04 Server 环境下Hadoop 2.7.2 的安装部署(2)

由于我们已经把hadoop的bin或sbin相关目录路径写入环境变量,因此下面的命令可在任意路径下执行。
master节点上,格式化文件系统:

hdfs namenode -format

格式化无误的话,即可看到下图的输出信息提示。

Ubuntu 14.04 Server 环境下Hadoop 2.7.2 的安装部署

hadoop2.7.2启动测试

以下操作在master节点上进行:
一次性启动NameNode和所有DataNode的脚本为hadoop自带的start-dfs.sh(在sbin目录下)
报告文件系统状态的命令为:

hdfs dfsadmin -report

启动yarn,一次性启动ResourceManager和NodeManager的hadoop脚本为start-yarn.sh(在sbin目录下)
报告yarn节点信息的命令为:

yarn node -list

当然,既然hadoop启动都是java进程,jps命令当然也可以用来观察master机器上的hadoop进程。
为了启动方便,我把上述启动命令都写在一个脚本里面,命名为start.sh,并把它放在~/hadoop/script目录下。

vim start.sh

来看看start.sh脚本的内容:

#!/bin/bash start-dfs.sh hdfs dfsadmin -report start-yarn.sh yarn node -list jps

在~/hadoop/script目录下,执行start.sh脚本。输出结果如下,表明hadoop启动成功。

Ubuntu 14.04 Server 环境下Hadoop 2.7.2 的安装部署


Ubuntu 14.04 Server 环境下Hadoop 2.7.2 的安装部署


在slave1 节点上执行jps命令,观察到有NodeManager 和DataNode进程。

Ubuntu 14.04 Server 环境下Hadoop 2.7.2 的安装部署

以hadoop自带的example jar为例测试。此测试程序目的是找出hadoop etc目录下文件中
包含 “dfs”的各个文件中的行数及每行内容。
为了便于重复测试,同样,我把测试命令写成了脚本,命名为testhadoop.sh,并把它放在~/hadoop/script目录中,其内容如下。

#!/bin/bash hdfs dfs -mkdir /user hdfs dfs -mkdir /user/lilelr hdfs dfs -put ~/hadoop/hadoop-2.7.2/etc/hadoop input hadoop jar ~/hadoop/hadoop-2.7.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input output 'dfs[a-z.]+' hdfs dfs -cat output/*

执行testhadoop.sh脚本,输出结果如下。
map 和reduce过程

Ubuntu 14.04 Server 环境下Hadoop 2.7.2 的安装部署


包含 “dfs”的各个文件中的行数及每行内容。

Ubuntu 14.04 Server 环境下Hadoop 2.7.2 的安装部署

测试完成,停止hadoop集群。先关闭yarn,后停止hdfs。
hadoop自带脚本为stop-yarn.sh及stop-dfs.sh。

Ubuntu 14.04 Server 环境下Hadoop 2.7.2 的安装部署

Thanks!

Hadoop项目之基于CentOS7的Cloudera 5.10.1(CDH)的安装部署 

Hadoop2.7.2集群搭建详解(高可用) 

使用Ambari来部署Hadoop集群(搭建内网HDP源) 

Ubuntu 14.04下Hadoop集群安装 

CentOS 6.7安装Hadoop 2.7.2 

Ubuntu 16.04上构建分布式Hadoop-2.7.3集群 

CentOS 7.3下Hadoop2.8分布式集群安装与测试 

CentOS 7 下 Hadoop 2.6.4 分布式集群环境搭建 

Hadoop2.7.3+Spark2.1.0完全分布式集群搭建过程 

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/b81d2c8a809711a343074d81182a3de0.html