③ 重启主机:
shutdown -r now
,等启动完成后,启动httpd服务:
servie httpd start
3) Ambari的相关配置命令
① 修改端口号:
vi /etc/ambari-server/conf/ambari.properties
,在文件中增加client.api.port=<port_number>,本机port_number修改为8888。
② 查看Ambari进程:
ps -ef | grep ambari
③ 停止Ambari进程:
ambari-server stop
④ 重启Ambari进程:
ambari-server restart
四、磁盘扩容问题引入:后续进行MR Job执行时,会报类似“磁盘空间不够”的错误,原因是Ambari安装所在目录的磁盘容量不够导致。
解决方案:由于Ambari安装后,会创建一个LVM的逻辑卷,供Hadoop运行产生的临时文件存储用,如下:
所以,我们只需要对vg_hadoop01进行扩容。操作如下:
1) 1表示第一块分区的信息,该分区已经被Hadoop占满;2表示第二块分区的信息,也就是我们需要将它扩容到vg_hadoop01上的分区。如下:
2) 现将/dev/sdb5分区块(注意这里Id必须是8e,System必须是Linux LVM)分配给vg_hadoop01.
① 8e和Linux LVM的设置命令:
fdisk /dev/sdb
,接着按m,根据提示设置。
② 输入命令:partprobe,让分区表生效。
③ 由于LVM所在的文件类型是ext4,所以新的分区必须格式化为ext4.
格式化命令:
mkfs –t ext4 /dev/sdb5
.
④ 创建PV(物理卷),命令:
pvcreate /dev/sdb5
,利用:pvdisplay查看:
⑤ 扩容LVM,命令:
vgextend vg_hadoop01 /dev/sdb5
,利用:vgdisplay查看:
⑥ 将LVM中的容量扩展到LV(逻辑卷),命令:
lvextend –L 100G /dev/vg_hadoop01/lv_root
,将分区/dev/vg_hadoop01/lv_root的容量扩充到100G.利用lvdisplay查看:
3) 执行该重设大小,对于当前正在使用的/dev/vg_hadoop01/lv_root有效.命令:
resize2fs /dev/vg_hadoop01/lv_root
,查看扩容后的挂载情况:df -lhT.