Ambari安装指南图文详解(2)

wps9E98.tmp

③ 重启主机:

shutdown -r now

,等启动完成后,启动httpd服务:

servie httpd start

3) Ambari的相关配置命令

① 修改端口号:

vi /etc/ambari-server/conf/ambari.properties

,在文件中增加client.api.port=<port_number>,本机port_number修改为8888。

② 查看Ambari进程:

ps -ef | grep ambari

③ 停止Ambari进程:

ambari-server stop

④ 重启Ambari进程:

ambari-server restart

四、磁盘扩容

问题引入:后续进行MR Job执行时,会报类似“磁盘空间不够”的错误,原因是Ambari安装所在目录的磁盘容量不够导致。

解决方案:由于Ambari安装后,会创建一个LVM的逻辑卷,供Hadoop运行产生的临时文件存储用,如下:

wps9ED7.tmp

所以,我们只需要对vg_hadoop01进行扩容。操作如下:

1) 1表示第一块分区的信息,该分区已经被Hadoop占满;2表示第二块分区的信息,也就是我们需要将它扩容到vg_hadoop01上的分区。如下:

wps9EE8.tmp

2) 现将/dev/sdb5分区块(注意这里Id必须是8e,System必须是Linux LVM)分配给vg_hadoop01.

① 8e和Linux LVM的设置命令:

fdisk /dev/sdb

,接着按m,根据提示设置。

wps9EE9.tmp

② 输入命令:partprobe,让分区表生效。

wps9EEA.tmp

③ 由于LVM所在的文件类型是ext4,所以新的分区必须格式化为ext4.

wps9EFB.tmp

格式化命令:

mkfs –t ext4 /dev/sdb5

.

④ 创建PV(物理卷),命令:

pvcreate /dev/sdb5

,利用:pvdisplay查看:

wps9EFC.tmp

⑤ 扩容LVM,命令:

vgextend vg_hadoop01 /dev/sdb5

,利用:vgdisplay查看:

wps9EFD.tmp

⑥ 将LVM中的容量扩展到LV(逻辑卷),命令:

lvextend –L 100G /dev/vg_hadoop01/lv_root

,将分区/dev/vg_hadoop01/lv_root的容量扩充到100G.利用lvdisplay查看:

wps9F0D.tmp

3) 执行该重设大小,对于当前正在使用的/dev/vg_hadoop01/lv_root有效.命令:

resize2fs /dev/vg_hadoop01/lv_root

,查看扩容后的挂载情况:df -lhT.

wps9F0E.tmp

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/c0e7fe33119519fa302b736217d09efd.html