CDH+Kylin三部曲之二:部署和设置 (2)

在选择主机的页面,都选择CDH服务器:

在这里插入图片描述

接下来是数据库设置的页面,您填写的内容必须与下图保持一致,即主机名为localhost,Hive的数据库、用户、密码都是hive,Activity Monitor的数据库、用户、密码都是amon,Reports Manager的数据库、用户、密码都是rman,Oozie Server的数据库、用户、密码都是oozie,Hue的数据库、用户、密码都是hue,这些内容在ansible脚本中已经固定了,此处的填写必须保持一致:

在这里插入图片描述

在设置参数的页面,请按照您的硬盘实际情况设置,我这里/home目录下空间充足,因此存储位置都改为/home目录下:

在这里插入图片描述

等待服务启动:

在这里插入图片描述

各服务启动完成:

在这里插入图片描述

HDFS设置

如下图红框所示,HDFS服务存在问题:

在这里插入图片描述

点击上图中红色感叹号可见问题详情,如下图,是常见的副本问题:

在这里插入图片描述

操作如下图,在HDFS的参数设置页面,将dfs.replication的值设置为1(只有一个数据节点):

在这里插入图片描述

经过上述设置,副本数已经调整为1,但是已有文件的副本数还没有同步,需要重新做设置,SSH登录到CDH服务器上;

执行命令su - hdfs切换到hdfs账号,再执行以下命令即可完成副本数设置:

hadoop fs -setrep -R 1 /

回到网页,重启HDFS服务,如下图:

在这里插入图片描述

重启后HDFS服务正常:

在这里插入图片描述

YARN设置

默认的YARN参数是非常保守的,需要做一些设置才能顺利执行Spark任务:

进入YARN管理页;

如下图所示,检查参数yarn.nodemanager.resource.cpu-vcores的值,该值必须大于1,否则提交Spark任务后YARN不分配资源执行任务,(如果您的CDH服务器是虚拟机,当CPU只有单核时,则此参数就会被设置为1,解决办法是先提升虚拟机CPU核数,再来修改此参数):

在这里插入图片描述

yarn.scheduler.minimum-allocation-mb:单个容器可申请的最小内存,我这里设置为1G

yarn.scheduler.maximum-allocation-mb:单个容器可申请的最大内存,我这里设置为8G

yarn.nodemanager.resource.memory-mb:节点最大可用内存,我这里设置为8G

上述三个参数的值,是基于我的CDH服务器有32G内存的背景,请您按照自己硬件资源自行调整;

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/wpjpsz.html