Hadoop破坏试验可靠性验证(2)

6、在namenode节点执行hadoop dfsadmin –refreshNodes命令,它不用重启集群服务去读取core-site.xml配置文件,也会在后台进行Block块的移动,从移除的Nodes上移动到其它的Nodes上面。

7、通过hadoop dfsadmin –report查看集群状态能查看到数据是否移除完毕。只有192.168.3.66数据节点状态是移除状态。

观察一段时间后,等Decommissioned in progress状态变为Decommissioned后,表示此移除的Nodes节点上的所有数据块已全部被复制到其它工作正常的Nodes上,应为3份。

网页上也会显示把移除的节点剔除列表

8、验证hadoop5数据节点是否有上传过30M文件的数据块

9、下载hdfs文件系统中的file.222文件到本地,并且验证hbase是否可用?

【测试结果】

hadoop集群中手动删除任何其中一台datanode节点,对文件系统没有任何影响。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/a12cd89711f2fa3009c8d9f1c80a3728.html