6、在namenode节点执行hadoop dfsadmin –refreshNodes命令,它不用重启集群服务去读取core-site.xml配置文件,也会在后台进行Block块的移动,从移除的Nodes上移动到其它的Nodes上面。
7、通过hadoop dfsadmin –report查看集群状态能查看到数据是否移除完毕。只有192.168.3.66数据节点状态是移除状态。
观察一段时间后,等Decommissioned in progress状态变为Decommissioned后,表示此移除的Nodes节点上的所有数据块已全部被复制到其它工作正常的Nodes上,应为3份。
网页上也会显示把移除的节点剔除列表
8、验证hadoop5数据节点是否有上传过30M文件的数据块
9、下载hdfs文件系统中的file.222文件到本地,并且验证hbase是否可用?
【测试结果】
hadoop集群中手动删除任何其中一台datanode节点,对文件系统没有任何影响。