Ubuntu上使用Hadoop 2.x + HDFS Federation(2)

把datanode的hostname都写进去

datanode1 datanode2 datanode3 datanode的配置 core-site.xml <configuration> <property> <name>io.file.buffer.size</name> <value>131072</value> </property> </configuration> hdfs-site.xml <configuration> <property> <name>dfs.datanode.data.dir</name> <value>file:/home/hduser/mydata/hdfs/datanode</value> </property> <!--hdfs federation begin--> <property> <name>dfs.federation.nameservices</name> <value>ns1,ns2</value> </property> <property> <name>dfs.namenode.rpc-address.ns1</name> <value>namenode1:9000</value> </property> <property> <name>dfs.namenode.rpc-address.ns2</name> <value>namenode2:9000</value> </property> <!--hdfs federation end--> </configuration>


总体上来说,namenode的配置比较多,包括rack awareness的设置。
现在在两个namenode上格式化,并启动:

hdfs namenode -format -clusterId csfreebird hadoop-daemon.sh --config $HADOOP_CONF_DIR --script hdfs start namenode

因为曾经格式化过namenode,要回答y表示重新格式化。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/501c8410799de6b5116f9a42b33bd6a0.html