Hadoop集群安装详细步骤(3)

$Hadoop_HOME/conf/hdfs-site.xml是HDFS的配置文件,对应并覆盖hdfs-default.xml中的配置项。我们一般在这个文件中增加如下配置:

Hdfs-site.xml

<configuration>            <property>                    <!-- DFS中存储文件命名空间信息的目录 -->                    <name>dfs.name.dir</name>                    <value>/opt/hadoop/data/dfs.name.dir</value>            </property>            <property>                    <!-- DFS中存储文件数据的目录 -->                    <name>dfs.data.dir</name>                     <value>/opt/hadoop/data/dfs.data.dir</value>            </property>            <property>                    <!-- 是否对DFS中的文件进行权限控制(测试中一般用false)-->                    <name>dfs.permissions</name>                    <value>false</value>           </property>    </configuration>  

$HADOOP_HOME/conf/mapred-site.xml是Map/Reduce的配置文件,对应并覆盖mapred-default.xml中的配置项。我们一般在这个文件中增加如下配置:

Mapred-site.xml

<configuration>            <property>                    <!-- 用来作JobTracker的节点的(一般与NameNode保持一致) -->                    <name>mapred.job.tracker</name>                    <value>192.168.1.111:9001</value>            </property>            <property>                    <!-- map/reduce的系统目录(使用的HDFS的路径) -->                    <name>mapred.system.dir</name>                    <value>/system/mapred.system.dir</value>            </property>            <property>                    <!-- map/reduce的临时目录(可使用“,”隔开,设置多重路径来分摊磁盘IO) -->                    <name>mapred.local.dir</name>                    <value>/opt/hadoop/data/mapred.local.dir</value>            </property>    </configuration>  

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/43bb07b90e425a6559abfccc7e68e9df.html